Читать книгу Искусство продвижения сайта. Полный курс SEO: от идеи до первых клиентов - Никита Мелькин - Страница 4

Глава 1
Философия современного интернет-продвижения
1.1.Поисковые системы против оптимизаторов

Оглавление

История отношений поисковых систем и seo-специалистов напоминает извечную проблему создания брони, защищающей от пушек, и вслед за этим создания новых пушек, пробивающих усовершенствованную броню.

Когда-то давно Интернет был «совсем маленьким» и не представлял коммерческого интереса. Доступ к сети был только у университетов и использовался он больше в исследовательских и научных целях, а также для быстрого обмена информацией.

Этап 1. Изначально для целей поиска информации был предназначен мета-тег Keywords. Именно там записывались ключевые слова, описывающие собственно информационный материал, и по ним в дальнейшем можно было проводить поиск. Это еще не было полноценным решением, а скорее напоминало поиск по карточкам или по названию книг в библиотеке.

Как вы понимаете, использование этого мета-тега быстро исчерпало себя. Keywords не давал никакой возможности отсортировать материалы в порядке важности, что создавало очевидную проблему в случае, если по заданной фразе находилось несколько десятков документов.

Этап 2. После этого и появился собственно настоящий, полнотекстовый поиск. Поисковики стали оценивать текст материала, а также html-оформление. Фразы, выделенные жирным шрифтом или тегами <Н> заголовков, считались более важными. Поисковые системы начали сортировать результаты по релевантности – т. е. старались высоко ранжировать (показывать первыми в результатах) страницы, максимально соответствующие заданной ключевой фразе.

Оптимизаторы ответили на это появлением нового направления деятельности- seo-копирайтинга. Интернет стал заполняться тысячами и тысячами новых статей, написанных правильным языком и вроде бы дающими подробный ответ на тот или иной вопрос. Но, по сути, большая часть этих текстов не несла никакой реально полезной смысловой информации, а создавалась лишь для получения высоких позиций в выдаче.

Это был период, когда на всех seo-форумах бурно обсуждались вопросы об идеальной процентной плотности ключевых слов, количестве прямых вхождений заданной фразы в текст материала, количестве выделений жирным шрифтом и т. п.

Этап 3. Принципиальный шаг к решению этой проблемы совершила компания Google, введя понятие ссылочной цитируе-мости. Допустим, имеется две схожих страницы, одинаково полно отвечающих на заданный вопрос. Анализ текста не позволяет выявить, какая из этих страниц лучше – обе идеально соответствуют заданной теме.

В основу нового алгоритма легла идея, что лучшей является та страница, на которую больше ссылаются другие сайты. Это и понятно – если на некоторую информацию есть ссылки с других ресурсов, пользователи и вебмастера рекомендуют ее другим людям-значит эта информация полезна. И напротив, если текст вроде бы хороший, но никто его не рекомендует для прочтения – значит реальной пользы от этого материала нет.

Учитывалось не только количество ссылок, но и важность самих ссылающихся страниц («голос» с сайта CNN явно более весом, чем голос с домашней страницы «Васи Пупкина»).

Подобный подход совершил революцию в качестве поиска, и до сих пор остается тем фундаментом, на котором строятся современные алгоритмы ранжирования. Очевидно, что ссылками, размещенными на других сайтах, манипулировать на порядок труднее, чем просто разместить псевдо-полезные статьи на своем ресурсе.

Пару лет новые алгоритмы работали хорошо. Но в дальнейшем начала развиваться индустрия продажи ссылок. Если раньше оптимизатор размещал 10 псевдо-статей у себя на сайте, то теперь под каждую статью создавалось еще по 10–50 псевдо-новостей, псевдо-статей, псевдо-постов на форумах-все для того, чтобы получить нужное количество ссылок и подняться в результатах выдачи. Этот процесс идет и до сих пор, создаются целые сайты, не несущие ничего полезного, а применяемые исключительно под продажу ссылок.

Этап 4. Поисковые системы стали отслеживать поведение пользователей на ресурсе. Сколько времени человек провел на сайте, сколько страниц посмотрел, вернулся ли обратно в поиск или же остался удовлетворен полученной информацией.

К сожалению, это стало лишь полумерой, т. к. поведенческие факторы легко поддаются накрутке. Накручивать можно автоматически, с помощью специальных программ, эмулирующих деятельность человека. А можно привлечь армию «школьников», готовых за копейки совершать нужные действия – искать заданные фразы, переходить на заданные сайты, кликать по заданным ссылкам – и такие сервисы действительно есть. Получается не подкопаться – реальные люди действительно просматривают реальные страницы, вот только выводы о полезности этих страниц оказываются ошибочными.

Этап 5. Очередным принципиальным шагом стало использование в алгоритмах элементов искусственного интеллекта, который позволяет «машине» видеть «глазами человека».

На современном этапе вычислительных мощностей даже самых быстрых супер-компьютеров недостаточно для создания полноценного искусственного интеллекта. И тем не менее, это направление очень бурно развивается и, несомненно будет играть все большую роль в работе поисковых машин.

Яндекс запустил новый алгоритм в 2009 году и назвал его MatrixNet. Нам нет нужды вдаваться в технические подробности, но понимание самой сути этого подхода настолько важно, что я посвятил этому вопросу отдельный параграф книги. Продвигая сайт, мы должны понимать КАК будет смотреть на него поисковая система.

Искусство продвижения сайта. Полный курс SEO: от идеи до первых клиентов

Подняться наверх