Читать книгу Записки интернет-маркетолога. Часть 4. Топ-5 для сайта по SEO - Игорь Новицкий - Страница 2
ОглавлениеСодержание
Введение в SEO
Технические моменты индексации:
• Robots. txt;
• Вебмастера поиска;
• Время загрузки;
• Хостинг;
• Код ответа сервера;
• Адрес интернет – страницы;
• Доступность сайта для поисковых систем;
• Дублированные страницы.
Всем привет, друзья! Продолжаем совместными усилиями двигаться к вершинам продаж в интернете, то есть постигать секреты интернет – маркетинга. Теперь настало время пройти азбуку продвижения в интернете – SEO.
Что такое SEO? Как всегда, теорию можно прочесть на бесплатных ресурсах. Скажу кратко, SEO – это прямой путь к продажам через органический поиск путем наименьших финансовых затрат. Хотя и это можно назвать условно. Напомню, что такое органический поиск. По умолчанию, бесплатная выдача поисковых систем без отметки «реклама». Почему я написал слово «по умолчанию». Так как бесплатно она выглядит только на взгляд поисковых систем. Если разобраться, то она совсем не бесплатная. В процессе вы поймете, что я имею в виду.
С чего начинается SEO? С индексации сайта. Мы уже знакомы с этим определением, поэтому не будем на нем останавливаться. Как только на просторах интернета появляется «молодой сайт» (МС), то роботы поиска начинают его сканировать. Скажу сразу, путь в топ 5 с помощью инструментов SEO очень длинный, но, в итоге вы получаете посетителей и продажи. Причем затраты на органическое продвижение окупаются очень быстро, как только сайт выходит на достойные позиции. Как это быстро происходит? Все ПС считают сайт «молодым» сроком до года. Но, это не значит, что он не будет индексироваться. Важно знать, что сайт должен индексироваться постоянно. Работа над ним должна вестись всегда. Так вот, по моим наблюдениям, хорошие результаты по Гугл можно заметить приблизительно на третьем месяце индексации. Яндекс уже на первом месяце может дать высокие позиции для сайта.
Как ускорить процесс попадания сайта в топ 5 в органической выдаче? Этим мы с вами и будем заниматься на протяжении нескольких книг.
Предварительный процесс мы прошли. У нас есть полезный текстовой контент, семантическое ядро, целевая аудитория, уникальные – торговые предложения. По легенде, вы уже весь этот материал предоставили разработчику сайта. Он его интегрировал на сайт и, я поздравляю вас, сайт в интернете. Но вот беда, его нигде не видно по поисковым запросам, к примеру, вводите в строку поиска «купить стульчик для ребенка», а сайта нет. Вот в этом часто основная ошибка всех, кто решил создать сайт. Они думают, что как только сайт будет в интернете, то с «небес посыплется Манна». Нет и еще раз нет. Чтобы это произошло, сайт надо продвигать.
Robots. txt
Для начала предлагаю проверить ваш сайт на технические показатели. Топ 5 занимают только технически качественные интернет – ресурсы. И сразу введите в строку поиска следующую фразу на латинице: «ivan.ru/robots. txt», где ivan.ru – домен сайта, robots. txt – файл, который показывает открыт ли сайт для индексации в поиске. Да, коллеги, сайт можно и закрыть для поиска. Для чего это делается? Как только вы разместили сайт на хостинге, на него «побежали» поисковые роботы или жуки. Я их называю трудягами поиска. И, если сайт еще дорабатывается, то открытый индекс навредит. Поэтому его надо закрыть от индексации. Этим мы показываем роботам, что не надо пока сканировать материалы.
Итак, что в итоге у нас должно быть после ввода вышеназванного словосочетания? Сразу расскажу про негативный момент. Как только увидели следующую информацию:
User-agent: *
Disallow: /
то сразу начинаем разбираться, почему это сделано. Так как это означает, что ваш сайт просто закрыт от индекса во всех поисковых системах.
User-agent: Yandex
Disallow: /
это показывает, что нет индексации только в ПС Яндекс.
User-agent: GoogleBot
Disallow: /
это то, что сайт закрыт для индекса в ПС Гугл.
Основные индексирующие роботы поиска:
• Поисковая система Яндекс – Yandex
• Поисковая система Гугл – GoogleBot.
Есть еще роботы, которые отвечают за каждый участок индексации сайта. Не будем их перечислять. Гугл всем в помощь!
Задайте вопрос разработчику, почему он не открыл индекс. Возможно он просто забыл, ну, а может он хочет заполучить вас, как постоянного заказчика в продвижении сайта? Предположим, после создания сайта принято решение продвигать сайт самостоятельно или с помощью «записок интернет – маркетолога» Игоря Новицкого. Создать сайт – это единовременный заработок. Заказчик заплатил и до свидания. Чего не скажешь про раскрутку в поисковых сетях. Это постоянная работа и стабильный заработок. К тому же, открою секрет, над МС надо попотеть только первое время, потом его ПС сами будут тянуть в топ 5. Нет, я не хочу сказать, что работа над ним прекратиться, но она уж точно уменьшится намного. Так вот, «нечистоплотные» разработчики это знают и просто «забывают» сайт открыть для индексации. Вы еще не прочли эту книгу и начинаете волноваться. И это понятно, деньги потрачены, сайт не приносит прибыль. Идете к разработчикам, они открывают сайт для индекса всего за одну минуту. Через определенное время ресурс показывает первые результаты в выдаче. Вы довольны, и теперь постоянно платите, чтобы сайт там и оставался. Прекрасная схема, не правда ли? Есть много подводных течений и уловок, чтобы привести заказчика обратно. О них я буду постепенно рассказывать на страницах книг.
С запретом разобрались. Теперь вы знаете, как проверить индексацию и можете даже помогать своим друзьям и знакомым. Разбираемся дальше с файлом robots. txt.
С его помощью можно запрещать не только сайт весь, но и отдельные страницы. Кстати, некоторые надо запрещать в обязательном порядке. Это: технические страницы, дублированные и те страницы, которые вы не хотите видеть в ПС. Мой совет: создать файл robots. txt я помогу, а интегрировать его надо поручить человеку, который разбирается в этом. Так как файл должен лежать в папке на хостинге. И упаси вас Бог, сделать что – то не так по неопытности.
Так для чего же все – таки необходим этот файл? Приведу простой пример и перенесем его на реальную жизнь. Роботы поиска приходят на ваш сайт и видят много, иногда очень много дверей. Под дверями я подразумеваю интернет – страницы. Они гадают, входить – не входить. Именно robots. txt показывает в какую дверь надо входить, а в какую нет.
Помимо robots. txt жукам помогает карта сайта – sitemap. Она создается, чтобы роботы не «заблудились», а четко и быстро просканировали все нужные страницы. Карту тоже надо создавать в ручном порядке, спросите вы? Нет, ни карту, ни файл robots. txt, не надо создавать руками. Для этого есть бесплатные программы. Для sitemap: mysitemapgenerator.com. Для robots. txt: pr-cy.ru. С этими программами очень легко работать. Они сами за вас все создадут. Останется только отдать файлы человеку, который занимается технической поддержкой сайта.