Как вывести сайт в топ поисковых систем. Часть 1.

Сейчас мы попробуем с вами сыграть в игру, которые часто применяется на групповых занятиях со студентами. Мы будем строить таблицу на основе команд, которые есть в классе или группе. Им выдается по одному сайту для анализа.
 
Мы берем тематику, например, такси в Екатеринбурге, пицца в Ульяновке или суши во Владивостоке. Дальше выбираем ТОП-10 Яндекса и выдаем каждой команде по одному сайту. Дальше все данные мы начинаем вносить в таблицу.
 
Зачем рассматривать похожие сайты между собой? Только сравнивая себя по каким-то параметрам с конкурентом, вы можете понять, как работает ранжирование в вашей тематике по поисковому запросу. Нам может быть не интересен данный запрос, но нам интересно исследовать как формируется ТОП-10.

Параметры оценивания сайтов

Для начала мы проводим параллель и ищем схожие параметры на всех сайтах. С помощью готовой таблицы можно вывести формулу ранжирования. Вы поймете, как определиться и что нужно делать с сайтом, чтобы быть в ТОП-10. Как только мы вбиваем в таблицу ТИЦ и PageRank, мы понимаем, что они не влияют на определение позиций в ТОП-10. Для многих эта информация является настоящим открытием.
 
Следующими подпунктами в таблице могут стать категории: количество страниц, проиндексированных в Яндекс и Google. В итоге сайты получаются разными по объему. Иногда размер сайта на что-то влияет, чем он больше, тем лучше.
 
Очень часто по любым запросам на первые позиции выходят именно большие сайты: огромные бренды, гипермаркеты, такси агрегаторы и т.д. Однако выйти на первые позиции можно с помощью лэндинг пейдж, которые состоят всего из одной страницы.

Индексация сайта

Цифры по этим категориям в таблице могут значительно отличаться. Это важный фундаментальный и технический вопрос – вопрос индексации сайта. Ваш сайт состоит из определенного количества страниц. В каталоге может быть 50 товаров, а в разделе «Новости» — 10 статей. На выходе мы получаем четь больше 60 страниц сайта. Но при детальном анализе мы можем увидеть данные о том, что Яндекс видит 300 страниц, а Google 200.
 
Что это значит? Яндекс и Google отправляли на место, где хранится ваш сайт своих поисковых роботов. Они собирали информацию, которую смогли там найти. Что они собрали, то и поместили в индексную базу. Если робот собрал мало информации, возможно были технические трудности или медленно грузился ваш сайт. Также может быть выставлен лимит на индексацию страницы, что затрудняет сбор информации. Это может быть сделано с целью защитить личные данные клиентов.

Робот robots.txt

Легко добиться того, чтобы индексация была лучше, если внутри вашего сайта создан робот robots.txt. По сути каждый сайт – это коробка с вещами, которая находится в открытом состоянии. Робот Яндекса может в них заглянуть. В роли инструкции куда роботам не нужно заглядывать, выступает как раз robots.txt. Если он есть, робот знает, что делать с вашим сайтом, если нет – все что хранится у вас на сервере поддается осмотру и анализу. Эти HTML-документы могут попасть в индексную базу и поисковую систему.

Склейка зеркал сайта

Что можно анализировать еще? Еще одно не очевидное для вас понятие — склейка зеркал сайта с www и без www. Что это за явление? Хорошие сайты должны открываться только в одном варианте, а без взаимного замещения в адресной строке браузера.
 
Для поисковика один и тот же адрес с www и без www – это разные сайты, которые являются копиями для поисковика. Поэтому избыточная индексация может найти свое объяснение через это явление. Еще одно важное явление – это разделение ссылочного весам между адресами с www и без www. Пока вы это не настроите, люди могут видеть адрес вашего сайта в разных конструкциях.

Особенности файла robots.txt

Рассмотрим более детально файл robots.txt. Его наличие можно посмотреть разными способами: программа PR CI или же вы можете написать адрес сайта в строке браузера и добавить «robots.txt». Если он отсутствует, то на открывшийся странице вы увидите надпись: «Страница не существует». Если он есть, то вы увидите набор определенных символов, их называют директивы.
 
В файле robots.txt должны быть следующие директивы: Host, Sitemap, Dizalo, Lo. Некоторые из них необходимо обязательно внести в таблицу: Host и Sitemap. Host отлично работает для склейки зеркал – какой сайт вы считаете основным. Директива Sitemap незаменима для сайтов, которые имеют больше одной страницы. Это техническая карта сайта. Это вам позволит добиться того, что в индексную базу попадут страницы, которые вам нужны.

Скорость загрузки

Дальше в таблицу можно добавить пункт – скорость загрузки. Существуют специальные сайты, которые показывают скорость загрузки страниц в классическом браузере и в мобильном. Если скорость загрузки выше в два раза, чем на остальных сайтах, у вас есть все шансы выйти на первые позиции ТОП-10 в поисковике. Здесь она оказалась приоритетным фактором ранжирования. Если вы сильно проигрываете в этом перед конкурентами – есть смысл работать в этом направлении.
 
Продолжение читайте в следующей части.