Коммерческие факторы ранжирования в «Яндексе. Поведенческие факторы ранжирования Яндекс и Google

Что такое поведенческие факторы ранжирования и как они влияют на SEO-оптимизацию сайта в Яндекс и Google? Откуда поисковики берут данные о ПФ? Список из 26 поведенческих факторов ранжирования: как их улучшить? Возможно ли накрутить ПФ или пессимизировать сайт конкурента? Обо всем подробнее читайте в данной статье.

При формировании выдачи поисковые системы ориентируются на , которые используются в алгоритмах определения качества сайтов и их релевантности поисковым запросам. Одними из самых значимых SEO-факторов являются поведенческие факторы ранжирования .

Что такое поведенческие факторы сайта?

Поведенческие факторы ранжирования - это комплекс параметров, определяющих релевантность страницы поисковому запросу, основываясь на действиях пользователей сайта, их профиле и истории взаимодействия с поиском. Данные параметры используются в поисковых алгоритмах ранжирования.

Поведенческие факторы сегодня играют важную роль в процессе определения релевантности сайтов, однако, их вклад невозможно оценить количественными показателями. Во-первых, поисковые системы не комментируют информацию и не разглашают факторы ранжирования сайтов и их вес в общей формуле ранжирования. Во-вторых, существует большое количество других факторов, которые также влияют на выдачу. Это могут быть доменные, ссылочные, коммерческие факторы и т.д.

Поведенческие факторы отражают вовлеченность и заинтересованность посетителя в контенте, представленном на странице. Современная SEO-оптимизация не представляется эффективной без работы над этими показателями, удобством интерфейсов, качеством контента .

Влияние поведенческих факторов на SEO

Стоит начать с того, что поведенческие факторы нельзя рассматривать абстрагировано от других факторов ранжирования. Например, технические факторы, такие как низкая скорость работы сайта или наличие битых внутренних ссылок, могут существенно понизить глубину просмотра. Недоступность сервера или наличие неоптимизированных изображений для людей с нестабильным интернетом может стать проблемой в отображении контента на сайте, что в свою очередь может повысить показатель отказов. Некачественный контент, неинтересный текст, скорее всего, спровоцирует пользователя уйти на другой сайт.

Высокая степень зависимости пользовательских факторов от качества сайта, а также сложность искусственного влияния на них сделали данные факторы одними из наиболее весомых в определении релевантности выдачи. Около 10-15 лет назад большой приоритет в поисковых алгоритмах имели текстовые и ссылочные факторы ранжирования. Простота их определения привела к искусственным накруткам: массовой покупке внешних ссылок, переоптимизации текстов ключевыми словами. Закономерно влияние данных факторов уменьшалось, появлялись пессимизирующие алгоритмы ранжирования, такие как Баден-Баден и Минусинск, которые понижали сайты в выдаче за поисковый спам и неестественную ссылочную массу.

С 2014 года Яндекс закономерно заявил о повышении влияния поведенческих факторов ранжирования в определении релевантности страниц, и соответствующем снижении влияния внешних ссылок. Поисковик рассказал, что приоритетными в обновленном алгоритме, то есть имеющими больший вес в общей формуле ранжирования, являются именно поведенческие факторы, которые основываются, в первую очередь, на качестве контента, юзабилити и пользовательском опыте взаимодействия с поиском и сайтом .

Откуда поисковые системы берут данные по ПФ?

Прежде чем перейти к списку поведенческих факторов ранжирования, давайте рассмотрим источники, из которых поисковые системы черпают данные по web-ресурсам.

  1. Системы аналитики . Практически на каждом сайте сегодня установлен счетчик статистики Яндекс.Метрики или Google Analytics. Предоставляя вебмастерам бесплатный инструмент аналитики, поисковые системы получают взамен колоссальный объем данных, которые используются для ранжирования.
  2. Браузеры . Поисковые системы неспроста тратят огромные деньги на разработку и рекламу собственных браузеров. Это еще один источник информации о пользовательском профиле, его взаимодействии с сайтами, который позволяет сделать поиск более качественным.
  3. Расширения для браузеров наподобие Яндекс.Бара могут передавать поисковым системам данные о взаимодействие пользователей с поиском.
  4. Сервисы поисковых систем . Данные из Google Search Console, Google Plus, Яндекс.Вебмастера, Дзена, Справочника и других сервисов поисковых систем могут учитываться в определении релевантности сайтов.
  5. Прочий софт и программное обеспечение, так или иначе подконтрольное поисковым системам. Например, PuntoSwitcher, купленный Яндексом, может предоставлять данные для поиска о пользовательских опечатках. Эта информация может использоваться при определении витальной вадачи.

По поводу пользовательского опыта взаимодействия с поисковыми компаниями уже слагаются интернет-мемы:

Как говорится, в каждой шутке есть доля правды. Современные поисковые системы могут персонализированно подходить к формированию профиля пользователя, основываясь на данных его взаимодействия со всевозможными сервисами и приложениями .

Список: 26 поведенческих факторов ранжирования

Рассмотрим список поведенческих факторов ранжирования, которые сегодня могут в существенной степени влиять на позиции вашего сайта в поиске как в лучшую, так и в худшую сторону:

Накрутка поведенческих факторов представляет из себя искусственную имитацию действий пользователей на сайте. Она призвана увечить глубину просмотра, время на сайте, снизить показатель отказов и повлиять на другие параметры, влияющие на ранжирование сайтов. На сегодняшний день оптимизаторы либо разрабатывают собственный софт, либо пользуются сторонними сервисами по накрутке ПФ.

Оба пути искусственного воздействия на выдачу мы считаем бесперспективными. 4-5 лет назад данные инструменты могли работать, однако, позже поисковики стали пессимизировать, либо вовсе исключать из выдачи ресурсы за подобные махинации. Пользовательские факторы - сами по себе являются сложными и нелинейными показателями, эффективность которых сильно зависит от тематики, профиля пользователя, его истории посещений, типа ресурса и множества других факторов. Объективно, существующие сервисы линейно накручивают самые доступные факторы достаточно примитивными способами, которые легко отследить. В статистике сайта резко меняется география посетителей, их устройства, IP-адреса, ничем не обоснованный характер поведения пользователей на сайте, распределение внимания по страницам и т.д. Подобные нехарактерные изменения современные поисковые системы легко отслеживают. Теоретически существует возможность разработки алгоритма максимально приближенного к действиям пользователей, однако, это будет следствием нарушения безопасности в интернете, создания бот-сетей, которые в дальнейшем могут использоваться для DDos-атак и других корыстных целей хаккеров. Поисковые системы расценивают данную угрозу как поисковый спам и негативно относятся к распространению в интернете вредоносного ПО.

Вот комментарий официального представителя Яндекс от 2016 года, когда компания начала активно бороться с данным видом поискового спама:

Отсюда возникает вполне закономерный вопрос: "Как поисковые системы отслеживают накрутку ПФ с целью понижения позиций конкурентов в выдаче?". Мы считаем, что санкции за накрутку ПФ накладываются через продолжительное время использования и только ручным путем. В этом случае конкурентам придется долгое время тратить собственные деньги, с каждым днем все больше сомневаясь в перспективах попыток пессимизации конкурентов. А возможно, подозрительный трафик и ПФ, который поисковые системы считают неестественный просто отсеивается от участия в алгоритмах ранжирования. Поделитесь своим мнением в комментариях по данному вопросу.

Вот официальный ответ от поддержки Яндекса. Поисковая система говорит, что подобные попытки учтены и отслеживаются в алгоритме:

Как улучшить поведенческие факторы на сайте?

Вместо попыток искусственно повлиять на пользовательские факторы путем имитации действий пользователей, лучше работать над качеством проекта, его контентом, скоростью работы страниц, юзабилити и другими аспектами современного интернет-ресурса. Давайте рассмотрим несколько возможностей оптимизации сайта для улучшения поведенческих факторов ранжирования .

Ищем слабые точки сайта

Лучшим инструментом для наглядного отображения конверсионных дыр вашего сайта является Вебвизор. Этот инструмент позволяет посмотреть всю сессию пользователя от первого лица, понять характер и мотивы его действий. С помощью Вебвизора вы сможете проанализировать и понять, почему посетители покидают ваш сайт, с каких именно страниц они это делают и после каких действий.

Анализируйте отказы, сессии с низкой продолжительностью и активностью, по которым переходят пользователи на ваш сайт, браузеры и устройства. Отслеживайте корректность отоборажения вашего сайта на разных разрешениях, устройства и браузерах. Возможно, большой показатель отказов приходится на какой-то один браузер, который не поддерживает ваш код .

Продолжительность сессии

Целенаправленно увеличивать продолжительность сессии нет никакого смысла, так как данный фактор сильно зависит от тематики проекта, его целей и содержания. Однако повышение времени, проводимого пользователями на сайте, может сигнализировать о большей вовлеченности пользователей в информацию или товарный ассортимент вашей страницы.

Если рассматривать коммерческий сайт, то обязательно добавьте пагинацию страниц, добавьте возможность отфильтровать количество товаров на странице, используйте товарные фильтры, поэксперементируйте с подгрузкой товаров без перезагрузки страницы (Ajax). Отображайте количество товаров в категории, чтобы пользователи осознавали широту вашего ассортимента. Предоставляйте пользователям максимально полную информацию о ваших товарах: видео-обзоры, фотографии с разнообразных ракурсов, подробные описания товаров, их характеристики. Старайтесь отображать важную для пользователей информацию еще до перехода на карточку товара.

Информационные сайты могут повысить вовлеченность пользователей и время сессии с помощью всевозможных опросов по теме, тестами, мнениями специалистов и знаменитостей, инфографикой, полезными видеозаписями, удобными таблицами и качественной структуризацией и представлением контента на странице.

Существует одна очень интересная техника проверки юзабилити и удобства вашего сайта. Предложите своей маме или бабушке, которые не являются продвинутыми юзерами, найти определенную страницу или оформить заказ на вашем сайте. По их реакции вам сразу станет понятно, какими слабыми зонами с точки зрения пользователей обладает ваш сайт .

Глубина просмотра

Работайте над смысловой перелинковкой страниц, навигацией и структурой сайта, чтобы пользователи могли добраться до любой страницы не более чем за 3 клика. Предлагайте пользователям сопутствующей контент в зависимости от их интересов и контента той страницы, на которой они находятся .

Снижаем показатель отказов

Убираем своего сайта агрессивную рекламу и всплывающие окна, закрывающие для пользователя доступ к контенту. Поднимите наиболее важный для пользователя контент навверх страницы. Если это товарная категория, пользователь должен в обозримой области своего устройства сразу видеть товарные позиции. Если это информационная статья, пользователь не должен листать до середины страницы в надежде добраться до контента, просматривая тонну рекламы или бесполезных материалов.

Проверьте корректность работы скриптов вашего сайта на всех устройствах и браузерах. Возможно ошибки интерпретации кода браузером мешают пользователям получить доступ к контенту или совершить необходимые действия .

Проработка сниппетов

Проанализируйте CTR ваших сниппетов, траффик по отдельным страницам и позиции сайта в выдаче в сравнении с прошлыми показателями. Оцените релевантность информации, представленной в сниппете с теми задачами, которые пытается решить пользователь. Не забудьте учесть сезонность и динамику спроса по тем или иным ключевым запросам.

Поработайте над микроразметкой вашего сайта, чтобы получить расширенные сниппеты. Поэксперементируйте с использованием спецсимволов и самйлов HTML5 в заголовках и описаниях сниппетов. Посмотрите, как это отразится на ваших позициях и траффике.

Повышаем пользовательскую активность

При использовании "Чата с компанией" в поиске, оперативно и максимально подробно давайте пользователям консультации.

Попробуйте в конце статьи поинтересоваться мнением своих читателей по представленному материалу, возможно, это повысит их вовлеченность в обсуждение заданной темы .

Обновляем и актуализируем контент

Эта рекомендация касается как коммерческих, так и информационных сайтов. В первом случае чрезвычайно важно поддерживать актуальность товарных остатков, чтобы пользователи не заказывали те товары, которых на складе уже нет в наличии. Необходимо также поддерживать актуальность цен, описаний, графических материалов, чтобы тот товар, который люди видят на сайте соответствовал ему в реальности.

Для информационных сайтов важно поддерживать актуальность данных, особенно в динамически меняющихся сферах. Юридические сайты с неактуальной правовой информацией вряд ли долго продержатся в ТОП-е выдачи поисковых систем. Также как и сайт о SEO-оптимизации, который рекомендует покупку ссылок и накрутку пользовательских факторов вряд ли заслужит внимания пользователей.

Неактуальный и необновленный контент ваших ресурсов может негативно повлиять на поведенческие факторы, вовлеченность и лояльность аудитории .

Улучшаем взаимодействие с сайтом

Старайтесь предоставлять пользователям максимально возможней функционал и данные, которые помогут им решить свою задачу. Для интернет-магазинов своеобразным must have являются размерные сетки товаров. К пример, для сайта застройщика станет большим плюсом наличие виртуального тура по строящимся квартирам. Для информационного сайта, посвященного диетам будет хорошим дополнением наличие калькулятора калорий, который поможет каждому пользователю посчитать свои персональные показатели и оставить план похудения.

Поставьте себя на место пользователей и подумайте, каким интерактивом или функционалом вы можете помочь им решить свои задачи, а также повысить конверсию или ключевые показатели вашего бизнеса .

Заключение

Для того, чтобы оценить поведенческие факторы вашего сайта, совсем необязательно знать все элементы поисковых алгоритмов. Все что необходимо для анализа с человеческой точки зрения у вас уже есть - это системы аналитики. Осваивайте новые отчеты, анализируйте статистику, поведение пользователей на вашем сайт, дыры, из-за которых пользователи уходят к конкурентам. Ставьте себя на место пользователей и задавайте самому себе вопрос "что мне не нравится в данном сайте?", привлекайте независимых людей из вашей целевой аудитории для оценки контента и юзабилити вашего ресурса.

Подписывайтесь на блог, делитесь статьей в социальных сетях, задавайте свои вопросы в комментариях и делитесь своим мнение по поводу влияние поведенческих факторов на современное SEO.

Почему коммерческие факторы ранжирования страниц в поисковых системах сейчас так актуальны и можно ли понять, как именно они учитываются поисковыми системами?

Что такое коммерческие факторы ранжирования

С конца 2011 года поисковая система «Яндекс» при ранжировании сайтов в поисковых результатах учитывает такие характеристики страниц и сайтов, как юзабилити, цены, ассортимент, возможности оплаты и доставки, наличие гарантий и постпродажного обслуживания, отзывы, качественные фотографии и т.д.

Все эти критерии так или иначе важны для принятия посетителем сайта решения о том, делать ли заказ или звонок. В связи с этим указанная группа критериев условно называется коммерческими факторами ранжирования. Многие из этих факторов касаются не только одной ранжируемой страницы, а сайта в целом.

Почему важно изучать коммерческие факторы ранжирования

Появление этой группы факторов ранжирования внесло существенные изменения в принципы продвижения сайтов агентствами. Теперь владельцы сайтов кровно заинтересованы в том, чтобы специалисты не просто закупали ссылки, а работали над повышением коммерческого потенциала сайта. Правда, для этого агентствам необходимо тесное взаимодействие с клиентами, особенно в тех случаях, когда для улучшения сайта необходимо изменение бизнес-процессов компании.

Вместе с тем, точное влияние тех или иных коммерческих факторов на позиции страницы в поисковой выдаче агентствам до сих пор не известно. Компания «Яндекс» такие данные не раскрывает, чтобы минимизировать возможность манипуляции со стороны оптимизаторов. Кроме того, алгоритмы «Яндекса» (и других поисковых систем) постоянно совершенствуются, а влияние отдельных факторов может существенно зависеть от тематики и/или частоты запроса, а также от предполагаемых «Яндексом» намерений пользователя, задавшего запрос.

Такая ситуация сформировала спрос на более детальное, пусть и не доскональное понимание общих принципов, которыми руководствуется поисковая система при оценке коммерческих характеристик сайтов.

Аналитические данные, собранные по достаточно большой выборке запросов и сайтов, вряд ли позволят нам точно установить причинно-следственные отношения - ввиду большого количества факторов ранжирования в целом (более 800 в случае «Яндекса»). Однако мы можем увидеть связь (корреляцию) между наличием на сайтах тех или иных коммерческих функций (например, телефона 8-800, скидок и т. п.) и позицией страницы в топе поисковой выдачи.

Этого достаточно для того, чтобы при продвижении сайта не действовать вслепую. Кроме того, понимание степени корреляции между теми или иными факторами ранжирования и позицией страниц помогает правильнее расставить приоритеты и сосредоточиться в первую очередь на тех действиях, которые вероятнее всего дадут максимальный эффект.

Понимание коммерческих факторов позволяет также лучше разобраться в том, как работают все остальные факторы ранжирования - например, текстовые и ссылочные.

Лаборатория изучения факторов ранжирования

Летом 2014 года компания «Ашманов и партнеры» запустила новый проект - Лабораторию изучения факторов ранжирования. Специалисты лаборатории изучают коммерческие и ссылочные факторы в топ-30 результатов поиска в «Яндекс», Google и Mail.ru по ряду популярных тематик, в основном, сильно конкурентных.

В настоящее время данные собираются по десяткам тысяч запросов, затрагивают несколько тысяч сайтов и оцениваются более чем по 200 параметрам. Данные примерно по двум третям параметров собираются автоматически, но оставшаяся треть (включая многие из коммерческих параметров) оценивается специально обученными специалистами - асессорами (не путать с асессорами «Яндекса»!).

Количество исследуемых запросов и параметров постепенно увеличивается, как и арсенал статистических методов, которые мы используем. Сейчас мы можем делать выводы о «силе» факторов ранжирования гораздо более уверенно, чем осенью, когда впервые рассказали о проекте на конференции «Интернет и бизнес. Россия» (IBC Russia).

Ранее мы уже приводили несколько примеров корреляции между теми или иными коммерческим факторами и положением страниц сайтов в поисковой выдаче; теперь хотим подробнее рассказать еще о нескольких.

Общие соображения

Для понимания того, о чем пойдет речь ниже, необходимо учесть два общих вывода, которые мы сделали из анализа полученных данных.

Первый из них мы уже упоминали выше: на ранжирование страницы сайта влияют не только ее собственные характеристики, но и параметры, относящиеся к сайту в целом. Сейчас мы можем с уверенностью утверждать, что это относится и ко многим коммерческим факторам: «Яндекс» активно учитывает в ранжировании страниц коммерческие параметры, значения которых вычисляются им для всего сайта.

Например, наличие отзывов на сайте в целом скоррелировано с позицией, занимаемой страницей с сайта в выдаче, сильнее, чем наличие отзывов на этой конкретной странице .

Второй вывод заключается в том, что для каждого параметра полезно оценивать не одну корреляцию, а две. Параметр может быть связан с попаданием сайта (страницы) в «широкий топ» «Яндекса» (сейчас мы оцениваем попадание в топ-30), но не влиять на попадание в десятку и вообще на позицию внутри топа. И наоборот, может быть сильная корреляция с позицией внутри топа при полном отсутствии корреляции с попаданием в топ-30. Разумеется, есть параметры, которые скоррелированы и с попаданием в топ, и с позицией внутри него — как есть и параметры, для которых никаких значимых корреляций вообще не обнаружено.

Кстати, то же самое верно и для Google, хотя и наборы параметров, для которых наблюдаются корреляции, и тип корреляции (с попаданием в топ или с позицией в нём), и ее сила для разных поисковиков может быть очень разной — это представляется нам косвенным подтверждением актуальности наших изысканий.

Поскольку для любого сайта найдутся запросы, по которым он не попадает даже в «тридцатку», для поисковой оптимизации важно учитывать оба вида корреляций - хотя параметры, напрямую скоррелированные с позицией, представляются более важными.

Наличие двух видов корреляции можно объяснить «двухступенчатым» ранжированием, применяемым современными поисковыми системами: сначала очень быстро по упрощенному алгоритму отбирается ограниченное количество (например, тысяча) наиболее перспективных документов, а затем эти документы более сложным (и медленным) алгоритмом выстраиваются в том порядке, в котором мы видим их в результатах поиска.

Телефоны

Наличие телефона на сайте практически не влияет на попадание в топ-30 и слабо - на позицию внутри топа. Это, судя по всему, связано с тем, что телефон и так указан практически на всех коммерческих сайтах (99% в топе «Яндекса», 98% — Google), а те сайты, где его вообще нет, попадают в топ крайне редко.

А вот страницы, где нет телефона, встречаются чаще. Возможно, поэтому и выводы о связи с ранжированием для наличия телефонного номера на странице сделать проще. Оказалось, что наличие телефона на странице для «Яндекса» слабо коррелирует с позицией внутри топа и уверенно - с попаданием в топ.

Интересно, что для Google картина существенно другая: здесь тоже есть слабая связь между наличием телефона на странице и позицией, а вот на попадание в топ телефон никак не влияет. (Для этого параметра данные были получены двумя способами - оценка асессора и автоматический анализ страницы - и результаты совпали.)

Остановимся на телефонах подробнее и посмотрим на их количество и качество.

Наличие (на сайте) нескольких телефонов слабо скоррелировано с позицией в топе «Яндекса», а наличие большого количества телефонных номеров демонстрирует уже уверенную корреляцию с позицией. В то же время, корреляции с попаданием в топ-30 в обоих случаях мы не видим - в отличие от Google, где корреляция с попаданием в топ, напротив, сильная.

Что касается «качества» телефонов, то мы изучили целых три связанных с этим параметра.

3. Для бесплатных телефонов с номером 8-800-… (их наличие проверялось вручную на сайте и автоматически на странице) наблюдаются обе корреляции - и с позицией, и с попаданием в топ; последняя корреляция - более сильная.

Зависимость среднего значения признака (1 — на сайте имеется телефон 8-800...; 0 — нет) от позиции в топ-30 «Яндекса». Значения падают по мере удаления от первой позиции. Для сайтов, не найденных «Яндексом» (NY), среднее значение признака ниже, чем для сайтов, попавших в топ-30 (Y).

Распределение средних позиций для найденных в «Яндексе» по различным запросам сайтов с телефоном 8-800... (зеленые столбики) и без него (синие столбики). Высота столбика — количество запросов, для которых данная позиция — средняя. Для сайтов, имеющих признак, распределение на нашей выборке заметно смещено влево, к более высоким позициям.

2. Наличие многоканального телефона или колл-центра (проверялось автоматически наличие соответствующих словесных маркеров) - никаких корреляций не выявлено.

3. Наличие на сайте только мобильного телефона (или телефонов) - это, очевидно, не лучшее свидетельство коммерческой мощи стоящего за ним бизнеса. И точно - для этого параметра выявлена обратная корреляция: чем выше позиция, тем реже на ней встречаются сайты, на которых нет никаких телефонных номеров, кроме мобильных. Корреляция с попаданием в топ, возможно, тоже есть, но она слабая - точнее, для ее констатации пока просто не хватает данных.

Обратный звонок и онлайн-консультант

Посмотрим теперь на дополнительные способы связи с клиентом - заказ обратного звонка и наличие на сайте онлайн-консультанта. Оба средства связи позволяют не потерять возможный контакт в случае, когда у клиента под рукой нет телефона или ему дорого звонить. Оба рассматриваются SEO-сообществом как вероятные значимые коммерческие факторы, и по логике вещей следует ожидать, что их влияние должно быть примерно одинаковым. Однако на деле это совершенно не так.
Для обратного звонка наблюдается устойчивая корреляция с позицией внутри топ-30 и еще более сильная - с попаданием в топ. Отметим, что для Google корреляция с позицией тоже есть, но средний уровень признака для большинства позиций ниже, чем для «Яндекса», и корреляции с попаданием в топ не наблюдается.

Зависимость среднего значения признака (1 — на сайте есть заказ обратного звонка ; 0 — нет) от позиции в топ-30 «Яндекса» (вверху) и Google (внизу). Для Google корреляция выражена сильнее, чем для «Яндекса», но при этом как для топ-30 в целом, так и для большинства позиций средние значения признака для «Яндекса» выше, чем для Google.

Интересно, что по крайней мере для позиции корреляция с наличием возможности обратного звонка на сайте более выраженная, чем для позиции с ее наличием на конкретной найденной странице . Как и в ряде других случаев, данные для страницы были получены двумя способами - асессорская оценка и автоматический анализ — и показали практически одинаковую картину.

А вот для всех рассмотренных нами видов онлайн-консультанта - форма чата, Skype, ICQ - корреляции если и есть, то сильно более слабые и менее устойчивые.

Для формы чата они наблюдаются в одних тематиках (например, для запросов про станки есть корреляция с попаданием в топ) и не наблюдаются в других. Для Skype и ICQ корреляций с ранжированием в «Яндексе» не наблюдается.

В рамках исследования, помимо коммерческих, анализировались и многие другие факторы - в том числе и ссылочные: ТИЦ, PageRank, количество внешних ссылок на домен, количество купленных ссылок на домен, количество купленных ссылок на URL. В целом, эти факторы (включая и платные ссылки) не просто продолжают «работать», но и остаются одними из самых сильных, причем они скоррелированы и с позицией в «Яндексе», и с попаданием в топ (в том числе после запуска нового алгоритма «Минусинск»)

Вот, например, графики по среднему количеству ссылок на домен (по данным Linkpad.ru) в зависимости от позиции для «Яндекса» и Google:

Видно, что падение среднего количества ссылок с ростом позиции в результатах поиска для «Яндекса» не менее сильное, чем для Google (при том, что среднее количество ссылок для «Яндекса» ниже).

Я уже несколько лет занимаюсь поисковым продвижением сайтов Евгения Попова . Для тех, кто не знает, Евгений Попов известен как успешный инфобизнесмен и автор многочисленных обучающих курсов по теме создания сайтов и информационного бизнеса.

Недавно Евгений попросил меня подготовить статью о самых важных факторах ранжирования Яндекса и Google. Я собрал и проанализировал информацию из многих авторитетных источников, плюс дополнительно подкрепил ее комментариями и пояснениями из своего многолетнего опыта по продвижению сайтов.

В итоге был создан довольно полезный PDF-отчет, который получил название «34 основных фактора ранжирования Яндекс и Google ». Данный отчет создавался в конце 2016 года, но все перечисленные факторы все также актуальны и в 2018 году, так как периодически обновляются. Особенно с учетом последних нововведений от поисковых систем. Не так давно было запущены новые алгоритмы: Баден-Баден от Яндекса и Google Fred .

Для тех, кто не любит что-то скачивать, выкладываю ниже полное содержание аналитического материала под названием: «34 основных фактора ранжирования Яндекс и Google в 2016-2017 году».

О ПОДБОРКЕ ФАКТОРОВ

Читать сотни факторов (которые учитывают поисковые системы) интересно, но не очень полезно в плане практического применения. Большинство существующих материалов на эту тему либо уже устарели, либо изначально не адаптированы под русскоязычный Интернет.

Мы проанализировали много публикаций и исследований различных факторов в авторитетных источниках (ссылки представлены ниже). Дополнительно сверили все эти утверждения с заявлениями ведущих разработчиков Google и Яндекс. В итоге получилась подборка наиболее важных факторов, которые учитывают современные поисковые системы Яндекс и Google.

Но мы представили не только описание самих факторов, но и дали по ним подробные пояснения, чтобы вы смогли внедрить те или иные моменты на своих сайтах и получить реальную пользу в
виде роста позиций в поисковых системах.

Подумайте, пожалуйста, за нас. Уберите лишнюю «воду» и дайте нам более приближенную к жизни выборку» — такую просьбу высказал один из веб-мастеров.

Сразу подчеркну, что не стоит пытаться узнать и учесть абсолютно все факторы ранжирования поисковых систем. Это бессмысленная трата времени. И прочитав текст ниже, вы поймете почему.

По известным от разработчиков данным Яндекс учитывает более 800 факторов ранжирования, а Google (как минимум) 271 фактор .

Данные по Яндексу получены из интервью руководителя поисковых сервисов Яндекса Александра Садовского для www.sostav.ru , а также из других заявлений официальных лиц.

Данные по Google получены на основе исследования ресурса northcutt.com .

Дополнительно использовались материалы статьи Брайана Дина (Brian Dean, интернет-ресурс backlinko.com). В своей работе зарубежный SEO-специалист привел описание более 200 факторов, которые учитывает Google при построении поисковой выдачи.

Ниже представлен полезный аналитический материал, но он ни в коем случае не претендует на истину в последней инстанции.

Дополнительное пояснение:

Темным цветом представлен русский перевод и описание фактора с английского языка (информация была взята из материалов статьи Брайана Дина http://backlinko.com/google-ranking-factors).

Синим цветом дается расшифровка конкретного фактора. Вы сможете прочитать не только описание, которое адаптировано под современные реалии русскоязычного Интернета, но и получите ценные советы из 7-ми летнего практического опыта от SEO-специалиста Руслана Савченко.

ФАКТОР №1. ВОЗРАСТ ДОМЕНА

«Разница между шестимесячным доменом и годовалым на самом деле не так уж велика » – Мэт Каттс (Matt Cutts) руководитель отдела веб-спама и качества поиска Google.

Поисковые системы безусловно учитывают возраст домена… но это не очень важный фактор.

Руслан Савченко : На самом деле очень важно различать понятия «возраст домена» и «возраст сайта». Многие начинающие веб-мастера покупают давно зарегистрированные доменные имена, но сайты на этих доменах не развивались.

Поисковые системы учитывают именно «возраст сайта». Если сайт был долгое время недоступен или стояла временная страница («заглушка») — это не засчитывается в возраст. В целом не стоит акцентировать большое внимание на возрасте домена, важнее работать над качеством сайта.

P.S. При покупке нового сайта (домена), обязательно проверьте его историю через сервис https://archive.org/web/ .

ФАКТОР №2. НАЛИЧИЕ КЛЮЧЕВЫХ СЛОВ В ДОМЕНЕ

Не дает такой же эффект, какой был раньше, но наличие ключевых слов в доменном имени по-прежнему учитывается. В конце концов, поисковые системы до сих пор выделяют жирным шрифтом ключевые слова, которые появляются в имени домена.

Ключевые слова в названии доменного имени учитываются, хотя это далеко не самый важный фактор. Но если есть возможность зарегистрировать доменное имя с ключевой фразой, которая точно отражает название и тематику сайта, то почему бы это не сделать?

При наличии ключевых слов в домене, они подсвечиваются. Соответственно повышается показатель кликабельности в поисковой выдаче. Если пользователь видит в адресе сайта выделение слов, которые он набрал в строке поиска, вероятность перехода на сайт повышается. Это положительный фактор, который также учитывается.

ФАКТОР №3. ИСТОРИЯ ДОМЕНА

Домен с частой сменой собственника (через WHOIS) или при не своевременном продлении регистрации («дроп»), может заставить поисковые системы «обнулить» историю сайта, и перестать учитывать ссылки, указывающие на домен.

Очень желательно, чтобы владелец домена не менялся часто. Каждая смена собственника временно «замораживает» накопленное к сайту доверие. Поисковые алгоритмы ждут, что будет делать с сайтом новый собственник.

Стоит отметить: если вы резко поменяете содержимое сайта (не дизайн, а именно тематику и сам контент), то поисковые системы также обнулят доверие к вашему сайту. Возраст домена перестанет оказывать прежнее влияние.

ФАКТОР №4. ДОМЕН ТОЧНОГО СОВПАДЕНИЯ

Домены точного совпадения (EMD) все еще могут дать вам преимущество… если, конечно, у вас качественный сайт. Но когда на таком домене размещается низкокачественный сайт, он слабо защищен от EMD-алгоритма.

Для начала давайте расшифрую, что из себя представляет так называемый домен точного совпадения (EMD).

EMD-домен (Exact Match Domain) - если переводить дословно, то это домен с точным вхождением ключевых слов. Когда вы регистрируете доменное имя, которое состоит исключительно из популярной ключевой фразы, то это может вызвать подозрение у поисковых алгоритмов. В наибольшей зоне риска находятся домены:

  • со словами в названии «купить, скачать, бесплатно и т.п.».
  • если в названии домена присутствуют исключительно слова из популярной ключевой фразы, но отсутствует уникальное имя бренда и т.п..
  • Если домен состоит из 3-х и более ключевых слов, к примеру, «купить недвижимость в Краснодаре недорого». У Google разработан специальный EMD-алгоритм, который борется с так называемыми EMD-доменами.

Фактор вхождения ключевых слов в название домена оказывает всё меньшее влияние на поисковую выдачу, но при прочих равных, поисковые системы отдадут предпочтение сайту с узкотематическим названием (содержащим ключевые слова), чем порталу с общей тематикой.

Какой сайт, по вашему мнению, лучше отвечает на запрос «ремонт BMW». Сайт с доменным именем AvtoMir.com или сайт Remont.BMW-club.com? Уверен на 100%, что (без учета остальных факторов) предпочтение отдается именно 2-му варианту. Точно так же думают Google и Яндекс.

Кстати я не зря привел пример с поддоменом 3-го уровня Remont.BMW-club.com. Вариант с доменом 2-го уровня Remont-BMW.com был бы не самым оптимальным.

Представители поисковых систем отмечали, что с большим недоверием относятся к доменам 2-го уровня, которые состоят исключительно из ключевых слов. Именно такие домены рискуют получить наказание от алгоритма EMD. Это и не удивительно, ведь не так давно, как раз на таких доменных именах создавали бесполезные для людей сайты («дорвеи»).

Но если имя домена – это название вашей фирмы или бренда в сочетании с ключевым словом, то это удачный вариант и EMD ему не грозит.

При этом если у вас стоит выбор: зарегистрировать домен состоящий из ключевых слов или из названия вашего бренда, то лучше отдать предпочтение именно второму варианту.

Ведь даже если вы не боитесь алгоритма EMD, то ссылки, ведущие на ваш сайт, уже не смогут быть полностью безанкорными. А за это можно получить наказание уже от других алгоритмов и фильтров. К примеру, тот же Google Penguin и Минусинск от Яндекса, которые наказывают сайты за большое количество внешних ссылок с прямым вхождением ключевых слов в анкор.

Но это уже тема отдельного большого разговора, поэтому переходим к следующим факторам ранжирования.

ФАКТОР №5. ПРИСУТСТВИЕ КЛЮЧЕВОГО СЛОВА В ТЕГЕ «TITLE»

Тег title является вторым по важности SEO-параметром веб-страницы (после самого контента), и поэтому оказывает сильное влияние на ранжирование по конкретному поисковому запросу.

Не стоит забывать, что именно содержимое тега «title» Яндекс и Google показывают в поисковой выдаче.

Если объяснить работу поисковых систем максимально упрощенно, то ответ на запрос пользователя формируется исходя из ключевых слов, которые присутствуют в теге title, а также в тексте самой страницы. Это один из важнейших SEO-параметров.

Другое дело, что ни в коем случае нельзя перенасыщать текст и title страницы ключевыми словами. За это у современных поисковых систем существуют различные санкции: начиная от фильтра «уникализации заголовков», заканчивая алгоритмами, которые наказывают за переспам, избыточное содержание ключевых слов в тексте страницы и т.д.

ФАКТОР №6. ТЕГ «TITLE» НАЧИНАЕТСЯ С КЛЮЧЕВОГО СЛОВА

Важно понимать, что существует заголовок страницы (он находится в теге title), который пользователи видят в результатах поисковой выдачи.

Но есть ещё заголовок к тексту на странице (он находится в теге H1). Его пользователи видят уже после того как перешли на саму страницу сайта.

Оба эти заголовка очень важны для поисковой оптимизации сайта. Поэтому ключевая фраза должна присутствовать в обоих тегах.

ФАКТОР №9. КЛЮЧЕВОЕ СЛОВО ЧАСТО УПОТРЕБЛЯЕТСЯ В ТЕКСТЕ ДОКУМЕНТА

Если ключевое слово встречается в тексте страницы чаще, чем любые другие, то это является положительным фактором соответствия страницы определенному поисковому запросу.

Именно поэтому ещё несколько лет назад оптимизаторы создавали SEO-тексты с большим вхождением ключевых слов, выделяли их жирным и т.п. В современных условиях за большое количество ключевых слов в тексте можно быстрее получить «спам-фильтр», чем добиться каких-то бонусов к релевантности страницы.

Поэтому пишите тексты, которые будет интересно читать людям, создавайте страницы, которые смогут решать конкретную проблему пользователя. В современных условиях даже одного вхождения ключевой фразы в тексте уже достаточно, чтобы она была релевантна тому или иному поисковому запросу.

ФАКТОР №10. ЛАТЕНТНО-СЕМАНТИЧЕСКИЙ ИНДЕКС КЛЮЧЕВЫХ СЛОВ В КОНТЕНТЕ (LSI)

Ключевые слова LSI помогают поисковым системам определять значения слов с болеe чем одним значением. Например, слово Apple — это компьютерная компания или фрукт. Наличие или отсутствие LSI также может выступать показателем качества контента на сайте.

В последние годы даже появился термин LSI-копирайтинг . И соблюдение определенных требований позволяет повышать релевантность определенного текста и соответственно всей страницы в целом. Давайте попробуем разобраться, что такое LSI.

Для начала приведу цитату, которую ни в коем случае не стоит пытаться понять неопытным людям. Если вы новичок, лучше сразу пропустите этот абзац. Но именно такие понятия даются, когда в некоторых авторитетных источниках подобные термины пытаются объяснить более «научным» языком: «LSI — это сингулярное разложение терм-документной матрицы, которое позволяет выловить ключевые составляющие этой матрицы и проигнорировать шумы. »

Прочитали? А теперь забудьте. Постараюсь дать более понятное объяснение:

LSI – это способ определения тематики и качества текста на основе анализа содержащихся в нем слов. Проще говоря, если в тексте встречаются слова «двигатель», «колесо», «руль» — то, скорее всего, текст про автомобиль.

Поисковые системы начали вводить алгоритмы, которые борются с перенасыщенными одними и теми же ключевыми словами текстами. Если в тексте очень часто употребляется одна и та же ключевая фраза, то у поисковых систем Яндекс и Google возникают вопросы к качеству материала.

Либо это попытка искусственно повысить значимость страницы по определенному поисковому запросу, либо автор не очень компетентен в данной теме, раз он не может использовать синонимы и в целом более богатый лексикон. И первый и второй вариант может привести к понижению страницы сайта в поиске.

Учитываются также качество оформления текста, отсутствие грамматических ошибок и многие другие параметры.

Тексты, которые написаны с учетом требований LSI, крайне редко попадают под какие-то фильтры и намного легче поднимаются на высокие места в поиске. Особенно это актуально в тематиках с высокой конкуренцией.

P.S. Проанализируйте ваших конкурентов, которые находятся на первых местах в Google и Яндекс. Посмотрите на оформление их страниц, какие слова они используют в текстах и т.п. Это даст вам много пищи для размышлений, если ваш сайт ещё не находится в ТОПе.

Но это действительно большая тема, а мне не хотелось бы вас утомлять, поэтому переходим к следующему фактору.

ФАКТОР №11. КЛЮЧЕВЫЕ СЛОВА LSI В ТЕГАХ «TITLE» И «DESCRIPTION»

Как и в случае с контентом сайта, ключевые слова LSI в мета-тегах страницы помогают определить правильное значение слов-синонимов. Это также один факторов релевантности.

Исходя из контекста алгоритмы поисковых систем понимают к какой тематике относится слово с несколькими значениями. К примеру, на сайте появился заголовок: «Зажглась новая звезда эстрады». Если бы в заголовке не было слова «эстрады», то было бы непонятно к какой тематике относить этот фрагмент текста – к астрономии или к шоу-бизнесу.

Именно поэтому важно, чтобы в тегах «title» и «description» всегда были слова, которые четко определяют тематику страницы вашего сайта.

ФАКТОР №12. СКОРОСТЬ ЗАГРУЗКИ HTML-СТРАНИЦЫ И ТЕХНИЧЕСКИЕ ОШИБКИ НА САЙТЕ

Поисковые системы учитывают скорость загрузки страницы в качестве одного из факторов ранжирования. Боты поисковых систем могут оценивать скорость вашего сайта достаточно точно, основываясь на коде страницы и размере загружаемых файлов.

Это не самый важный фактор. Тот же Александр Садовский (руководитель поисковых сервисов Яндекса) заявлял, что алгоритмы не наказывают сайт за какие-то технические ошибки и недостатки.

Но если прямых санкций и нет, то есть косвенное негативное влияние на ранжирование. К примеру, если страницы вашего сайта долго загружаются и на них постоянно возникают ошибки – это раздражает пользователей.

Чаще всего недовольные посетители просто закрывают ваш сайт и уходят к вашим конкурентам. Соответственно у вашего сайта ухудшаются так называемые поведенческие факторы. А они уже напрямую влияют на ранжирование. Более того, существует показатель «отказов». В частности, когда пользователь провел на странице вашего сайта менее 15 секунд и вернулся обратно в поиск.

Соответственно поисковые системы будут понижать ваш сайт в результатах поиска не за сами технические недостатки вашего сайта, а за последствия, которые они вызывают.

ФАКТОР №13. ПОВТОРЯЮЩИЙСЯ КОНТЕНТ (В ТОМ ЧИСЛЕ ДУБЛИ СТРАНИЦ)

Идентичный контент на одном сайте (даже слегка измененный) может отрицательным образом повлиять на видимость сайта в поисковых системах.

Дубли страниц, повторяющийся контент на разных страницах – это довольно негативные факторы. Тем самым вы забираете «вес» у своих же страниц.

Более того, вы заставляете роботов поисковых систем индексировать лишний неуникальный контент (страницы). А у поисковых ботов строго ограниченное время для каждого сайта.

ФАКТОР №14. ОПТИМИЗАЦИЯ ИЗОБРАЖЕНИЙ

Изображения на страницах передают важную информацию о их релевантности. Поисковые системы определяют тематику картинок, анализируя название файла самой картинки, и текст, который находится в тегах: alt, title, description.

В идеале нужно заполнять все теги и делать подписи к картинкам. Особенно тег alt (альтернативный текст картинки). На его содержимое поисковые системы обращают внимание в первую очередь.

Поэтому подписывайте, что изображено на картинках. Также желательно, чтобы в тегах описания изображения присутствовали ключевые слова, под которые оптимизирована сама страница.

ФАКТОР №15. ЧАСТОТА И РАЗМЕР ОБНОВЛЕНИЙ КОНТЕНТА

Поисковым системам нравится недавно обновленный контент, особенно для запросов, которые чувствительны ко времени.

Поисковые системы любят часто обновляемые сайты. Безусловно, ваши старые записи также могут хорошо ранжироваться, но, если вы внесете в них существенные изменения, что-то добавите, улучшите – все это пойдет только в плюс.

Поддерживайте ваши материалы в актуальном состоянии, либо пишите новые записи и ставьте на них ссылки с ваших старых страниц.

ФАКТОР №16. ВИДИМОСТЬ КЛЮЧЕВОГО СЛОВА

Присутствие ключевого слова среди первых 100 слов контента страницы считается значимым сигналом релевантности.

Ведь если пользователь пришел на страницу сайта и уже в начале страницы не нашел ответ на свой запрос, то он, чаще всего, закроет ваш сайт и отправится в поиск искать дальше. Поисковые системы это также понимают, поэтому присутствие ключевого слова в самом начале текста имеет двойное значение.

ФАКТОР №17. КАЧЕСТВО И ТЕМАТИКА ИСХОДЯЩИХ ССЫЛОК

Более того, многие начинающие веб-мастера начитались уже устаревших мифов о том, что исходящие ссылки забирают ценный вес их сайта и поэтому добавляют ко всем исходящим ссылкам параметр rel=«nofollow». Тем самым они не только не сохраняют вес своих страниц, а просто отдают его в никуда.

Плюс ко всему такой подход наносит вред вашему сайту. Ведь rel=«nofollow» стоит ставить только в том случае, если вы ссылаетесь на нетематический ресурс.

Проводились эксперименты на различных сайтах. Так вот страницы, с которых стояли ссылки на качественные тематические материалы по теме, занимали более высокие места в поиске, чем страницы, с которых вообще не было исходящих ссылок.

Логика здесь простая. Даже невероятно авторитетная Wikipedia, у которой показатель ТИЦ 150 000 и огромное доверие от поисковых систем – всегда ссылается на источники и дополнительные материалы по теме. Вы скажете, так у них все исходящие ссылки закрыты параметром rel=«nofollow». Да, это так, но сделано это было для защиты от спамеров. Так как пока не были предприняты эти меры, многие веб-мастера и оптимизаторы пытались любой ценой получить ссылку с Википедии.

Но вывод простой. Если вы не являетесь известным экспертом в своей области и ваш интернет-ресурс не имеет большого доверия со стороны поисковых систем, то алгоритмы Яндекса и Google вряд ли поверят, что вы написали очень качественную статью, не использовав ни одного источника и ни разу никого не процитировав.

Ещё хуже, если вы сделали рерайт или, проще говоря, переписали своими словами чужую статью. Именно с этим и ведут борьбу поисковые системы, и их алгоритмы уже очень хорошо научились определять авторов и плагиаторов.

Кстати в этом кроется небольшой секрет, почему большие аналитические статьи с неуникальными частями текста, но со ссылками на источники или другие материалы по теме, занимают высокие места в поиске. Точно также успешно живут новостные агрегаторы, которые публикуют неуникальные материалы, но всегда ставят активные ссылки на источники.

Есть и другие практические секреты, и нюансы по поводу исходящих ссылок, но нам уже пора переходить к следующему фактору.

ФАКТОР №18. ПОЛЕЗНЫЙ ВСПОМОГАТЕЛЬНЫЙ КОНТЕНТ

В соответствии с ныне общедоступным документом Google Rater Guidelines, полезный вспомогательный контент является показателем качества страницы (и, следовательно, дополнительным фактором ранжирования). К примерам можно отнести: процентные и кредитные калькуляторы, конвертеры валют, интерактивные рецепты и т.п.

Все дополнительные функции и возможности, которые несут пользу для посетителей вашего сайта, также дают дополнительные бонусы к ранжированию. Все дополнительные «фишки» влияют не столько напрямую, как косвенно. Ведь пока пользователь сайта использует калькулятор или другую функцию, он проводит дополнительное время на вашем сайте.

Таким образом, удовлетворяя и заинтересовывая посетителей вашего сайта, вы улучшаете пользовательские факторы – а это очень важно в современных условиях. Именно эти факторы оказывают прямое влияние на позиции вашего сайта в поиске Google и Яндекс.

ФАКТОР №19. МУЛЬТИМЕДИЙНЫЕ МАТЕРИАЛЫ НА САЙТЕ

Изображения, видео и другие мультимедийные материалы могут служить сигналом качества контента.

В продолжение предыдущего фактора. Благодаря красивым картинкам и качественным видео, вы можете задерживать пользователей вашего сайта и улучшать поведенческие данные. Плюс, поисковые системы лучше ранжируют страницы, на которых присутствуют изображения и видео.

При прочих равных, страница, на которой есть хотя бы одна картинка, будет занимать более высокие места в поиске, чем ее исключительно текстовый аналог.

ФАКТОР №20. КОЛИЧЕСТВО И КАЧЕСТВО ВНУТРЕННИХ ССЫЛОК, УКАЗЫВАЮЩИХ НА СТРАНИЦУ

Количество внутренних ссылок на страницу показывает ее важность относительно других страниц сайта.

Важно качество и количество ссылок на целевую страницу. Каждая страница вашего сайта имеет определенный «вес». Он может расти, если на эту страницу ведут внешние ссылки с других сайтов или имеются ссылки со страниц вашего сайта.

Соответственно, когда вы написали новую статью на какую-то тему, подумайте, а может у вас уже есть статья по схожей теме и было бы уместно сослаться на неё по нужной ключевой фразе?

ФАКТОР №21. ДЛИНА URL-АДРЕСА

Search Engine Journal отмечает, что слишком длинные URL-адреса могут навредить релевантности страницы.

Такая тенденция есть. Желательно создавать короткие URL-адреса страниц. В идеале они должны состоять из 2-3 ключевых слов, написанных на транслите.

ФАКТОР №22. ЖИВЫЕ ЛЮДИ-АСЕССОРЫ

Хотя это не было подтверждено, Google подала патент на систему, которая позволяет людям-редакторам влиять на SERP (страницу результатов поиска).

Так называемые асессоры действительно присутствуют и у Яндекса, и у Google. Конечно, сайтов миллионы, и оценить всю поисковую выдачу вручную — нереально. Но самые высокие места (ТОП 10) поисковой выдачи в наиболее конкурентных тематиках оцениваются в том числе специальными асессорами.

Именно поэтому изначально некачественные сайты имеют очень мало шансов выйти в ТОП поисковой выдачи. Даже если предположить, что владельцы «плохих» сайтов разгадают текущие алгоритмы поисковых систем и выйдут на первые места в поиске, то шансов надолго там задержаться будет крайне мало.

ФАКТОР №23. ОПТИМИЗАЦИЯ САЙТА ПОД МОБИЛЬНЫЕ УСТРОЙСТВА

Создание адаптивных сайтов в наше время – это уже не дань «моде», а реальная необходимость. Сайты, которые не адаптированы для мобильных устройств, получают штрафы от поисковых систем и сильно понижаются в результатах мобильного поиска.

Ни для кого не секрет, что большинство современных людей ищут товары и услуги в Интернете в том числе с планшетов, мобильных телефонов и т.п.

В некоторых тематиках процент пользователей, которые заходят на сайты исключительно с мобильных устройств, достигает 80%.

Поэтому если вы до сих пор не сделали дизайн вашего сайта адаптивным, то пора срочно этим заняться. Вы банально теряете новых посетителей и потенциальных клиентов.

ФАКТОР №24. КОММЕРЧЕСКИЕ ФАКТОРЫ

Если у вас коммерческий сайт, то довольно серьезное влияние на его позиции в поиске оказывают современные коммерческие факторы. К ним можно отнести: присутствие страницы контактов, удобная форма заказа, наличие доставки, доступность службы технической поддержки клиентов, широта ассортимента товаров и др.

На самом деле только самых важных коммерческих факторов можно перечислить более 30-ти. Это специфическая тема и здесь есть много нюансов, поэтому подробно данный вопрос будем рассматривать отдельно.

ФАКТОР №25. ССЫЛКИ СО СТАРЫХ ДОМЕНОВ

Полностью согласен. Но стоит отметить, что получать ссылки с авторитетных доменов довольно сложно (или дорого). Конечно, есть определенные интересные методы получения качественных и естественных ссылок (в том числе без затрат). Но это большая отдельная тема, поэтому идем далее.

ФАКТОР №26. КОЛИЧЕСТВО ССЫЛАЮЩИХСЯ ДОМЕНОВ

Количество ссылающихся доменов является одним из самых важных факторов ранжирования в алгоритме Google, в чем вы можете убедиться из графика Moz (горизонтальная ось – позиция в списке результатов поиска):

Мои личные наблюдения также подтверждают описанную выше информацию. Лучше иметь 10 обратных ссылок с 10-ти разных доменов, чем 20 ссылок, но с одного домена.

ФАКТОР №27. ССЫЛКИ С САЙТОВ-КОНКУРЕНТОВ

Здесь речь идет о следующем. К примеру, вы продвигаетесь по запросу: «купить автомобиль в Москве». Если бы вы получили ссылки с сайтов, которые стоят в ТОП 10 по этому же запросу, то это дало бы мощнейший эффект.

Но будем реалистами. В тематиках с высокой конкуренцией никто не захочет ставить ссылку на конкурента. Только если вы не гений угроз или дипломатии.

Хотя в моей практике бывали случаи, когда удавалось получить безанкорную ссылку (просто по URL-адресу) с сайта конкурента в ТОП 10. Но это больше исключение из правил.

При этом не обязательно пытаться получить ссылки с прямых конкурентов. Смотрите сайты за пределами ТОП 10. Более того, можно искать сайты по смежным запросам в этой же тематике.

Кстати в информационных тематиках есть несколько интересных подходов, благодаря которым можно получать ссылки с «непрямых» сайтов-конкурентов. Это важная и большая тема, поэтому мы обязательно рассмотрим её отдельно.

ФАКТОР №28. ССЫЛКИ И УПОМИНАНИЕ САЙТА В СОЦИАЛЬНЫХ СЕТЯХ

Ссылки и упоминание названия вашего сайта в социальных сетях дают как прямой, так и косвенный эффект для продвижения. Кстати некоторые социальные сети лучше работают для Яндекса, а некоторые для Google. И речь идет далеко не только про Facebook, Twitter и Вконтакте.

Более того, существует подход, который позволяет не только повышать доверие к страницам вашего сайта (за счет ссылок из социальных сетей), но и дополнительно продвигать конкретные поисковые запросы.

Также сейчас все более важной становится работа по получению не только ссылок, но и отзывов, упоминаний о вашем сайте на различных форумах, сайтах рекомендаций, в тех же социальных сетях. В том числе, когда на том или ином интернет-ресурсе вообще не стоит обратная ссылка на ваш сайт, а присутствует исключительно упоминание бренда или доменного имени в тексте.

Это направление получило название крауд-маркетинг и для достижения высоких результатов в конкурентных тематиках без него сложно обойтись.

ФАКТОР №29. КАЧЕСТВО КОНТЕНТА, КОТОРЫЙ ОКРУЖАЕТ ССЫЛКУ

Здесь все логично. Если страница-донор, с которой будет стоять ссылка на ваш сайт, имеет качественный и интересный контент, красивое оформление, полезные картинки, видео и т.п., то она может занимать более высокие места в поисковых системах. И такая страница будет иметь больше доверия со стороны Яндекса и Google. Соответственно, и с ссылки с такой страницы будут иметь больший вес и авторитет.

Довольно глупо приобретать ссылку на ваш сайт с качественного сайта, но размещаться в каком-то неинтересном и плохо оформленном контенте. Ещё хуже, если эта страница будет размещена в каком-то разделе с большим уровнем вложенности. К примеру, будет помещена в очень старый материал, находящийся в архиве.

Тем более владельцы качественных интернет-ресурсов вряд ли разрешат размещать на своем сайте материалы плохого качества. А если они разрешают публиковать плохие статьи со ссылками на своем сайте, то сразу же возникают вопросы к перспективам и к ценности такого сайта-донора.

ФАКТОР №30. ПОКАЗАТЕЛЬ ОТКАЗОВ

Поисковые системы вполне могут использовать пользователей, как тестеров качества (если отказов много - сайт, скорее всего, не очень хорошего качества).

«Отказом» считается, когда пользователь провел на конкретной странице сайта менее 15 секунд и ушел с обратно в поисковую выдачу. Этот фактор в сочетании с другими поведенческими данными позволяет поисковым системам дополнительно оценить качество определенных веб-страниц.

ФАКТОР №31. ПОВТОРНЫЕ ПОСЕЩЕНИЯ САЙТА

Поисковые системы также могут смотреть, возвращаются ли пользователи на сайт после первого посещения. Повторный трафик может повысить позиции сайта в списке результатов поиска.

Учитываются не только повторные посещения сайта, но и многие другие действия. К примеру, как часто пользователи сохраняют сайт у себя в закладках, переходят ли на сайт напрямую по URL-адресу, вводят ли название сайта в поиске, делятся ли ссылками на сайт и т.п.

ФАКТОР №32. КОЛИЧЕСТВО КОММЕНТАРИЕВ НА САЙТЕ

Страницы с большим количеством комментариев могут быть сигналом активности пользователей и косвенным подтверждением качества контента.

Я сегодня постараюсь ответить на вопросы, которые задают мне клиенты чаще всего.

Первый вопрос, который я слышу:

“Мой сайт имеет технические ошибки. Я не буду его продвигать, пока их не исправлю”

Второй, например, такой:

“Мой сайт имеет неправильную структуру ссылок. Я их исправлю и потом начну работы по SEO продвижению”

“Я хочу заняться контентом, наполнением сайта, а буду продвигать его как заполню”

И все откладывают работы по SEO-продвижению , надеясь, что когда “придет время”, они запустят по мановению волшебной палочки свой бизнес, который начнет тут же ранжироваться.

Как бы не так…

Что такое поисковые алгоритмы ранжирования?

Часто владельцы сайтов ошибочно думают, что например для Яндекса ссылки не имеют значения, а Google все равно на ворованный контент.

Непонимание алгоритмов ранжирования часто приводит такие сайты на задворки выдачи.

Алгоритмы ранжирования – это особые методы фильтрации результатов запроса пользователя поисковой системой, определяющие порядок и вид показа информации согласно сформированного запроса пользователем.

Простым языком, это свод правил, которые работают чаще автоматически и выводят результат поискового запроса максимально подходящим для пользователя.

Многие SEOшники думают, что знают их много.

Это система, которая до сих пор работает в Google и позволяет оценивать “Важность” страницы сайта.

Да, ключевым показателем является именно страница, а не целый сайт.

В 1996 Сергей Брин и Ларри Пейдж, когда разрабатывали поисковую систему BackRub (которая впоследствии в 1998 превратится в Google Inc.), предложили алгоритм, оценивающий качество страницы по количеству ссылок, которые указывают на нее.

Многие ошибочно думают, что PageRank переводится как “Ранг Страницы”, но это не так: по факту, Page – это фамилия изобретателя, Ларри Пейджа.

Для удобства на этой диаграмме, размер шара – это PageRank, а процент – вероятность перехода со страницы сайта (представим себе, что пользователь с вероятностью 85% выбирает любую ссылку и с вероятностью 15% переходит по ней):

Условно говоря, страница С имеет тоже высокий рейтинг, как и страница B (на нее хоть и приходится всего одна ссылка, но с более популярного ресурса), тогда как на сайт E приходится только ряд ссылок с мелких ресурсов.

Сайты, на которые нет ссылок, будут обладать меньшим рейтингом, и будут иметь более низкое место в выдаче, их удел – низкочастотный трафик в зонах более слабой конкуренции.

Для расчета использовалась логарифмическая шкала, то есть сайт с PageRank 1 был в 10 раз хуже сайта с PageRank 2 и в 100 раз хуже сайта с PageRank 3.

Это привело к тому, что все сайты начали массово закрывать внешние ссылки при помощи тега Nofollow (включая даже нужные ссылки), тем самым искусственно “надувая” пейджранк сайта (за счет “купленных” или сделанных внешних ссылок Dofollow).

Итак, с приоритетами поисковых систем мы ознакомились, переходим к заключительному этапу.

Составим план продвижения для нашего сайта согласно рекомендациям поисковых систем Яндекс и Google!

Как оптимизировать сайт под поисковые алгоритмы?

Как мы видим, алгоритмы развивались каждый год в своей тенденции – от сегментации выдачи по региональности до улучшения релевантности семантики в выдаче, попутно проводя борьбу с черными сеошниками.

При этом поисковые системы всегда сотрудничали с SEO-специалистами.

Какие же требования они выдвигают на самом деле?

Мы уже рассматривали текущие тенденции, которые будут актуальны в следующем году в нашей предыдущей статье (SEO Тренды 2019 года).

Анатолий Улитовский отметил, что важными факторами в 2019 году будут контент, нулевая позиция в выдаче, мобильная версия сайта, поведенческий фактор и адаптация под голосовой поиск.

Это все, конечно, хорошо.

Но что является важным?

Это открытая информация, и ее можно почерпнуть напрямую.

Начнем по-порядку.

Индексирование сайта: сделайте сайт видимым для поисковика

Сначала добавьте свой сайт в поисковые системы.

Сейчас они делают сканирование автоматически, но, если Вы хотите избежать проблем, начните все сразу правильно.

  • Первоначально пропишите Robots.txt для своего сайта. Закройте от индексации ненужные разделы. Например, результаты поиска по сайту.
  • Если нужно, чтобы страница отсутствовала в поиске, но была доступна для пользователя, добавьте тег на страницу Noindex.
  • Используйте Теги Canonical для дублированных страниц и пагинации, hreflang для разных языковых версий сайта и Nofollow для исходящих нетематических ссылок на сайте.
  • Добавьте свой сайт в Вебмастера поисковых систем.
  • Затем добавьте карту сайта в Вебмастера.
  • Проверить результат индексации можно в специальных инструментах Вебмастеров. Узнайте, попали ли нужные страницы в Индекс, отдают ли они “200” ответ сервера. Если страницы в индексе нет, уточните, не стоит ли на ней тег canonical на другую страницу или тег Noindex.

Что такое пагинация

Она применяется в интернет магазинах и блогах на страницах каталогов – когда количество элементов превышает определенное число, следующие результаты грузятся на другой странице.

Даже в поисковиках есть эта пагинация.

Программисты для обозначения пагинации используют микроразметку, обозначая тегами Prev- Next предыдущую и следующую страницы.

А также тегом Canonical первый URL списка.

То есть была сложная структура, когда обозначались страницы именно так:

Однажды один SEO-специалист решил поискать информацию по тегам пагинации.

И обнаружил, что страница со справкой от Google удалена.

Он спросил напрямую Джона Мюллера, и тот ответил:

Мы заметили, что мы не использовали rel-next / prev в индексировании уже несколько лет, поэтому мы подумали, что мы могли бы также удалить документы:)

То есть с сегодня (21 марта 2019 года) стало известно, что Google уже как минимум год игнорирует дубли страниц, обозначенные тегами Prev-Next.

Но об этом никто не знал.

А они решили просто только сейчас почистить справку.

Вот вам и “открытость” в алгоритмах ранжирования.

Все нужно учить и за всем нужно следить!

Теперь некоторые нюансы, о которых не знают даже SEO-специалисты (если они только не изучали все тщательно):

  • Для разных поддоменов нужно делать разный Robots.txt.
  • Дайте роботу Google смотреть на Ваш сайт как пользователь: не закрывайте в Роботс-файле доступ к JS, CSS и графическим файлам, иначе это затруднит нормальное сканирование Вашего сайта.
  • Старайтесь не создавать страницы больше 10 МБ: они не индексируются в Яндексе.
  • В PDF-документах Яндекс индексирует только текст, картинки и схемы игнорируются.
  • Яндекс рекомендует выносить разные языковые версии сайта и мобильную версию на поддомен, тогда как Google предлагает для языковой версии использовать подпапки и адаптивную верстку.
  • Для блокировки конфиденциальной информации обязательно используйте тег NOINDEX, так как заблокированные страницы в ROBOTS.TXT на которые есть внешние ссылки, автоматически попадают в индекс поисковика! Для большей надежности используйте авторизацию, динамические URL и т.д.

Информация о сайте для поисковика

В первую очередь, расскажите о своем сайте на самом сайте.

Для этого сделайте несколько шагов:

Пропишите заголовки для страниц . Мы рекомендуем больше всего уделять внимание Title больше, чем к другим разделам Вашего сайта.

В первые дни продвижения мы собираем семантическое ядро для сайта и прописываем метаданные (Заголовки и описания) для Ваших продвигаемых страниц.

Также используйте микроразметку и структурированные данные.

Старайтесь уделить внимание всем элементам, которые предоставляет сервис Schema.org и OG.me

Это позволит в поисковой выдаче отображать больше полезной информации:

Как оптимизировать контент под поисковые запросы

Следующим логичным этапом будет оптимизация контента под запросы в поиске.

У Вас есть семантика, интересующие запросы.

Что теперь?

Закидываем простыню-текст, выделяем анкоры и прочую ерунду?

Как бы не так.

Поисковики за годы своего развития эволюционировали, и на заре 2019 года выдвигают все новые и новые требования к контенту.

Сейчас просто необходимо знать, как поисковики понимают Ваш контент сегодня: для этого у них прилично расширился инструментарий.

Google и Яндекс одинаково солидарны в том, что контент на сайте должен отвечать следующим критериям:

  • Контент структурирован по логике – причем как внутри страницы, так и по разным страницам. Пользователь должен понимать, где кончается одна тема, а где уже идет другая.
  • Контент должен легко читаться и быть понятным.
  • Контент должен быть оригинальным.

Что не любит поисковик?

  • Google и Яндекс не любят орфографические и грамматические ошибки. Я думаю, с этого стоит начать.
  • Google не любит запутанных определений и формулировок в предложениях.
  • Использование картинок. Исключением является тег ALT, и то, он помогает поисковику понять, о чем картинка. Но в ранжировании картинка не участвует.
  • Повторы, переделывания и копирования контента в пределах сайта.
  • Яндекс не любит воровство контента (как есть) из других сайтов и стоит за уникальность. Используйте Вебмастер Яндекса чтобы сообщать о новом контенте, который Вы планируете добавить на свой ресурс.

Внутренние ссылки на сайте и перелинковка

Относительно внутренних ссылок и у Google, и у Яндекс, мнения сходятся.

  1. Не используйте безанкоры и слова, лишенные смысла, в качестве анкоров во внутренних ссылках.
  2. Не используйте длинные тексты ссылок. Рекомендуется от 1 до 4 слов в среднем.
  3. Не рекомендуется CSS- оформление ссылок, когда их не отличить от реального текста.
  4. Избегайте употребление чистого URL вместо текста анкора (исключение – когда Вы хотите сказать, что URL ссылки изменился).
  5. Не создавайте ненужные ссылки ради ссылок.
  6. Не вставляйте наборы ключевых слов в анкор, которые грамматически не логичны в предложении.

А теперь рассмотрим требования поисковых систем, которые одинаковы как для Google, так и для Яндекса.

  1. Для всех нетематических или спамных ссылок используйте тег Nofollow – робот тогда не будет учитывать “вес” этих ссылок и не накажет Вас за избыточную “спамность”.
  2. Если Вы – владелец блога с отложенной модерацией (когда комменты постятся сразу), мы рекомендуем установить закрытие всех внешних ссылок тегом Nofollow по умолчанию, а также предлагаем внедрить капчу за постинг комментария (что избавит Вас от переизбытка спамеров).

Следует отметить, что Яндекс очень чувствителен к качеству перелинковки внутри сайта.

Избегайте ставить слишком много внутренних ссылок там, где не нужно: это запутает поискового робота и он выберет не самые лучшие релевантные разделы для быстрых ссылок в выдаче, а также неверно отсортирует полезные страницы.

Яндекс учитывает перелинковку на сайте как алгоритм определения полезности страниц в большей степени, чем Google.

Внешние ссылки на сайт

И вот мы переходим к важному фактору ранжирования – внешним ссылкам.

Один из первых факторов, остался единственным работающим на сегодня инструментом, позволяющим сообщить миру, чей сайт лучше, интереснее и популярнее других.

И есть кое-какие нюансы алгоритмов ранжирования, о которых не догадываются ни клиенты, ни SEO-специалисты.

У каждой поисковой системы свой взгляд на ссылки.

При этом, ссылаясь на другой сайт, Вы делаете его популярнее.

А что делать, если Вы не хотите его пиарить?

Но иногда возникают ситуации, когда нужно оставить внешнюю ссылку, которая является нетематической.

Например, Вы хотите рассказать про спамный ресурс, или сайт, который нужно выставить в негативном свете, рассказав про отрицательный опыт.

  1. Google против покупки или продажи ссылок. Как следствие – за рубежом биржи ссылок уже вымерли.
  2. Не рекомендуется просить пользователей и других владельцев сайтов оставить ссылку на Ваш сайт. Если Google заподозрит Вас в этом, все ссылки будут проигнорированы.
  3. Обмен ссылками (перекрестный, партнерский) чреват понижением позиций, такие ссылки рекомендуется закрывать тегом Nofollow.
  4. Спам крауд-маркетингом комментов с ссылками, где околоанкорный текст насыщен ключевыми словами.
  5. Массовое размещение статей с ссылками, которые наполнены ключевыми словами.
  6. Не рекомендуется требовать размещение ссылки без возможности ее блокирования тегом Nofollow (например, когда это регламентируется юридически пользовательским соглашением).

Также Google особняком выделяет искусственно созданные ссылки.

Они могут генерироваться разными способами, и поисковик всячески стремится, чтобы владелец ресурса избегал таких методов выстраивания ссылочного профиля.

В этом списке все будет касаться внешних ссылок на Ваш сайт, не закрытых тегом Nofollow.

Перечислить все факторы с большой точностью вряд ли удастся. Но приняв во внимания советы экспертов можно перечислить основные.

Следуя правилам игры «в города», после поисковой программы «Арзамас», нужно было придумать название нового поискового алгоритма Яндекса на букву «С». Зимние пейзажи 2009 года вдохновили команду разработчиков на название «Снежинск». Так появился «Матрикснет ».

Руководитель команды поиска Яндекса Иван Наймушин, получив множество отзывов от желающих протестировать бета-версию поиска, исправили несколько ошибок, улучшив формулу поиска. В новой формуле «Снежинск» изменился подход к построению ранжирования Яндекса, в том числе локализованному.

Денис Расковалов, руководитель отдела качества поиска Яндекса, сообщил что:

«Удалось создать более точную и гораздо более сложную математическую модель, которая привела к существенному приросту в качестве поиска. Благодаря переработке архитектуры ранжирования в поиске удалось реализовать учет нескольких тысяч поисковых параметров для одного документа».

Несколько тысяч параметров звучит, для оптимизаторов, действительно звучит устрашающе. Теперь со старой схемой продвижения уже труднее попасть в ТОП Яндекс, а тем более постоянно поддерживать высокие позиции.

Выдача «Снежинска» сильно отличает от основной. Геозависимость стала учитываться больше. В официальном релизе говорится:

«Продолжая хорошую традицию, мы внедрили в «Снежинске» дополнительные региональные факторы, основанные на интересе пользователей к документам. Они позволят повысить точность поиска в 19 городах с локальным ранжированием».

По словам руководителя отдела качества поиска Яндекса, Дена Расковалова, на апрель 2010 года, которые он озвучил в кулуарах РИФа, Яндекс учитывает более 420 факторов ранжирования. Немножко ранее, Илья Сегалович, тоже в дискуссиях упоминал цифру 400. Надо думать, что количество это потихоньку растет. Можно сказать становится в Яндексе своеобразным хобби у сотрудников отдела поиска придумывать новые факторы, а потом тестировать и принимать решение включать тот или иной фактор в формулу ранжирования.

Эти факторы действуют синхронно, таким образом, что один из них может уравнивать или обнулять действия другого. Следовательно, при новом алгоритме нужно не переусердствовать с некоторыми параметрами, что бы не ухудшть другие.


Чем стоит руководствоваться при продвижении сайта в Яндексе

  1. Не злоупотреблять многократным употребленим ключевых слов из запроса в одном предложении. Не более одного употребления в одном предложении.
  2. Ключевые слова располагать ближе к началу документа.
  3. Избегать излишне плотного скопления ключевых слов, выдерживая расстояние между их употреблениями примерно в 15˜–20 слов.
  4. Публиковать и естественный контент.
  5. Яндекс очень негативно относится к резкому так сказать «ссылочному взрыву».
  6. Избегать покупки ссылок на плохих донорах.

И в завершении ролик о Яндексе и русском SEO