Назад к списку

Алгоритмы Яндекс — как это работает 

Основанная еще в 2007 году корпорация Яндекс беспрерывно развивается в стремлении максимально усовершенствовать свою продукцию и расширить пользовательскую аудиторию, составляя главную конкуренцию бренду Гугл. Развитие касается и алгоритмов ранжирования, которые существенно улучшились за последние годы.


Понятие поискового алгоритма

Поисковыми алгоритмами именуют программы, посещающие подавляющее число интернет-ресурсов и ранжирующие их содержание согласно заложенным разработчиками принципам. Основной задачей таких алгоритмов является выдача максимально полезного и качественного контента в ответ на запрос пользователя.

Соответственно, сайты с оптимальным, по мнению программ, контентом оказываются ближе или входят в ТОП-10, а ресурсы с несоответствующим по одному или ряду принципов содержанием угождают под фильтр и понижаются в рейтинге, а порой и вовсе попадают в «бан» и не индексируются. В итоге работа алгоритмов упрощает жизнь пользователям, но все чаще сильно утрудняет продвижение контента и возможности популяризации различных сайтов. Более того, современные алгоритмы способны самообучаться и анализировать больше параметров качества текстового наполнения.

Основные сферы воздействия алгоритмов Яндекс

Борьбу с некачественным или излишне рекламным контентом Яндекс-алгоритмы ведут в следующих направлениях:

  • понижение релевантности ресурсов с неактуальным, некачественным или излишне оптимизированным текстовым наполнением;
  • фильтрация сайтов с избыточным количеством SEO-ссылок;
  • понижение позиций ресурсов с чересчур назойливой или избыточной рекламой;
  • понижение в выдаче сайтов, набирающих популярность обманным путем и так далее.

Помимо влияния на ранжирование ресурсов, Яндекс также может штрафовать и даже полностью исключать из ранжирования некоторые сайты, особенно если они действуют в обман поисковой системы. За последние годы корпорация запустила свежие алгоритмы, о специфике которых стоит поговорить подробней.

Владивосток: изменения, коснувшиеся мобильного Интернета

В феврале 2016 года Яндекс запустил новый алгоритм под названием «Владивосток». В основе работы алгоритма — принцип ранжирования сайтов с учетом их адаптированности к портативным устройствам. Программа получила свое название не случайно, ведь по статистике мобильная активность российских пользователей наиболее высока именно на Дальнем Востоке.

Согласно информации от разработчиков, «Владивосток» не окажет кардинального влияния на основные результаты выдачи, ведь мобильная пригодность — лишь один из сотен факторов оценки ресурса со стороны поисковой системы. Однако наличие адаптированной версии сайта все же является плюсом и влияет на ранжирование положительно. Согласно исследованиям, менее трети из общего числа наиболее посещаемых ресурсов имеют собственную мобильную версию, и политика Яндекса в этом вопросе, вероятно, направлена на стимуляцию увеличения количества мобильно адаптированных сайтов.

Для того чтобы ресурс соответствовал требованиям мобильной пригодности, необходимо оптимизировать его структуру под возможности портативных устройств и удобство пользователей. Адаптированный сайт должен:

  • быть интегрирован с мобильными сервисами;
  • предоставлять информацию в удобном для просмотра виде (в том числе без необходимости увеличивать шрифт или прокручивать страницу по горизонтали);
  • иметь удобную навигацию и меню, достаточное количество пространства вокруг ссылок и кнопок;
  • быть избавлен от неактуальных для текущих браузеров элементов (например, Java-апплетов и Silverlight-плагинов).

Важны также скорость загрузки страницы и ее размер, который должен быть небольшим в силу скромных габаритов экранов в мобильных устройствах.

Палех: нейросети теперь в действии

Ноябрь 2016 года ознаменовался тестированием и запуском нового алгоритма «Палех», нацеленного на улучшение выдачи результатов по редким запросам. Символом разработки стала сказочная жарптица, длинный хвост которой состоит из низкочастотных запросов, а туловище и голова — из наиболее часто запрашиваемых.

Ну а суть внедрения алгоритма заключается в том, чтобы сделать низкочастотные запросы одинаковыми по смыслу с документами, на которые они отвечают, при одновременном отсутствии общих «ключевиков». То есть, выдача теперь ориентирована не только на ключевые фразы и заголовки, но и на весь текст в целом, и чем больше совпадений по запросу, тем выше рейтинг страницы в выдаче.

Для реализации этих задач разработчикам понадобилось внедрить в работу поисковой системы искусственный интеллект на основе нейронной сети, который позволил программе более качественно и полноценно сравнивать, анализировать, обрабатывать информацию.

Фактически алгоритм позволил поисковику «думать» почти как человек, и в будущем эта способность лишь усовершенствуется. А потому задачей специалистов по продвижению сайтов посредством текстового контента стала реорганизация подхода к созданию самого текста: теперь написание статей «для роботов» будет стремительно терять актуальность, при этом наиболее ценными станут статьи «для людей» — не перегруженные ссылками, ключевыми словами, написанные грамотным, живым языком.

Баден-Баден: новейшее оружие Яндекса в борьбе с переоптимизацией

Новый алгоритм от Яндекса — «Баден-Баден» — начал действовать в марте 2017 года. Ключевой задачей программы стала борьба с текстовыми спамерами и жесткая пессимизация излишне оптимизированных текстов. Если раньше плотность ключевых фраз в статьях и наличие тщательно просчитанного числа прямых вхождений обусловливали шансы ресурса оказаться в ТОПе, сейчас переоптимизированный контент станет причиной понижения сайта в выдаче как минимум на десять пунктов по определенным запросам. Безусловно, все, кто уже вложил средства в предельно плотную SEO-оптимизацию, понесут заметные потери.

Стоит сказать, что сайты с качественным контентом не пострадают от действий «Б-Б». Остальные ресурсы полностью либо частично попадут под фильтр. Яндекс стал более конкретен в своих требованиях: они выдвигаются персонально с учетом особенностей структуры конкретного ресурса. Разработчику в каждом случае будет предложен вариант исправить ситуацию, удалив страницы с переспамленным контентом или обновив их содержимое. Стимулом к ускорению процесса «реабилитации» стала кнопка «Я все исправил». В случае неповиновения на ресурс или отдельные его страницы будет распространяться пессимизация.

Отдельно стоит отметить влияние нового алгоритма на деятельность серых и черных SEO-специалистов, которым теперь рекомендуется:

  • отдавать предпочтение не SEO-текстам, а LSI;
  • использовать близкотематические фразы для повышения релевантности контента;
  • чаще применять в своей работе ЯндексВебмастер.

«Баден-Баден» — очередной серьезный шаг Яндекса на тропе войны за качественный, читабельный контент, созданный для людей, а не рассчитанный на несовершенство поисковых роботов.

Подводя итоги, или советы веб-мастерам

Если обобщенно описать позицию Яндекса в вопросе ранжирования сайтов, на современном этапе она опирается, в основном, на:

  • поведение людей на страницах ресурса;
  • высокое качество и тематичность контента;
  • своевременность обновления текстовой информации (актуальность статей).

Веб-мастерам следует учесть, что в Яндексе не смогут нормально проиндексироваться сайты, тексты которых:

  • неуникальны или являются неглубоким рерайтом;
  • перенасыщены ключевыми фразами, внутренними ссылками, анкорами;
  • не соответствуют общей тематике ресурса;
  • содержит повторяющиеся мета-теги и так далее.

Конечно, даже с учетом современных алгоритмов разработчики смогут вполне легально избежать пессимизации или других санкций, следуя советам и требованиям Яндекс в вопросах ранжирования, в частности — создавать контент «для людей». А вот пытаться обмануть программы стало гораздо сложнее, и санкции на такую деятельность стали жестче, откуда и вывод: лучше пойти на компромисс, чем лезть на рожон. Ведь, в конце концов, не только Яндекс, но и владельцы сайтов должны стремиться упростить жизнь пользователю, ведь в итоге это положительно повлияет на прибыли.