Алгоритмы, которые понижают в выдаче сайты с некачественным контентом

С каждым годом поиск в интернете становится качественнее, ведь поисковые системы работают «не покладая рук» над улучшением релевантности выдачи. И именно борьба за пользователей стимулирует этот процесс. Как поисковым машинам удалось существенно улучшить ранжирование?

Всё дело в регулярно обновляющихся алгоритмах. Фильтры призваны отсеивать некачественный контент и давать пользователям самую точную и отборную информацию. Некоторые из них направлены на выявление уровня качества материалов, ведь в интернете всё ещё много устаревшего, низкосортного и даже опасного для пользователя текстового контента. Алгоритмы «математические формулы» призваны максимально качественно улучшить поисковую выдачу.

Давайте рассмотрим алгоритмы Google и Яндекс, которые борются с плохим контентом. Это полезно владельцам сайтов, которые делают ставку на текстовое продвижение своего бизнеса.

Алгоритмы Google, для которых важно качество контента

Заказать SEO-текст Условно их можно разделить на такие группы:

1. Против скрытого текста

Сюда входят Cassandra, Florida, Austin и другие. Их цель – выявить сайты с материалами, которые невидимы для пользователей, но индексируются поисковыми роботами. Если вы используете серые/чёрные методы SEO, например, выбор нулевого шрифта, скрытый редирект или поисковый спам, будьте готовы к тому, что ваш сайт рано (более вероятно) или поздно перестанет индексироваться и исчезнет из поисковой выдачи.

2. Против неуникальности и плагиата

Яркий представитель этой группы фильтров – знаменитый Panda от Google. Он запущен в 2011 году и с тех пор вышло несколько его значительных обновлений. Панда наказывает сайты за размещение чужих текстов, а также за дублирование одного и того же материала на нескольких страницах. Согласно статистике Google, в год своего запуска этот алгоритм затронул 12% ресурсов, контент которых оставлял желать лучшего.

Самая крупная поисковая система борется также с нарушением авторских прав в интернете. Для этого в 2012-м году введён алгоритм DMCA Penalty (Pirate).

3. Против переспама и некачественного внедрения ключевых слов

Несколько крупных алгоритмов ежедневно исключают из выдачи сайты, контент которых перегружен ключевыми запросами. Среди них:

Florida. Это одна из самых ранних разработок компании Google, благодаря которой многие ресурсы отказались от использования сомнительных методов SEO. После её введения сайты с обилием ключевых фраз, неуникальными текстами и покупными ссылками, стали ранжироваться намного хуже или были вовсе исключены из выдачи.

Заказать текст на главную Panda. Он тоже борется со злоупотреблением ключевыми словами в текстах. А ещё отслеживает плохой пользовательский опыт (поведение посетителей, в том числе процент отказов), несоответствие мета-тегов содержанию страницы.

Pinguin. В основном он направлен на борьбу с покупными ссылками, но если на страницах вашего сайта есть неестественные анкоры, может повлиять и на него. В поле зрения алгоритма также заспамленные ресурсы.

Hummingbird. Благодаря ему поиск стал более «человечным», ведь роботы научились определять смысл страницы по синонимам ключевого слова. Он исключает из выдачи контент с неестественным вхождением ключевых фраз.

RankBrain. Его цель – предоставлять пользователям максимально релевантные результаты поиска. Он принимает во внимание поведение посетителей страницы, их опыт, время чтения, процент отказов и т. д. Алгоритм анализирует не только ключевые слова, но и контекст. Согласно сведениям Google, каждый день он обрабатывает 15% всех запросов и миллиарды страниц.

Fred. Исключает из индекса сайты с обилием рекламы и исходящих ссылок. Беспощаден к ресурсам, на которых размещены статьи «для роботов» с исключительной целью генерации трафика.

Page Layout algorithm. Выпущен в 2012-м году в результате жалоб пользователей на обилие рекламы вверху страниц. Из-за этого людям приходится прокручивать их вниз, чтобы получить доступ к нужному материалу.

4. Против неактуальных и устаревших публикаций

В 2015-м году заработал алгоритм Freshness, из-за которого в выдачу не попадают устаревшие сайты. Он определяет актуальность контента на страницах в зависимости от тематики и сферы деятельности ресурса. Если на сайте не появляется новый контент и не создаются новые страницы, со временем он перестаёт индексироваться и вы можете получить похожую картину индексирования:

Заказать статью в блог

Органический трафик с Google.

Это основные группы алгоритмов Google, которые следят за качеством контента на сайтах. Некоторые из них, например, Панда, принимают во внимание различные ошибки в текстах, удобство чтения, HTML-разметку, длину материалов. Для ранжирования сайта немаловажны и отзывы пользователей о нём, особенно если это онлайн-магазин.

Действия «Яндекса», направленные на борьбу с плохим контентом

В целом, поисковая система Яндекс борется с теми же проблемами наполнения сайтов, что и Google: скрытые и бессмысленные тексты, переспам, копипаст, переоптимизация и т. д. Один из самых ярких алгоритмов Яндекса, которые касаются контента – «Баден-Баден».

Он заработал в марте 2017-го и серьёзно ужесточил ранжирование некоторых ресурсов. Понижает в выдаче сайты, содержащие обилие ключевых фраз в подзаголовках и теле текстов. Поисковая система различает синонимы основного запроса, поэтому лучше избегать частого употребления основных ключей. Алгоритм выявляет:Заказать текст на страницу

– чрезмерно большие тексты, перенасыщенные ключами;

– материалы любой длины с частым использованием ключевых запросов;

– неотформатированные статьи (без деления на смысловые блоки, иллюстраций и списков).

Если сайт нарушает правила поисковой системы, то он рано или поздно сталкивается с фильтрами. Следите за тем, чтобы информация в ваших сниппетах была понятной и уникальной, а сайт не содержал чужие тексты, назойливую рекламу, накрученную ссылочную массу. Если ресурс приносит пользу людям и следует правилам поисковой системы, исключение из поисковой выдачи ему не грозит.


Поделиться:


3 ответов

  1. Интересно, спасибо.
  2. Привет ребята. Хорошая статья, но хочу посдчказатб вам что алгоритм Фред нет. Нет официального подтверждения этому. Говорю, как активный участник форума гугл. Просто было обновление панда, пингвин и пейджлоят.
    • Tatiana
      Привет! Действительно, вся информация об алгоритмах считается неофициальной. И даже издание Washington Post публиковало статью с упоминанием алгоритма Фред. В общем, приходится считаться со всеми ими одновременно :)

Оставить комментарий