Алгоритмы поисковых систем - что это и с чем их едят ?

Для начала, стоит определиться с терминами и их значением. ПС – поисковые системы. Алгоритмы поисковых систем – это специальные математические формулы, исходя из которых, поисковики производят отбор для выдачи интернет-ресурсов, сайтов и веб-страниц в результате поиска по конкретным запросам. Запрос индексируется поисковыми машинами по ключевым словам (фразам) или так называемым "ключевикам". Алгоритмы же поисковых систем дают возможность найти сайты, наиболее точно подпадающие под запрос пользователя, отметая при этом ненужные ресурсы, спам и некорректно оптимизированные площадки. Именно, используя определенный алгоритм, поисковая машина проводит анализ содержания сайта, проверяя его на наличие тех самых ключевых слов. Затем, руководствуясь алгоритмом, ПС определяет уровень соответствия заданному запросу и в зависимости от этого выстраивает рейтинг, по которому и строится список сайтов в выдаче. Самые точные попадания, как правило, будут находиться в топе, то есть на верхних позициях. Несмотря на то, что для каждой поисковой системы моделируются свои алгоритмы, в целом они работают по схожим критериям. Например, уникальность контента определяют все ПС в обязательном порядке. А вот отличие алгоритмов поисковых систем заключается в используемых инструментах анализа и отбора.
На заре интернета для обнаружения нужной информации поисковикам требовалось всего-то просканировать содержание на базовые показатели соответствия такие как, заголовки, ключевики, размер текста и количество текста и т. п. Но с тотальным распространением оптимизации и разновидностей спама поисковые системы были просто обязаны совершенствоваться. Поэтому алгоритмы усложнялись, чтобы еще более тщательно распознавать и исключать сайты. Это было ответом на постоянно эволюционирующие методы продвижения.
Принципы работы поисковых алгоритмов находятся под грифом «совершенно секретно». То есть никто, кроме самих разработчиков поисковых систем, не может знать, по каким именно критериям ведут отбор алгоритмы того или иного поисковика, на что они реагируют и т. д. Данные же о работе алгоритмов, представленные в сети – не более чем личные наблюдения и выводы вебмастеров и оптимизаторов.
В доказательство прогресса поисковых систем, некоторые из них способны, например, не только сканировать информацию по ключевым словам, но и по критериям популярности веб-страниц, количества времени их просмотра пользователем и т. д. Как правило, чем больше человек уделяет времени просмотру конкретного ресурса, тем вероятнее, что на нем присутствует необходимая информация. Другие алгоритмы, например, ведут отбор по количеству ссылок, вычисляя авторитетность сайтов. Это выражается в показателях типа ТИЦ, PR и прочих, анализ которых тоже является алгоритмом ПС. Число параметров, по которым алгоритмы отсеивают или добавляют в выдачу сайты, может доходить до нескольких сотен показателей. Так самый популярный поисковик Google при ранжировании по запросу учитывает более 200 параметров отбора.

Алгоритмы поисковой системы Яндекса

Яндекс, как и другие поисковые системы, долгое время не раскрывал подробности своих алгоритмов. Однако, начиная с 2007 года, Яндекс принял решение информировать своих пользователей о выходе новых алгоритмов. Мы, конечно, понимаем, что под пользователями подразумеваются, в первую очередь, именно оптимизаторы и вебмастеры. В самом деле, много ли пользователей интересуется тем, как устроен алгоритм поисковой системы или, более того, следит за изменениями в них?
Для чего темные властелины Яндекса делятся этой информацией с сеошниками доподлинно неизвестно. С одной стороны кажется, что таким образом они дают возможность подготовиться к грядущим изменениям и более успешно продвигать свой сайт. Но с другой стороны, все изменения в алгоритмах Яндекса направлены, скорее на борьбу с самой возможностью искусственного продвижения. Возможно, что такой ход направлен на уменьшение потока запросов Платону Щукину (службы поддержки Yandex.Webmasters), поскольку, чем больше у владельца сайта ответов, тем меньше он будет задавать вопросов.
Так или иначе, с 2007 года Яндекс стал информировать о сменах своих алгоритмов, в 2008 года первый раз дал новому алгоритму название – 8 SP1, а начиная с мая 2008 года, каждый новый алгоритм стал носить название города, начинающегося на ту букву, на которую заканчивается название предыдущего алгоритма. Первым из «городских» алгоритмов стал Магадан, что еще раз убедило общественность в своеобразном чувстве юмора сотрудников Яндекса.
В период с мая 2008 года по текущий день у Яндекса сменилось 10 алгоритмов, последний из них – Дублин – был анонсирован 30 мая 2013 года.

Смотрите также:

     Перспективы ссылочных бирж  (опубликовано 05.09.2014)
     Краткий обзор бирж ссылок  (опубликовано 05.09.2014)
     Выбираем подрядчика по SEO  (опубликовано 05.09.2014)
     Поведенческие факторы. Как происходит сбор данных  (опубликовано 10.08.2014)
     Как возникли поведенческие факторы  (опубликовано 10.08.2014)



    Версия для печати   
звоните (495) 410-45-50

- продвижение сайта в поисковых системах
- контекстная реклама
- разработка сайтов, интернет-магазинов
- техническая и контент поддержка сайтов
- хостинг, системы управления сайтами
Powered by CounTur (Content Management System)

125190, Москва, Ленинградский пр-т, д. 80 корп. 1
тел (495) 410-45-50
© 1999-2016 CODECO