Поисковые алгоритмы

Алгоритмы ПС (поисковых систем) – это специальные формулы, с помощью которых поисковики осуществляют отбор наиболее подходящих под запрос пользователя сайтов и веб-страниц и определяют их позиции в ТОПе.
Поисковые машины при систематизации руководствуются ключевыми словами. Алгоритмы помогают найти наиболее подходящие ресурсы, исключая переспамленные и сомнительные сайты. С помощью математической формулы поисковая система анализирует сайты на наличие ключевиков и выбирает наиболее подходящие. Каждая поисковая машина работает по своему алгоритму, но в любом случае он построен на основе общих базовых принципов.

Алгоритмы Google

После появления собственной поисковой системы (Индекса Цитирования) у Google началось массовое использование алгоритмов другими поисковиками. С помощью ИЦ по количеству и качеству внешних ссылок определяется позиция сайта в результатах выдачи. После экспериментального внедрения Индекса Цитирования в работу Google браузер стал очень популярным у пользователей всего мира.
Изначально при систематизации сайтов в поисковой системе Google большое влияние имел PR веб-ресурса. Также немаловажное значение имели дизайн и текстовые материалы интернет-страниц. В дальнейшем стали учитывать актуальность информации и региональность.
Начиная с 2000 года были разработаны следующие алгоритмы Google:
  • · В 2000 году Кришной Бхаратом был предложен улучшенный алгоритм для вычисления PR «Hilltop». Но в следующем году Google поставил перед собой задачу вычислять страницы коммерческого содержания и алгоритм пришлось менять. В 2001 году особое предпочтение при ранжировании уделялось трастовым сайтам.
  • · Алгоритм «Флорида, внедренный в 2003 году, поверг в шок оптимизаторов сайтов. Он не реагировал на сайты с большим количеством ключевиков и одинаковых ссылок, что не позволяло им выбиться в ТОП.
  • · Алгоритм студента Ори Алона из Израиля начали использовать с 2006 года. С его помощью ПС определяла качество веб-страниц.
  • · Алгоритм «Austin», внедренный в 2007 году, способствовал серьезному изменению результатов выдачи.
  • · Алгоритм «Caffeine», появившийся в 2009 году, значительно улучшил поисковую систему Google и способствовал увеличению индексируемых сайтов.
  • · Алгоритм «Panda», внедренный в 2011 году, позволил присваивать высокие позиции порталам с наиболее качественным наполнением.

Алгоритмы Яндекса

До 2008 года Яндекс открыто не упоминал о том, что для поисковых систем используются алгоритмы. В июле 2007 года было заявлено, что ранжирование сайтов будет происходить по-новому. В следующем году при общении с журналистами был упомянут алгоритм «8SP1». Алгоритмы, используемые ранее, не имели официальных названий. Пытаясь обмануть программу, при обновлении алгоритмов оптимизаторам приходилось совершать множество ошибок, чтобы добиться положительного результата.
В дальнейшем Яндекс внедрил следующие алгоритмы:
  • · «Магадан», появившийся 16 мая 2008 года, помогал ПС перерабатывать аббревиатуры и транслитерации.
  • · «Находка», внедрен во второй половине 2008 года, позволил ПС выдвигать на высокие позиции информационные порталы, такие, как «Википедия».
  • · «Анадырь» или «Арзамас», появился 10 апреля 2009 года, позволил продвигать региональные сайты и блокировать веб-страницы со всплывающей рекламой.
  • · «Снежинск», внедрен в ноябре 2009 года. С этим алгоритмом был введен «Матрикснет» (способ машинного обучения). Усовершенствованные способы отбора порталов стали значительно сложней, оптимизация выполнялась комплексно.
  • · Через месяц алгоритм «Снежинск» был обновлен, появилась версия «Конаково», с помощью которой происходило региональное ранжирование по 1250 городам и 19 регионам РФ.
  • · «Обнинск» был внедрен в сентябре 2010 года. Данный алгоритм значительно усложнил работу оптимизаторов. С его помощью происходила оценка текстового наполнения сайтов, его качество и актуальность. Переспамленность ключевыми словами приводила к наложению штрафных санкций. Страницы с авторскими текстами поднялись в результатах выдачи.
  • · Алгоритм «Краснодар», дополненный технологией «Спектр», появился в декабре 2010 года. Поисковая система стала систематизировать запросы и группировать их. Стали выдвигаться на первые места веб-страницы с более качественным наполнением. Оптимизаторам пришлось обратить внимание на поведенческие факторы.
  • · «Рейкьявик» увидел свет 17 августа 2011 года. С его помощью стало проще выполнять англоязычные запросы.

Характеристика

Изначально поисковые системы обрабатывали только поверхностную информацию веб-страниц: объем наполнения, заголовки, ключевые слова. Но заспамленность многих сайтов привела к тому, что специалистам пришлось разрабатывать новые алгоритмы для борьбы с появлением в выдаче «сомнительных» страниц. Активная работа оптимизаторов, пытающихся всякими способами продвинуть сайты, вынуждает заниматься постоянным обновлением алгоритмов для борьбы с интернет-мусором.