Москва, Старопетровский проезд, д. 7а, стр. 6, оф. 600
Предварительная заявка

Отправьте свои контакты, и мы свяжемся с вами в ближайшее время

Ваше имя Некорректное имя
Телефон Некорректный номер телефона
Заявка отправлена

Ваша заявка уже дошла до нас. В ближайшее время мы свяжемся с вами.

MainBit
История ссылочного ранжирования
История ссылочного ранжирования

Великий философ Георг Гегель говорил, что результат — это развернутое начало. И чтобы глубокого познать результат, нужно изучать не только его, но и начальную точку с процессом развёртывания. Так мы изучим результат «с корешками», а не только «по вершкам» пройдемся.

Именно этим мы и займемся в данном материале: изучим предпосылки, историю возникновения и эволюцию ссылочных факторов ранжирования.

Аватар
Сергей Анисимов

Чтобы понимать алгоритмы ссылочного ранжирования, нужно знать историю их возникновения. Данный вопрос мы разберем на примере компании Гугл: ее алгоритм PageRank долгое время считался эталонным, и другие поисковые системы развивались с оглядкой именно на него.

В 90-х годах двадцатого века, на заре развития Интернета остро встал вопрос поиска нужной информации. Существовавшие тогда поисковые системы оценивали релевантность документов запросу только на основе анализа текста на странице. Соответственно, качество выдачи было слабое, а на поиск нужных данных надо было потратить много времени.

В середине 90-х проблемой поиска занялись два студента Стэндфордского университета — Ларри Пэйдж и Сергей Брин. В академической среде, где они тогда вращались, уже давно сформировалось понимание того, что научная работа более «значима», если на нее ссылаются (цитируют) авторы других работ. Различные индексы цитируемости (например, Science Citation Index, SCI), которые оценивали эту значимость в количественном выражении, были известны уже с середины 60-х годов двадцатого века и продолжают появляться и в наше время.

По сути, научный проект Пэйджа и Брина с помощью специального математического и программного аппарата переносил в Интернет идею научного цитирования. Студенты создали систему BackRub, которая индексировала веб-страницы в Сети, а потом с помощью алгоритма PageRank присваивала каждому документу некий количественный ранг, который и отражал его значимость среди всех документов коллекции. Ранг зависел от двух параметров:

  • количества обратных ссылок на документ;
  • весом, который передает каждая ссылка (чем больше ранг документа — тем больше веса передает ссылка, расположенная в его коде).

Довольно быстро выяснилось, что BackRub значительно превосходила все существовавшие тогда поисковые системы. Для ее коммерческого развития Пэйдж и Брин основали в сентябре 1998 года компанию Google Inc., которая со временем превратилась в ту гигантскую корпорацию, которую мы знаем сейчас.

Успех Google убедительно доказывает, что PageRank оказался крайне удачным способом ранжирования веб-документов. Оценив полученный эффект, другие поисковые системы разработали и внедрили в свои алгоритмы аналоги PageRank.

Однако помимо достоинств довольно быстро выяснилась и принципиальная уязвимость PageRank-алгоритмов. Дело в том, что в академической среде невозможно искусственно повысить уровень цитируемости, так как она рассчитывается на основе анализа научных статей, опубликованных в рецензируемых журналах. А в Интернете это сделать легко. В результате пышным цветом расцвели искусственные методы увеличения ссылочной массы.

В какой-то момент возник целый карго-культ ссылочного продвижения. Специалисты по продвижению не слишком заботились о качестве сайтов. Основной упор они делали на линкбомбинге, то есть покупке и простановке обратных ссылок на сторонних сайтах всеми возможными способами.

Это привело к появлению целого спектра ныне почти забытых или малоэффективных методов ссылочной оптимизации:

  • бирж арендных ссылок;
  • сервисов покупки «вечных» ссылок;
  • программного обеспечения, которое позволяло автоматически проставлять обратные ссылки в интернет-каталогах, комментариях на сайтах и профилях пользователей на форумах;
  • различного рода партнерских программ обмена ссылками;
  • специальных веб-сервисов «автоматического» продвижения, которые сами рассчитывали необходимое для продвижения по запросу количество ссылок, а затем размещали их на партнерских сайтах.

Разумеется, поисковые системы также не стояли на месте. Постоянная модернизация алгоритмов ссылочного ранжирования и попытки манипуляции этими самыми алгоритмами со стороны SEO-специалистов превратились в настоящее соревнование «брони и снаряда».

Эта изматывающая борьба привела к появлению специальных алгоритмов, которые не только отделяли «естественные» ссылки от «коммерческих», но и наказывали те ресурсы, которые пытались пробиться в поисковую выдачу за счет искусственного наращивания ссылочной массы.

Самым знаменитым таким алгоритмом Гугла стал запущенный в 2012 году «Пингвин». Яндекс также предпринял ряд мер, в том числе PR-кампанию об отсутствии влияния покупных ссылок на поисковую выдачу и запуск специальных алгоритмов, понижающих сайты в выдаче за искусственное манипулирование ссылочной массой (АГС и «Минусинск»).

Внедрение алгоритмов, понижающих сайты в выдаче за покупку ссылок, вызвало замешательство в Интернет-среде. В Гугле многие хорошие сайты попали под санкции из-за «Пингвина». Яндекс вообще повел себя нелогично: вначале заявил об отсутствии влияния покупных ссылок на выдачу — а потом стал за эти самые ссылки наказывать. Но зачем это делать, если ссылки, по словам Яндекса, и так ни на что влияли?

В результате возникших трений образовалась новая точка равновесия. Поисковые алгоритмы смягчили наказания за покупку ссылок, а также уменьшили количество поводов, при которых эти наказания применяются. В свою очередь SEO-специалисты либо отказались от покупки обратных ссылок, либо радикально пересмотрели критерии их размещения.

 

Больше информации: