Против ботов но как люди

Повальная автоматизация многих сфер деятельности порождает новый, интересный, ранее не встречавшийся феномен – противодействие людей машинам (программам).

Это проявляется везде, где некое управление отдается под контроль программы. Программа торгует на бирже – вполне возможно понять, как она это делает, и использовать в своих целях. Программа вычисляет по потоку данных неугодных власти элементов – можно понять, как работает программа, и обходить этот контроль. Программа рассчитывает по определенным правилам размер налоговых выплат – можно, изучив эти правила, минимизировать налоги. Да, как вы видите, это работает и не только для программ, но и для любых формализованных процессов, но сегодня поговорим о программах.

Для меня это сейчас интересно в плане SEO. Как сказал однажды некий сеошник, по сути SEO – это читинг поисковых систем. Трудно с этим не согласиться.  

Задача поисковой системы – понять, что ищет пользователь, и предоставить ему результаты поиска, отранжировав их в порядке важности для пользователя. Ищут сейчас все поисковики вобщем-то хорошо. Т.е. соответственно запросу (например, «виниловый сайдинг») Яндекс вполне найдет сотню миллионов страниц, где в какой-то степени упоминается виниловый сайдинг. Но с ранжированием сложнее. Как понять, какие из этих страниц важнее пользователю? И вообще, что он хочет – купить сайдинг или узнать, что это такое, или что-то еще? Задача непростая и решается сложными алгоритмами.

Задача сеошника – сделать так, чтобы в начале результатов поиска (допустим, в первой десятке результатов или в первой тридцатке) по нужному запросу находился нужный сеошнику сайт. Чтобы эту задачу выполнить, нужно понять, по каким признакам поисковик отличает более важные страницы от менее важных, и «подогнать» сайт под эти представления.

Есть и другой класс задач, решаемых людьми, воюющими с поисковиками J Задача состоит в том, чтобы с наименьшими затратами создать сайт, который поисковик вообще захочет включить в свой поисковый индекс (база страниц, по которой идет поиск). И тут уже противостояние человека и программы намного более жесткое.

Раньше поисковики индексировали вообще всё подряд. Потом стали осмотрительней – стали распознавать автоматически сгенерированные тексты, неуникальные (скопированные с других сайтов) тексты, анализировали количество ссылок на сайтах, убивая «линкопомойки». Это всё – статические факторы, т.е. снимок сайта в определенный момент  времени. С недавних пор Яндекс стал обращать пристальное внимание и на динамику – изменение параметров сайта во времени. Теперь, например, очень подозрительное отношение к сайтам с быстрорастущей базой входящих ссылок (страниц других сайтов, ссылающихся на этот сайт). Взрывной рост количества исходящих ссылок также может скомпрометировать сайт. Равно как и резкая смена содержимого сайта. В целом позиция поисковиков такова: нужно делать «сайты для людей», а не для поисковиков.

Решая задачу пропихивания в индекс сайтов не для людей, можно идти двумя путями. Первый путь – пытаться понять, по каким признакам поисковик отделяет сайты для людей от остальных. Делать много сайтов, варьируя различные параметры, и анализировать – какие из них выживают лучше. Или анализировать чужой опыт – смотреть на параметры чужих сайтов.

Возможен и совершенно другой подход. Задача поисковика – пропускать сайты для людей. Значит можно просто изучать, как делаются сайты для людей, и делать так же. Что делает блоггер, создав свой блог? Наверное, он должен писать в блог регулярно, большинство постов должны быть с уникальным читаемым текстом. Блог без исходящих ссылок – нонсенс, обычно в каждом посте втыкается по несколько ссылок на другие ресурсы. Входящие ссылки на настоящий живой блог не появляются единомоментно сотнями, а появляются постепенно. При этом больше ссылок должно быть не с каталогов сайтов или с порталов, а скорее с каталогов блогов  и из других блогов. Ну и дальше в том же духе.

Разумеется, ничто не мешает использовать оба подхода сразу – возможно, это даст лучший результат, чем по отдельности.

Ку?

 

  • http://holydiver.ru/ Holy Diver

    Ку! С фразой “SEO – это читинг поисковых систем” категорически не согласен. Оптимизация есть оптимизация, читинг есть читинг. Вот из-за него и стали появляться фильтры, правила, рекомендиции которые заставляют белые сайты играть по правилам поисковиков, иногда уходящих в абсурд. Да и в оф-лайн бизнесе можно выделить аналогичные тенденции. Вместо качества – количество и минимальные затраты.