Tag Archives: SEO

Торгует ли РА “Эксперт” ссылками

“Эксперт” – лучшее рейтинговое агентство страны. Эдакий доморощенный аналог известным американским рейтинговым агентствам Fitch, S&P, Moodys. Серьезная вполне контора. Кто не в курсе – рейтинговые агентства занимаются присвоением рейтингов платежеспособности различным компаниям, регионам, странам. По этим рейтингам впоследствии финансовые институты оценивают, стОит ли давать компании кредит и под какой процент.

Зашел намедни на их сайт, и зацепился глазом за интересный блок ссылок. Прошелся по внутренним страницам сайта, на них тоже такие же блоки. И очень уж они похожи на блоки продажных ссылок.

Сначала я подумал, что там и вовсе стоит код системы SAPE или чего-то подобного автоматического. Но похоже там что-то другое, потому что ссылки разбиты на разделы по темам, вроде “Услуги”, “Техника”, “Для бизнеса”. Видимо какая-то собственная система управления ссылками там придумана.

Но всё же, очень интересно. Зачем очень солидной конторе, которая наверняка заботится о своей репутации, такими вещами заниматься? Что это? Сознательно для увеличения доходов фирмы?

Или может быть неосознанно, через какую-то контору? Мне как-то тоже ребята из довольно известной оптимизаторской конторы предлагали на митуе “разместить блок текстовой рекламы” (ребята предложили цены раз в десять ниже рыночных и были посланы на юг).

Или может это личная инициатива веб-мастера фирмы? Думаю, как минимум 5 тысяч баксов в месяц там вполне получится. Неплохой дополнительный заработок J

Что это? Кто знает?

 

Павел Сурменок

Красноярск, 18 февраля 2008

 

Против ботов но как люди

Повальная автоматизация многих сфер деятельности порождает новый, интересный, ранее не встречавшийся феномен – противодействие людей машинам (программам).

Это проявляется везде, где некое управление отдается под контроль программы. Программа торгует на бирже – вполне возможно понять, как она это делает, и использовать в своих целях. Программа вычисляет по потоку данных неугодных власти элементов – можно понять, как работает программа, и обходить этот контроль. Программа рассчитывает по определенным правилам размер налоговых выплат – можно, изучив эти правила, минимизировать налоги. Да, как вы видите, это работает и не только для программ, но и для любых формализованных процессов, но сегодня поговорим о программах.

Для меня это сейчас интересно в плане SEO. Как сказал однажды некий сеошник, по сути SEO – это читинг поисковых систем. Трудно с этим не согласиться.  

Задача поисковой системы – понять, что ищет пользователь, и предоставить ему результаты поиска, отранжировав их в порядке важности для пользователя. Ищут сейчас все поисковики вобщем-то хорошо. Т.е. соответственно запросу (например, «виниловый сайдинг») Яндекс вполне найдет сотню миллионов страниц, где в какой-то степени упоминается виниловый сайдинг. Но с ранжированием сложнее. Как понять, какие из этих страниц важнее пользователю? И вообще, что он хочет – купить сайдинг или узнать, что это такое, или что-то еще? Задача непростая и решается сложными алгоритмами.

Задача сеошника – сделать так, чтобы в начале результатов поиска (допустим, в первой десятке результатов или в первой тридцатке) по нужному запросу находился нужный сеошнику сайт. Чтобы эту задачу выполнить, нужно понять, по каким признакам поисковик отличает более важные страницы от менее важных, и «подогнать» сайт под эти представления.

Есть и другой класс задач, решаемых людьми, воюющими с поисковиками J Задача состоит в том, чтобы с наименьшими затратами создать сайт, который поисковик вообще захочет включить в свой поисковый индекс (база страниц, по которой идет поиск). И тут уже противостояние человека и программы намного более жесткое.

Раньше поисковики индексировали вообще всё подряд. Потом стали осмотрительней – стали распознавать автоматически сгенерированные тексты, неуникальные (скопированные с других сайтов) тексты, анализировали количество ссылок на сайтах, убивая «линкопомойки». Это всё – статические факторы, т.е. снимок сайта в определенный момент  времени. С недавних пор Яндекс стал обращать пристальное внимание и на динамику – изменение параметров сайта во времени. Теперь, например, очень подозрительное отношение к сайтам с быстрорастущей базой входящих ссылок (страниц других сайтов, ссылающихся на этот сайт). Взрывной рост количества исходящих ссылок также может скомпрометировать сайт. Равно как и резкая смена содержимого сайта. В целом позиция поисковиков такова: нужно делать «сайты для людей», а не для поисковиков.

Решая задачу пропихивания в индекс сайтов не для людей, можно идти двумя путями. Первый путь – пытаться понять, по каким признакам поисковик отделяет сайты для людей от остальных. Делать много сайтов, варьируя различные параметры, и анализировать – какие из них выживают лучше. Или анализировать чужой опыт – смотреть на параметры чужих сайтов.

Возможен и совершенно другой подход. Задача поисковика – пропускать сайты для людей. Значит можно просто изучать, как делаются сайты для людей, и делать так же. Что делает блоггер, создав свой блог? Наверное, он должен писать в блог регулярно, большинство постов должны быть с уникальным читаемым текстом. Блог без исходящих ссылок – нонсенс, обычно в каждом посте втыкается по несколько ссылок на другие ресурсы. Входящие ссылки на настоящий живой блог не появляются единомоментно сотнями, а появляются постепенно. При этом больше ссылок должно быть не с каталогов сайтов или с порталов, а скорее с каталогов блогов  и из других блогов. Ну и дальше в том же духе.

Разумеется, ничто не мешает использовать оба подхода сразу – возможно, это даст лучший результат, чем по отдельности.

Ку?

 

Эксперименты в быстроменяющихся условиях

Хорошо, когда есть время для проведения эксперимента. Поставил эксперимент, вычислил оптимальные значения параметров, эти значения применил к системе.

Но бывают, что система быстро меняется. Настолько, что после завершения эксперимента уже изменились правила игры и результаты можно смело выкинуть, а эксперимент ставить заново.

Чтобы не говорить абстрактно – в пример приведу SEO (Search Engine Optimization). Интересна эта отрасль тем, что здесь идет вечная борьба между сеошниками  и поисковыми системами. И здесь всё очень быстро меняется. То, что работает сейчас – после следующего обновления алгоритмов Яндекса может перестать работать и придется искать новые пути.

Допустим, мы делаем сайты для продажи ссылок. Яндексу это не нравится и он пытается из не индексировать. Он учитывает множество факторов, включая количество и качество контента, количество и качество исходящих ссылок, количество и качество входящих ссылок, IP сервера, данные домена (whois), а также изменение всех этих параметров во времени (динамические факторы).

Нам нужно вычислить в ходе экспериментов, как заставить Яндекс сожрать эти сайты. Для этого видимо нужно сделать какое-то количество новых сайтов (10-50 штук), в которых варьировать некоторые параметры (например, качество контента и скорость прироста внешних ссылок). И далее наблюдать на реакцию Яндекса.

Беда вся в том, что результаты эксперимента будут видны далеко не сразу. Минимум придется подождать 2-4 недели. Лучше больше – 6-8 недель, т.к. часто бывает, что сайт сначала входит в поисковый индекс Яндекса, но через два-три апа (обновления поискового индекса) выпадает оттуда.

Если бы алгоритмы Яндекса оставались неизменными, то это было бы нормально. Поставили жксперимент, подождали 2 месяца, проанализировали результаты. И можно работать – вкладывать время и деньги в создание сайтов с рассчитанными параметрами. Однако Яндекс меняет алгоритмы с частотой раз в 2-4 месяца. И велика вероятность, что когда эксперимент будет завершен, алгоритм сменится и результаты станут бесполезны.

Что делать в такой ситуации? Видимо нужно интегрировать эксперимент в нормальный рабочий процесс. Чтобы эксперимент не был отдельным  этапом в жизненном цикле нашей конторы. Сайты делаются в больших количествах, допустим по 5 штук в день.  Можно в один день взять одну комбинацию факторов, завтра другую, послезавтра третью. И по ходу дела постоянно мониторить ситуацию – какие сайты выживают лучше, какие хуже. Когда будет очевидно, что какой-то фактор влияет четко негативно – фиксируем это и больше так не делаем. Так рабочий процесс у нас не будет останавливаться, а вновь создаваемые сайты будут постоянно приспосабливаться под меняющиеся условия.

Может можно еще как-то, а?