Как поисковая система определяет качественные сайты или пара слов про АГС

01.01.2008

Одна из самых серьёзных проблем для многих коммерческих оптимизаторов на текущий момент - это сложности с фильтрацией огромного количества сайтов в качестве коммерческих, то есть "продажных". По большому счёту, любое искусственное влияние на выдачу в той или иной степени противоречит лицензии поисковых систем. Философия проста:
- Если вы вкладываете средства в улучшение сайта при оптимизации под конкретные запросы, это положительная тенденция.
- Если вы вкладываете средства в попытки искусственного завышения параметров сайта при оптимизации под поисковые машины и конкретные алгоритмы, это отрицательная тенденция.


Разумеется, никто не может точно сказать, чем отличается сайт для людей от сайта для роботов, особенно в коммерческих тематиках с "лакомыми" высококонкурентными запросами. Другое дело, что всегда есть возможность вычислить явные способы накрутки рейтинга. Как в экономике вычисляется "картельный сговор", так и при SEO оптимизации веб сайта использование искусственно создаваемых сетей или ресурсов только для продвижения - это преступление.


Что именно фильтруется поисковой системой?

- Откровенные попытки обмана алгоритма, в частности, попытки подставлять разный контент роботам и людям, различные методики воздействия непосредственно на алгоритм сбора данных за счёт вычисления его слабых мест и так далее.

- Дорвеи, то есть сильно переоптимизированные страницы (зачастую бессмысленные), цель которых - просто получить места в поисковой выдаче и привести людей на сайт. Когда-то дорвеи были просто способом дать возможность выполнить оптимизацию сайта под разные запросы, но сегодня благодаря нормальным алгоритмам поиска в них просто нет нужды: они банально замусоривают выдачу.

- Ресурсы, созданные специально для SEO оптимизации других веб сайтов. Это так называемые "сателлиты", то есть сайты, служащие для одной-единственной цели - воздействия на численные показатели по количеству ссылок и подобные. Так как сайт-сателлит не несёт полезной информации, в выдаче он просто не нужен. Другое дело, что такой сайт может быть интересен - и в этом случае его важно отличить от "конвейерного".

- Сети сайтов, созданные специально для оптимизации под поисковые машины. Как правило, речь идёт о "фарминге", то есть содержании десятков, сотен и тысяч сайтов только для воздействия на ссылочный граф. Как правило, такой ресурс является одним из основных для средних и крупных организаций, действующих на рынке.


Чем отличается "продажный" SEO-сайт от сайта для людей?

Поскольку цена оптимизации сайта напрямую зависит от количества и качества ссылок, для крупных компаний выгодно содержать собственную сеть сайтов, позволяющую быстро расставить ссылки и разместить другие материалы. Ситуация такова, что почти каждая компания может похвастаться десятком-других своих сайтов в начале работы - и сотнями после пары лет на рынке.


Есть два подхода: разработка действительно интересных информационных сайтов или же конвейерное "клепание" ресурсов для воздействия на поисковые машины. В первом случае ресурсы рассматриваются как самостоятельные, во втором - в качестве сателлитов.


Следует обращать внимание на следующие параметры:

- Сателлиты часто меняют количество ссылок. Если у вас есть 100 сайтов, которые сначал "обросли" ссылками на один ресурс, потом на другой и третий - появляется тенденция, позволяющая считать, что они объединены в одну сеть и начать более подробно её исследовать.

- Если ваши сайты свёрстаны по одному шаблону и имеют одну структуру, стоит задуматься о том, что, возможно, они будут "склеены", то есть станут рассматриваться именно как сеть. Такое, кстати, несколько раз происходило с ресурсами на популярных движках для ведения standalone-блогов.

- Сети сайтов часто имеют достаточно низкий уровень качества. Это может касаться как одинаковых ошибок в коде, так и неуникального и неинтересного контента. Если вы увлекаетесь рерайтом или машинной синонимизацией, а также машинным переводом - то это игра в русскую рулетку, поскольку любое изменение формулы поиска уникального контента сразу же обесценит вашу сеть.

- Сети сайтов легко вычислить по владельцу. Распространено заблуждение, что если скрыть данные о домене, этого удастся избежать. Практика показывает, что в этом случае "подозрение" к сети лишь усиливается. Стоит обратить внимание и на тот факт, что IP-адреса сайтов сетки тоже могут быть одинаковыми.

- Основной инструмент поиска сетей сайтов - это так называемая "сила стука", то есть обращение вебмастеров через форму сообщения о поисковом спаме. Если у вас есть система сайтов, обладающая признаками SEO-сети, то любой "стук" от конкурентов вызовет ручной просмотр модератором. Таким образом, сеть должна быть не просто незаметна для роботов, но и выглядеть качественно для людей.


Если вы будете делать сайты именно для нужд посетителей, то вероятность их выхода из индекса снижается. Если же вы начнёте работать по конвейерному принципу, то вам придётся постоянно беспокоиться об индексации сети (что напрямую влияет на seo оптимизацию веб сайтов клиентов), а также думать о построении новых ресурсов, поскольку старые рано или поздно потеряют эффективность. Образуется замкнутый круг, в котором будет нужно создавать всё новые и новые низкокачественные сайты, чтобы поддерживать клиентов.


С другой стороны, внутренняя цена оптимизации сайта может быть существенно снижена и за счёт качественных собственных ресурсов. Конечно, на них придётся тратить больше времени и сил - и использовать их, "выжимая досуха" будет нельзя. Однако в перспективе именно такое решение имеет больше преимуществ, нежели сиюминутная работа с сетями, попадающими под различные фильтры.



Комментарии Disqus

comments powered by Disqus