Темная сторона поиска

В предыдущих статьях из этой серии ("КВ" №13, 16) мы уже успели подробно обсудить главный фильтр "Яндекса" - АГС-17, - который ответственен за фильтрацию сайтов на предмет оценки качества их контента перед попаданием в выдачу поисковой машины. А также во второй части статьи мы узнали главные факторы, которые влияют на качество вашего сайта в глазах поисковой машины "Яндекс". В третьей, заключительной, части давайте сосредоточимся на том, что необходимо предпринять, если ваш сайт исчез из поисковой выдачи "Яндекса" и поток посетителей резко упал, иначе говоря, если ваш сайт забанили или он уже подпал под один из многочисленных фильтров "Яндекса".

Потеря посетителей для любого веб-мастера прискорбна, и если крупнейший источник переходов людей на сайт - поисковая машина - вдруг начинает бойкотировать любимый сайт, это, конечно, серьёзный повод огорчиться и/или задуматься над причинами происходящего. Если всё же худшее для сайта уже случилось, давайте рассмотрим примерный алгоритм исправления ситуации в лучшую сторону.

Во-первых, нужно убедиться, что вы по-прежнему находитесь в индексе (сделать это можно в панели веб-мастера "Яндекса", webmaster.yandex.ru/check.xml). Есть две большие разницы, когда вас просто пессимизировали и сайт от этого "рухнул вниз" в поисковой выдаче, или когда сайт целиком (или частично) выкинули из индекса. Нужно ясно различать эти две ситуации для себя, ибо причины происходящего (и, соответственно, советы по устранению их последствий) будут зависеть от этих двух факторов.

Поскольку невозможно рассмотреть все ситуации и причины бана сайта в рамках небольшой статьи, сфокусируемся лишь на одном случае (зато в последнее время именно этот вариант стал самым распространенным в повседневной жизни) - это действия уже ранее подробно рассмотренного фильтра АГС-17.

По своему опыту веб-мастера знают, что у работы этого фильтра есть железная закономерность - своего рода правило отлива и прилива. Начинается всё с того, что робот выбрасывает сайт из индекса (или остаётся, как правило, только главная страничка сайта), но через какое-то время сайт снова также внезапно сам собой возвращается в поиск. После этого, с небольшими паузами, следует ещё несколько таких фаз добавления и исключения из индекса, подобно качелям, пока сайт не выбрасывается из поиска окончательно. Не будем сейчас как-то комментировать или искать скрытую логику во всей этой "потусторонней" для нас динамике работы поискового паука, скажу лишь, что эта обязательная "литания" перед окончательным "умиранием сайта" хорошо известна и неоднократно наблюдалась мною и моими коллегами по поисковой оптимизации на многочисленных сайтах, над которыми, волей судеб, ставились столь негуманные для них опыты.

 

Итак, если ваш сайт вдруг исчез из поискового индекса, есть два пути, назовем их условно "естественный" и "форсированный". При "естественном" способе" решения проблемы, зная наперед описанную выше циклическую природу работы АГС-17, сразу при исчезновении сайта из "серпа" нам стоит начать готовиться к фазе повторного вхождения в индекс. Как я уже писал в прошлых статьях этой серии, говоря намеренно упрощённо, качественный уникальный текстовый контент для поисковой машины - своего рода бочонок с медом для медведя, который при любых обстоятельствах, возможно, заходя даже издалека, всё же не устоит перед соблазном полакомиться вкусностями. Поэтому, оказавшись в такой неприятной ситуации, необходимо в творческом порыве срочно родить этот самый уникальный контент, и в количествах не менее 10% от текстового содержания текущей версии сайта. Оставим за скобками, как и откуда за короткий срок можно взять столько тематически уникального контента, заверю лишь, что, несмотря на всю видимость отъявленного шаманства и суеверность предложенного здесь ритуала, мною было неоднократно имперически проверено, что, получив такую разовую массивную "контентную прививку", АГС-17 оставляет сайт в покое. Здесь очень важно добавить, что при таком способе лечения нужно запастись терпением: нужно дождаться фазы, когда сайт будет снова вброшен в индекс, и только в этом состоянии "видимости сайта" поисковику делать вышеописанный инжект "свежей крови" в содержимое сайта.

Как было обещано выше, есть и второй способ "форсированного" возвращения сайта в индекс - но это более радикальная процедура, которая практически сразу даёт видимые результаты, но... в этом случае ваш сайт понесет некоторые неизбежные потери. Итак, в этом случае попробуйте поменять адреса всех страниц сайта на новые, а также адреса всех его разделов. В зависимости от движка вашего сайта сделать это будет или очень просто, или не совсем просто, но в любом случае, уверяю вас, после обновления индекс-базы поисковика ваш сайт снова вернется в поисковую выдачу, несмотря на все наложенные ранее на домен фильтры. Конечно, этот радикальный способ больше подходит для молодых сайтов, которым, по большому счету, нечего терять, здесь мы как бы создаём новую инкарнацию старого сайта, полностью изменив его ссылочную структуру. Повторюсь, несмотря на то, что после этого трюка контент сайта останется полностью прежним, логика индексирующего бота будет повержена, и он с аппетитом заглотит весь ваш сайт по-новому.

Конечно, в обоих случаях перед реанимацией сайта лучше сразу свести к минимуму все негативные факторы, из-за которых сайт, как вы предполагаете, пострадал. Если есть продажные или нетематические ссылки - лучше их убрать (хотя бы на месяц-другой), также нужно убрать весь дублирующийся контент, свести к минимуму все внешние ссылки и т.д., и т.п. Также не теряйте бдительность, как часто делают многие после возвращения сайта в индекс, ибо, как я уже писал раньше, АГС похож на вирус: раз подпав под этот фильтр, даже после временной победы, почти наверняка последуют ремиссии, и если ничего не делать (как я рекомендую выше), скорее всего, после нескольких циклов агонии всё закончится окончательным баном сайта.

Отдельно хочу сказать про взаимодействие с самим "Яндексом". Если вы абсолютно уверены, что пострадали невинно, следует сразу написать Платону Щукину, - то ли человеку, то ли роботу из "Яндекса": сделать это можно из раздела обратной связи "Яндекса" (feedback.yandex.ru/?from=webmaster) или написав сразу на его почтовый адрес: addurl@yandex-team.ru. Ответ последует, как правило, через пару дней, но чаще всего это будет стандартная отписка, типа "работайте, улучшайте, стремитесь - и всё у вас получится". Нужно понимать, что такая немногословность и неконкретность - вынужденная мера. Никто и никогда в суппорте "Яндекса" не даст вам четкого ответа, из-за чего вы были исключены из индекса (если только вы не будете уж совсем вопиюще нарушать их лицензию на пользование поисковой машиной), т.к. алгоритмы работы поискового бота и факторы, влияющие на ранжирование страниц, являются тайной за семью печатями, именно поэтому ответы и советы "Яндекса" в таких случаях, как правило, очень обтекаемы и абстрактны. Отсюда - минимум пользы от них. Лично я считаю, что поскольку так уж повелось, что все решения в "Яндексе" всё равно уже давно принимают роботы, то проще и дальновидней всё-таки стараться понравиться именно им, хотя порой это и кажется очень сложной задачей для новичка при раскрутке сайта (см. мою прошлую статью). В среднем, фильтры "Яндекса" банят от 100 до 1000 сайтов в день, так что ждать какой-то оперативной и вдумчивой реакции или помощи именно на ваш случай - это очень оптимистичная установка.

В заключение хочу сказать, что со стороны веб-мастеров и хозяев сайтов, алгоритмы и логика работы поисковых машин порой кажутся загадочными или, наоборот, очень ясными и логичными, но в обоих случаях почти каждый веб-мастер старается умышленно подстроить свой сайт под своё понимание этих алгоритмов. Чтобы хоть чуточку (или даже очень даже не чуточку, в зависимости от аппетитов и возможностей) поднять свой сайт выше в серпе поиска, дать ему больше шансов в этом вечно конкурирующем мире. Основная задача же поисковых машин, наоборот, с помощью своих многочисленных алгоритмов беспристрастно оценить и максимально взвешенно отранжировать сайт. Именно в последние годы это самое вмешательство в ранжирование сайтов веб-мастерами стало настолько массовым и очевидным (через биржи ссылок, через создание идеально оптимизированного по ключевым словам наполнения сайтов и т.д.), что сейчас в поиске очень четко выделилась потребность создания алгоритмов выявления и противодействия именно таким вмешательствам и искусственным оптимизациям сайтов. Именно вся эта перманентная, только нарастающая из года в год возня одной группы людей по созданию идеальных, с точки зрения машин сайтов, и другой группы людей, которая, в свою очередь, пытается бороться с этим с помощью всё новых и новых фильтров, - и называется поисковой оптимизацией. Техническая изощренность (с обеих сторон) этой диалектической борьбы, а также нарастание противостояния на фронтах приводит к тому, что в случае с "Яндексом" под раздачу уже начинают попадать совсем обычные, абсолютно нормальные и даже весьма известные сайты. Безусловно, проблема поискового спама существует и она весьма актуальна, и с ней нужно активно бороться, но выскажу своё субъективное мнение, что Google справляется с этой задачей не в пример лучше, чем это получается у "Яндекса".

Заканчивая, хочу пожелать вам, что, зная те основы, о которых удалось рассказать в этой небольшой вводной статье, вы сможете хоть отчасти обезопасить свои веб-сайты перед негативной стороной поисковых машин. Самый главный и ценный совет, который можно дать любому проекту в Интернете, - стремиться создавать реально полезные людям сайты, наполнять их качественным и уникальным контентом, и тогда внимание и благодарность людей будет самой надежной страховкой ваших проектов от любых самых агрессивных ботов, обитающих в недрах Рунета.

Игорь САВЧУК

Версия для печатиВерсия для печати

Номер: 

20 за 2010 год

Рубрика: 

Internet
Заметили ошибку? Выделите ее мышкой и нажмите Ctrl+Enter!