SEO: не просто, но и не сложно

В сложных профессиональных дисциплинах всегда есть основополагающие постулаты, которые нужно усвоить раз и навсегда. Как, допустим, в биржевой игре, изобилующей тонкостями, коим посвящены целые тома. Но, начиная игру, надо помнить, что в основе она представляет собой лотерею, с небольшими шансами на выигрыш.

Поисковое продвижение - тоже довольно сложное направление в веб, которое, тем не менее, строится на довольно простых правилах. Их можно обходить, применять как-то по своему, создавать с их помощью собственные технологии продвижения. Но забывать ни к чему. Ведь это - базис, на котором построено всё остальное.


Предыстория

Прежде чем начать говорить о технологиях продвижения сайтов, вкратце расскажу о том, как я сам освоил основы SEO. В первую очередь для того, чтобы вы поняли, мой материал - не рерайт, а часть (пусть и небольшая) моей собственной жизни.

Так уж вышло, что много лет назад (ещё в 2004 году), мне доверили создание и ведение сайта одной из довольно крупных ведомственных газет. Я, естественно, не был ни веб-мастером, ни программистом (а в продвижении сайтов тогда вообще мало кто разбирался), но горел энтузиазмом.

Несколько месяцев я не вылезал из-за компьютера, нашёл подходящую CMS (RunCMS, о ней сейчас уже мало кто помнит). Разобравшись наскоро в основах веб-дизайна, я модифицировал (методом "научного тыка") шаблон CMS-ки, подогнал его под нужный формат, разместил логотип сайта и с помощью программеров сообщества RunCMS добавил необходимые модули (рубрикатор статей, фотогалерею, контакты).

Для меня в то время это было нечто невероятное, поскольку ещё за год до новой работы я с трудом управлялся с Microsoft Word. А здесь пришлось освоить и графические программы и веб-вёрстку с HTML. Кроме того, я научился работать с PHPMyadmin, создавать базы данных, пересылать файлы удалённо, через FTP-доступ.

Помучавшись с месяц, я установил и настроил сайт, начал размещать на нём статьи, фотографии. Но надо мной уже сгущались тучи.

В газете появился новый редактор, сыну которого - будущему веб-дизайнеру - необходимо было выполнить практическую часть дипломной работы. Он удалил мой сайт и поставил вместо него пару своих, красиво оформленных под дизайн газеты HTML-страничек. Весь мой многомесячный труд пропал даром. Естественно, всё это было сделано втайне, когда помешать я не мог. Не буду описывать то состояние, в котором я был. Обида - это самое малое, что пришлось прочувствовать на своей, так сказать, "шкуре".

К счастью, дела у меня, в общем-то, шли неплохо, я много работал, добился кое-каких успехов и со временем забыл эту грязную историю. Я простодушно считал, что знания, добытые мной, никогда мне больше не пригодятся. И ошибся. Спустя годы мне длительное время пришлось вести довольно большой российский автомобильный сайт. Вот тут-то все мои навыки и умения пришлись к месту. Вдобавок, я заработал неплохие деньги, на которые обустроил квартиру и дачу.

А тот злосчастный руководитель, который так обошёлся со мной, через несколько лет сам был уволен (теперь он трудится где-то в другом месте). Как-то недавно мы даже встретились с ним, и я высказал ему свою обиду. Но, думаю, он так ничего и не понял. Не бить же его за это, право...


Путь SEO

Ну а что же с SEO, спросит пытливый читатель?

Тут всё очень просто. Как-то, через пару лет после описанных выше событий, крупный отечественный хостер, в целях рекламы, предложил IT-журналистам попробовать его виртуальный хостинг. Достался аккаунт и мне.

К этому времени в сети уж было достаточно качественных и мощных CMS-движков. Я выбрал неплохую систему управления контентом (многие веб-мастера знакомы с надёжной, как маузер, быстрой, нересурсоёмкой и устойчивой к взлому CMS Datalife Engine), и смог всецело сосредоточиться на изучении тонкостей продвижения сайта. Естественно, это было просто увлечение, возникшее по мотивам моей потерянной работы. Но я посвящал ему довольно много времени. А поскольку интернет в то время был ещё довольно дорогим, я нередко пользовался им в офисах газет и телеканала, где работал. Оставался, после того, как все уходили, и начинал "шаманить".

Конечно, как новичок, я сразу наступил на все "грабли", которые только смог найти в SEO. Во-первых, я начал размещать на сайте копипаст с других ресурсов. А чтобы "раскрутиться" стал прописывать ссылки на свой сайт в различных каталогах, списки которых отыскал в недрах интернета. Через месяц я, к немалому своему удивлению обнаружил, что сайт уже нельзя найти в "Яндексе". Его там просто не было, несмотря на то, что неделей ранее я видел его в выдаче и позиции моего ресурса постоянно росли.

Уже и не помню, кто посоветовал мне обратиться к Платону ("Платон Щукин" - псевдоним, которым пользуются специалисты техподдержки Яндекса). Мне ответили. Кто тогда был Платоном, я не знаю, но этот человек серьёзно мне помог и просветил (совершенно бесплатно). Вообще, Яндекс в те годы был гораздо более доброжелателен к пользователям и веб-мастерам.

Платон посмотрел мой сайт и заявил, что я должен удалить весь неуникальный контент и избавиться от перекрёстного линкования внутренних страниц в текстах. Отметил, что ставить линки, конечно, можно, но по делу. Они должны вести к полезной в контексте материала информации.

Из других замечаний он отметил неоптимизированные изображения, высокий "вес" страниц (рекомендовано не более 100 килобайт), отсутствие мета-тегов страниц и много чего ещё "по мелочи".

Контент, я, конечно, удалил, но сайт мой снова попал в выдачу поисковика далеко не сразу. Как объяснил Платон, нужно было дождаться повторного обхода поисковыми роботами всех проиндексированных Яндексом сайтов Рунета. После того, как поисковик прогнал полученные им в ходе общего обхода данные и пересчитал положение сайтов, мой ресурс вновь появился в выдаче. Это произошло примерно через месяц.

Естественно, что уникальный контент в необходимом объёме я быстро создать не мог. И поступил по-другому. Поставил на сайт годовой PDF-архив одного бумажного издания, которого не было в интернете (тогда ещё не все газеты имели собственные сайты). PDF-файлы в то время поисковики ещё не индексировали как следует, и можно было со спокойной душой переносить всю информацию в интернет, не боясь быть забаненным.

Платон, посмотрел обновлённый сайт, одобрил мои старания (про контент я, конечно, смолчал), сделав ещё буквально несколько замечаний. Стоит сказать, что спустя месяц-два, сайт мой довольно быстро вышел на хорошие позиции в Google и Яндексе. У него были довольно высокие ТИц и Page Rank. Скажу без бахвальства, Page Rank 5 и сегодня получить не так просто. В то время Google был поменьше и занимал значительно меньшую долю рынка в Рунете, чем сейчас, но уже активно действовал в русскоязычном сегменте сети, и сбрасывать со счетов его не следовало.

Остаётся добавить, что хороших позиций в поиске я смог добиться благодаря тому, что усвоил и применил на практике основные официальные правила продвижения или "белой" оптимизации), не допустив грубых ошибок.


Основы продвижения

Основу продвижения и ранжирования в интернете составляет ряд простых постулатов, которые мне вкратце обрисовал ещё тогда Платон. Первый и самый главный состоит в том, что сайт должен быть наполнен уникальным текстовым контентом, полезным для читателя (это правило до сих пор остаётся важнейшим фактором ранжирования в интернете).

Контент должен регулярно (как можно чаще) обновляться - особенно это касается новостных сайтов. График обновлений фиксируется программами поисковых роботов, которые, соответственно, будут чаще заходить на сайт и индексировать его.

Сайт не должен быть перегружен линками на сторонние ресурсы (в этом случае поисковой алгоритм может занести его в разряд сборников ссылок и выбросить из поиска). Кроме того, любой сторонний линк "отбирает" у сайта небольшую часть его релевантности, а если таких ссылок много, то сайт может существенно опуститься в поиске.

Не стоит переигрывать и с внутренней перелинковкой страниц, поскольку поисковики могут отнести веб-ресурс к категории использующих недобросовестные элементы продвижения и понизить его релевантность (интересно, что многие до сих пор используют недобросовестное перекрёстное линкование, которое, фактически, является манипулированием результатами поиска, считая это вполне законным методом "белого продвижения").

Не стоит перегружать сайт иллюстрациями (это сильно утяжеляет страницы и затрудняет индексацию). Их необходимо оптимизировать для веб (оптимальные размеры - до 100 килобайт). Примерно такими же по размеру (до 100 Кб) должны быть и стандартные странички сайта.

Необходимо разбить ресурс на логичные разделы и снабдить рубрикатором (для облегчения индексации и поиска). Все java-скрипты и подозрительные для поисковых машин ссылки необходимо закрыть специальными тегами, запрещающими индексацию (подробнее об этом - позже).

Естественно, мета-теги каждой страницы должны давать краткую, но исчерпывающую информацию о ней. Заголовок статьи, новости или пресс-релиза должен быть построен так, чтобы отражать содержание текста (всяческих метафор, нечётких сравнений, профессионального, фирменного и жаргонного сленга и проч. лучше избегать).

В начальной части текста (во вступлении) стоит разместить одну-две ключевые фразы (естественно, контекстно обоснованные), также отражающие содержание материала или новости.

В этом случае поисковик, который читает заголовки и отображает начальные фразы текста, покажет пользователям реальную информацию, - именно то, что вы хотите им рассказать. Соответственно, и пользователь по своему запросу получит именно то, что ему нужно. А в противном случае вы столкнётесь с явлением, которые специалисты окрестили "сайтовой слепотой". Т.е., пользователи не будут видеть в поиске нужных им материалов с вашего сайта.

Естественно, пользоваться этими советами нужно, аккуратно, без излишнего усердия, за которое можно попасть "под нож" поискового алгоритма.


Чего не любят поисковики?

Предупреждаю, что данная информация добыта эмпирическим путём, так как в реальности все тонкости работы поисковых алгоритмов засекречены, дабы не допустить недобросовестного продвижения. Тем не менее, всё, о чём я пишу, реально работает, и этому можно найти подтверждение на любом SEO-форуме.

На одном IP не стоит располагать несколько сайтов, особенно если их структура и информационное наполнение схожи (поисковые системы могут заподозрить вас в создании сети сайтов и понизить ранжирование вашего ресурса).

Поисковые системы не любят и активно банят каталоги сайтов и ссылок (так называемые линкофермы). В своё время (лет семь назад) веб-мастера подметили, что размещение ссылок во множестве каталогов поднимает рейтинг сайтов. Это логично, поскольку формула ранжирования как раз и опирается, в том числе, и на количество ссылок на сайт на сторонних ресурсах.

Каталоги ссылок и сайтов были довольно популярны, делились на "белые", со ссылками на качественные сайты и "чёрные" с линками на сателлиты и прочую дребедень. Сейчас любые каталоги, кроме нескольких десятков официально признанных, банят почти сразу, как только они создаются. Банят и понижают рейтинг сайтов, ссылки на которые размещены на страницах подобных ресурсов. Аналогичная мера применяется к сайтам, перенасыщенным сторонними ссылками или напоминающими каталоги.

Аккуратно нужно обращаться с различными RSS-информерами, информационными блоками с других ресурсов. Дело в том, что ближе к середине прошлого десятилетия RSS-информеры были одним из средств продвижения и информационного наполнения совершенно бесполезных сайтов. Веб-мастера создавали пустые странички, на которые ставили информер - и простейший ресурс был готов.

Внутренние блоки, вроде "Похожие статьи" или "Новости по теме" поисковые системы также считают "злом" и априори заносят в разряд подозрительных, поскольку они могут быть элементами недобросовестного манипулирования поиском. Некоторые веб-мастера блоки эти тоже закрывают от индексации.

Поисковые системы не любят дубликаты картинок. И хотя поиск по изображениям, в основном, опирается на повторяющиеся фрагменты описания, размеры, вес и т.д., используется и цифровые сигнатуры картинок. Всё это, в комплексе, позволяет (хотя и не всегда) вычислять дубликаты изображений и снижать релевантность сайтов, на которых они размещены.

Поскольку процедура эта сложная и не всегда даёт точный результат, поисковые системы подозрительно относятся к новым фотохостингам и сайтам, перегруженным графикой, с небольшим объёмом текстовой информации.

Не слишком жалуют поисковые системы вновь создаваемые социальные сервисы. Дело в том, что, как правило, полезной информации там немного. Всё, что видит поисковой алгоритм на главной странице - это одну и ту же форму авторизации и пару заголовков. На какие позиции в поисковике можно рассчитывать, имея столь куцую информационную составляющую?

Кроме того, после прошедшего в конце прошлого десятилетия "бума социальных сетей", когда почти каждый веб-мастер поднимал на своём домене какой-нибудь "сервис знакомств", поисковые системы стали осторожничать при индексации такого рода проектов. Если на них немного посетителей, то такие ресурсы быстро попадают под фильтры, а затем и в бан. Примерно то же происходит с не имеющими трафика "мега-порталами" и прочим аналогичным мусором.


CEO-биржи

Модель работы SEO-бирж основана на принципах определения релевантности сайта поисковыми системами. Чем чаще он упоминается и чем авторитетнее ресурсы, на которых найдены ссылки на него, тем выше позиции сайта в поиске. SEO-биржи, как раз и занимаются перепродажей ссылок на авторитетных сайтах, которые находятся на высоких позициях в поиске.

Было время, когда SEO-биржи позволяли веб-мастерам неплохо зарабатывать. Правда, это время закончилось, году, эдак, в 2010-м. Именно тогда Яндекс начал борьбу с крупнейшей в Рунете ссылочной биржей Sape. Правда, она и сейчас предлагает свои услуги, но уже не так выгодна веб-мастерам и своим создателям. А сайты, которые пользуются её услугами, рискуют угодить в бан. Моё мнение, кстати, подтверждают посты известного SEO-блоггера "Арбайтена".


ТИц, Page Rank или трафик?

ТИц - показатель, который отражает индекс цитирования и авторитетность того или иного сайта с точки зрения поискового сервиса Яндекс. Page Rank - аналогичный показатель Google. Они, безусловно, важны, но всего лишь, как числовые величины для оптимизаторов и веб-мастеров. В первую очередь потому, что каждый поисковик использует ещё несколько сотен различных критериев для определения релевантности сайта. Подробно и популярно можно почитать об этом, например, вот в этой статье "Нью-Йорк Таймс". Не зря опытные веб-мастера презрительно называют ТИц и PR "пузомерками".

Главным же для любого сайта остаётся его трафик, посещаемость. Чем больше у сайта уникальных посетителей, которые не ищут его в поисковиках, а вводят адрес в соответствующей строке браузера или подключаются к нему из закладок, тем меньше этот сайт зависит от поисковых систем. Если посетителей очень много, то разработчики сайта могут допускать ошибки в его оптимизации, размещать на нём большое количество копипаста и т.д. Им практически ничто не угрожает. Ну, кто отнимет у них посетителей, если они приходят, минуя всех остальных интернет-посредников, включая даже поисковые системы? Другое дело, что при правильной оптимизации, число посетителей на таком сайте может возрасти вдвое - за счёт трафика с тех же самых поисковых систем...


Рерайт - "за" и "против"

Этот небольшой раздел немного уведёт нас от основной темы. Но, речь будет идти о всё той же оптимизации - об одном из её инструментов - рерайте. Главная задача информационного (и не только) сайта - поиск интересного и полезного для пользователей контента. Но, здесь очень часто и возникает серьёзная проблема. Редакция сайта может состоять из трёх, четырёх, максимум десяти человек, один из которых - бухгалтер, другой - программист, а ещё двое наполовину менеджеры по рекламе, наполовину - курьеры.

Те же, кто готовит статьи и новости загружены работой, что называется, "по самое не могу". И даже если бы они могли, то не сумели бы ежедневно писать по десять статей на разные темы, про различные события или технологии (если речь идёт, например, об IT). Они просто не смогут быть достаточно компетентны в C++ и одновременно в .NET, в Java и в Ruby, даже будучи "семи пядей во лбу". Они не смогут участвовать одновременно в пяти компьютерных выставках, которые проходят в противоположных частях планеты и не посетят дата центр Google в Гренландии. Просто не смогут.

Но, сайт, тем не менее, придётся наполнять материалами, так как в этом и состоит задача редакции. Ведь читатели хотят видеть статьи и новости. И не только из НАН и компьютерного магазина на углу Калинина и Свердлова, а со всего мира. В ситуации, когда статьи нужны, а копипаст неприемлем, на помощь приходит рерайт. Хороший, качественный, с использованием нескольких источников.

С помощью обычного мозга, клавиатуры и интернета, любую статью, при наличии соответствующих навыков, можно переделать так, что не только Google и Яндекс, но даже сам автор оригинала не сумеет узнать своё творение. К слову, поисковики так и не научились (и не научатся в обозримом будущем) отличать оригинальные статьи от хорошего рерайта. И не использовать его для развития и оптимизации информационного сайта будет даже не ошибкой, а обидным упущением, граничащим с абсурдной некомпетентностью. Конечно, всё хорошо в меру. И всё же, без рерайта сегодня не обойтись...

Эдуард ТРОШИН

Версия для печатиВерсия для печати

Рубрики: 

  • 1
  • 2
  • 3
  • 4
  • 5
Всего голосов: 0
Заметили ошибку? Выделите ее мышкой и нажмите Ctrl+Enter!

Комментарии

Спасибо, Эдуард. Полезный материал.)

Аватар пользователя mike

Хороший слог, приятно читалось. Учитесь, молодёжь!

Аватар пользователя Jin

Дайте координаты недорогого сеошника! Cry