Увеличиваем трафик...

Анализируя статистику обращений пользователей к моей странице (rusvodka.i.am), я обнаружил, что около половины из них находят ее с помощью поисковых серверов. Вот я и решил поделиться опытом "правильного индексирования", то есть индексирования, при котором содержание сайта релевантно запросу, и это содержание "интересно" для поисковых машин. Под термином "интересно" следует понимать, что Ваш сайт в ответе поисковой машины выводится в худшем случае в третьем экране.

Не секрет, что на серверах некоторых солидных компаний в теге "META" встречаются слова из ненормативной лексики. "Зачем им это?" - спросите Вы. Ларчик открывается просто - анализируя списки популярных слов, с которыми пользователи обращаются к поисковым системам, разработчики серверов принимают решения вставлять такие слова в тег "META", тем самым пытаясь увеличить количество посетителей.

Я предлагаю Вам более честные и эффективные способы увеличения трафика Вашей странички с помощью обращений от поисковых машин.

Теперь к делу.

Начнем с "правильного индексирования". Ваша страничка может быть проиндексирована в двух случаях: либо робот поисковой машины сам добирается до Вашего сайта, либо Вы сами указываете сайт в соответствующем интерфейсе (AddUrl), который наличествует в любой уважающей себя поисковой машине. Первый вариант страдает затянутостью (пока еще робот доберется, может, через день, может, через год: Internet-то большой). Второй - требует затратить некоторое время.

 

Чтобы сайт был успешно проиндексирован, необходимо следующее:

  • На сайте должет быть хоть какой-нибудь текст. Картинки и текст на них поисковые машины игнорируют. Правда, можно продублировать текст в атрибуте <alt> тега <img>.
  • В каждом документе сайта ОБЯЗАТЕЛЬНО должны присутствовать осмысленный заголовок (title), ключевые слова (keywords) и краткое описание (description). Поисковые машины далеко не полнотекстовые, как об этом любят писать.
  • Изготовление файла robots.txt. О том, как изготовить этот файл, можно почитать на web-странице www. citforum.ru. Его изготовление я бы рекомендовал обладателям доменных имен.
  • Прописка вручную в каждой интересующей Вас поисковой машине и последующий контроль индексирования Вашего сайта.

Допустим, что Вы выполнили все мои рекомендации, а ссылка на Вашу страницу в ответе поисковой машины появилась в 20 окне. Я не уверен, что у кого-либо хватит терпения добраться до этого окна, а затем обратиться к Вашей странице.

Иначе говоря, просто указать страницу в AddURL недостаточно. Необходимо заранее подготовить документ так, чтобы на соответствующие запросы к поисковой машине в ее ответе на запрос ссылка на Ваш документ находилась если не первой, то хотя бы в первой десятке ссылок (а лучше, если в этой десятке было несколько ссылок на Ваши документы:-). Что значит "подготовить"? Это чисто технический вопрос, ничего сверхъестественного. Просто в секции HEAD каждого документа Вашего сайта стоит указать "говорящий" Title, KeyWords, Description и Robots.

Title: заголовок документа. Хороший осмысленный заголовок может заставить пользователя из множества других выбрать именно Вашу ссылку. Представьте себе, что выбран режим поиска по заголовкам без описания каждого документа.

KeyWords: ключевые слова. Именно содержимое этого контейнера влияет на релевантность документа запросу поиска.

<meta name=keywords content="разделенный запятыми список ключевых слов и устойчивых словосочетаний">

Несмотря на то, что поисковые машины не совсем полнотекстовые, содержимое этого контейнера точно попадет в их индекс. Теперь советы по заполнению этого поля:

  • в поле content не должно быть знаков конца строки, кавычек и других специальных символов, регистр символов роли не играет;
  • не рекомендуется повторять одни и те же ключевые слова по нескольку раз, это может быть воспринято как spam, и страница рискует быть удаленной из индекса поисковой машины. Рекомендую вставлять фразы - это повысит Ваши шансы попасть в самое начало списка, выданного поисковым сервером (в случае совпадения с той, что вводит пользователь);
  • не стоит делать одинаковые keywords для разных страниц Вашего сайта. Это, конечно, проще, но содержимое самих документов различное;
  • если строка в content слишком длинная, не возбраняется сделать еще несколько аналогичных конструкций;
  • используйте в описании терминов как можно больше синонимов;
  • вообще говоря, общий объем ключевых слов одного документа может достигать до 50% объема этого документа;

Description: краткое описание документа. Довольно полезный контейнер, его содержимое используется как краткое описание релевантных документов в ответе современных поисковых машин. Если этого контейнера нет, то выдается некоторое количество строк с начала документа. Соответственно, не редкая картина, когда в самом начале документа расположен JavaScript, и вместо нормального описания выдается абракадабра в виде куска скрипта.

<meta name=description content="краткая аннотация документа">

  • в поле content не должно быть знаков конца строки, кавычек и других специальных символов;
  • желательно, чтобы здесь была осмысленная аннотация документа из пары-тройки человеческих предложений, чтобы пользователь поисковой машины, помимо заголовка, смог понять смысл документа.

Длина содержимого тегов META "description" не должна превышать 200 символов, а "keywords" - 1000 символов. Это связано с тем, что поисковые серверы, как правило, используют эти величины при индексировании информации на Вашем сайте. Можно получить отрицательный результат, если поисковые машины отбросят часть описания, превышающего установленные нормы, в результате чего в каталог попадет не вся желаемая информация.

А теперь немного о том, каким образом можно управлять действиями поисковых машин. Обладателям доменных имен советую написать файл robots.txt и положить его в корень Вашего сервера. Этот файл популярно объясняет роботу поисковой машины, что надо индексировать, а что не стоит. Этот совет следует отнести прежде всего к обладателям доменных имен.

Второе действие: снабдить страницы сайта МЕТА-тегами Robots. Это более гибкое средство управления индексацией, чем robots.txt. В частности, в этом теге можно предписать роботу поисковой машины не уходить по ссылкам на чужие серверы, например, в документах со списками ссылок. Подробности работы этого тега Вы найдете в документации языка HTML.

И, наконец, о том, как проследить текущее состояние Вашего документа в Индексе. Рассмотрим на примере двух наиболее популярные машин.

Alta Vista. В этой поисковой машине проверку статуса URL осуществить довольно просто - достаточно набрать в строке запроса:

url: адрес сервера. Будут выданы все проиндексированные страницы сервера.

Rambler. В этой поисковой машине статус URL можно проверить следующим образом. Наберите

$URL: имя сервера в обычном поле запроса.

Если имеете вопросы или предложения, пишите.

Андрей СКРЫГАН,
sk_and@mail.ru,
"Электронная коммерция",
pahan.w3.to,
"Похмелье и водка",
rusvodka.i.am

Версия для печатиВерсия для печати

Номер: 

36 за 1999 год

Рубрика: 

Internet
Заметили ошибку? Выделите ее мышкой и нажмите Ctrl+Enter!