Новости

  • 21Янв2009

    В поисковых системах, как источниках посетителей нас больше всего интересуют две вещи…

    … — реклама (поскольку поисковая система имеет огромный охват аудитории) и нахождение нашего сайта как можно выше к первой строчке в результатах поиска по интересующим нас запросам (поскольку пользователь всё-таки приходит на поисковик, чтобы что-нибудь найти, а не рекламу посмотреть).


    И если первое для них — основной источник дохода, а поисковые системы, как и другие сайты информационной направленности, зарабатывают больше на рекламе, чем на других услугах, то второе — источник собственно существования поисковика. И они вынуждены бороться за то, чтобы посетитель как можно быстрее находил искомое — сайты с интересующей его информацией. Для сайта же, человек, нашедший его в поиске — идеальный целевой посетитель, потому что он нашёл этот сайт именно в тот момент, когда ему требовалось именно то, что есть на этом сайте.
    Оптимизация и оптимизаторы.

    И раз уж есть источник целевых посетителей, конечно, многие хотят использовать его в своих целях. То есть попасть в так называемый топ — первую страницу поисковой выдачи по нужным запросам. Поисковая машина — не думает, это робот, который работает по определённой программе, заданной человеком. Эта программа призвана отсеивать сайты, которые не относятся к запросу и выбирать из оставшихся те, которые подходят, по её мнению, для того, чтобы показать их пользователю. Причём выше показывать те, которые больше соответствуют запросу.


    Но, как и всегда, то, что один человек придумал, другой может обойти. Так появилась новая отрасль знаний в интернете — поисковая оптимизация (SEO — Search Engine Optimization), и новая профессия — оптимизатор. Если очень сильно обобщить, для краткости, то оптимизаторы — это люди, которые занимаются тем, что выводят сайты как можно ближе к первым местам в результатах поиска. То есть выполняют некие действия, которые позволяют заставить поискового робота считать, что именно этот сайт — достоин быть на первой странице выдачи поисковых результатов. Сделать это можно двумя способами-либо «уговорить», либо «обмануть». Так оптимизаторы разделились на «белых» и «чёрных».


    Поисковики по-разному относятся к белой и чёрной оптимизации. С «белыми» оптимизаторами они сотрудничают — никто не против конструктивного диалога — и декларируют своё мнение о «правильных» сайтах. А с «чёрными» — борются всеми доступными методами — кому захочется, чтобы его обманывали?


    Самое интересное в том, что никто кроме разработчиков поисковика, не знает в точности, как он определяет, какие сайты хуже, а какие — лучше; какие должны появляться выше, а какие — вообще отсеиваться. Оптимизаторы выясняют это различными путями — эксперименты, обмен опытом, анализ конкурентов. Reverse Engineering в-общем: о)


    «Белые» оптимизаторы на основе полученных данных меняют сайт к лучшему, так, что поисковый алгоритм меняет своё мнение и начинает размещать сайт ближе к первым местам. Это достаточно трудоёмкий процесс, учитывающий огромное количество факторов, как внутренних, так и внешних, который под силу только высококлассным аналитикам, имеющим большой опыт.


    Но есть и обходной путь — путь «чёрных» оптимизаторов. Они используют те факторы, которые более всего подвержены влиянию со стороны и которые проще изменять. Тем самым они сбивают с толку поисковые системы, засоряя результаты поиска, но добиваясь относительно быстрых результатов.
    Белые начинают и выигрывают.

    Будь всё так просто, можно было бы закрывать поисковые системы и снова вручную просеивать тысячи сайтов в поисках нужной информации. Но аналитики и программисты поисковых систем постоянно борются со «спамом», создаваемым чёрной оптимизацией.


    Они отслеживают методы, которыми пользуются обманщики, и принимают меры — изменяют соответствующим образом алгоритмы ранжирования (сортировки результатов поиска), отслеживают и блокируют сайты, продвигаемые «чёрными» методами. В результате появляется бесконечный эволюционный процесс, в котором выживают только сильные — в данном случае, те, кто использует тот подход, который не вызывает противоречий между оптимизаторами и поисковиками. То есть «легальные», «белые» методы, которые появились раньше, дают хоть и менее заметный во времени, но более продолжительный и стабильный эффект, нежели нарушающие, в-основном, неписанные правила поисковиков «чёрные» методы.


    Для того, чтобы узнать как попасть в первую десятку, надо хотя бы приблизительно понять, как работает поисковая машина. Итак, основные факторы, влияющие на ранжирование во всех современных поисковых системах:

    Содержание сайта.
    Оно должно соответствовать теме, по которой вы хотите видеть свой сайт в топе (здесь в-основном имеются ввиду тексты, поскольку содержание картинок роботы умеют определять лишь по косвенным признакам, хотя правильное размещение картинок тоже имеет свои плюсы).
    Оно должно быть правильно написано с точки зрения поисковых машин. Существует даже отдельная специальность в оптимизации — SEO-копирайтинг. SEO-копирайтер пишет или адаптирует готовые тексты так, чтобы они лучше воспринимались поисковыми машинами. При этом не должны забываться и люди — ведь конечные посетители — они, а не роботы.
    Оно должно быть достаточно объёмным и разнообразным, а ещё лучше — уникальным и постоянно обновляющимся. Поисковики помнят, какое содержание у каждого сайта было во время их последнего посещения, и сравнивают разные сайты между собой. Они в-общем-то логично считают, что пользователю нужно новое и уникальное, а не старое и то, что есть у всех.
    Комплексные факторы «авторитетность сайта» и «вес ссылки» — пара краеугольных камней ранжирования в современных поисковых системах. Эти факторы мало того, что связаны между собой, они ещё учитывают структуру и содержание, а также структуру и многие параметры окружения сайта.
    Помимо этого, многие поисковики стараются мотивировать сайтовладельцев к использованию других своих сервисов — например, отмечается, что для сайтов полезно быть в каталоге Яндекса и участвовать в Rambler Top 100, чтобы улучшить свои позиции в выдаче, или по крайней мере повысить авторитет сайта в этих поисковиках.
    Ссылочное ранжирование

    Здесь стоит остановиться подробнее.

    Если бы не придумали «вес ссылки» и «авторитетность сайта», то любой мог бы просто скопировать информацию с сайта, который находится на первой строчке поиска, и таким образом вывести свой сайт на первое место. Поэтому у поисковиков возникла необходимость как-то различать, который сайт важнее для пользователей.


    Первым появился фактор авторитетности сайта, который ещё иногда называют цитируемостью. Разные поисковики по-разному его определяют и формулируют, но суть остаётся одна и та же — если другие сайты больше ссылаются на сайт, А (например, указывая его как источник информации или как-нибудь иначе), чем на сайт Б, то авторитет сайта, А — выше.


    Цитируемость сайтов тут же стали «накручивать», создавая множество простейших полупустых, неинформативных, неинтересных пользователям сайтов. Стало понятно, что ссылки с разных сайтов необходимо как-то различать. Так появился сначала простой, а теперь уже совсем нетривиальный, комплексный фактор веса ссылки.


    Текущие реализации фактора веса ссылки учитывают множество нюансов, таких например как:
    авторитетность сайта, который ссылается,
    расположение страницы, на которой эта ссылка расположена в структуре сайта,
    текст ссылки,
    положение ссылки на странице — в тексте или в навигационном блоке, в начале или в конце,
    окружающие ссылку слова,

    и много других факторов, часть из которых известны и оптимизаторам, а часть — только разработчикам поисковика. И хотя значением цитируемости каждого сайта поисковики делятся, значение веса определённой ссылки — величина динамическая для каждого отдельного поискового запроса, и наверное даже разработчики поисковиков не имеют готовых средств, позволяющих заранее вычислить, какой вес будет у той или иной ссылки.


    Стоит отметить, что чем чаще у поисковика что-то спрашивают, тем, как правило, больше конкуренция за первые места в выдаче по этим запросам. Соответственно, и поднять сайт по этим запросам сложнее. Так запросы условно разделили на высокочастотные, среднечастотные и низкочастотные. И если для большинства низкочастотных запросов достаточно просто привести в порядок сайт — поработать с содержанием, подкорректировать структуру; то для средне- и тем более высокочастотных запросов не обойтись без дополнительных ссылок, повышающих вес сайта в глазах поисковой машины.
    Откуда берутся ссылки?

    Понятно, что самим им взяться неоткуда — ссылки ставят редакторы других сайтов. Раньше ссылки ставили на интересные сайты по теме, на источники — это конечно же осталось и сейчас. Но с развитием ссылочного ранжирования всё большую популярность набирали явления обмена ссылками и регистрация в каталогах.


    Обмен ссылками сначала производился на простой основе «ты-мне, я-тебе». Ну то есть редакторы двух сайтов похожей тематики ставили взаимные ссылки на свои сайты. Разработчики поисковиков это вычислили и стали занижать вес у таких ссылок. Тогда в ход пошли неперекрёстные ссылки. Сайт, А ссылается на сайт Б, Б — на В, а В — на, А; ну или более сложные схемы. Это конечно гораздо сложнее отследить само по себе, а тем более то, что это сделано для повышения позиций, однако процесс это трудоёмкий и конечно его тут же попытались автоматизировать. Так появились линкообменные сети (link — ссылка). В результате борьбы с этими сетями, поисковики (а больше всех — Яндекс) сотнями и тысячами блокировали сайты, сводя на «нет» все труды оптимизаторов.


    А каталоги ссылок пришли из тех времён, когда поисковиков ещё не было, и искать приходилось по простым спискам сайтов. С появлением ссылочного ранжирования они обрели второе дыхание, но уже не как полезный инструмент для людей, а больше как средство влияния на роботов. Стоит отметить, что не все каталоги одинаково полезны, и хотя «вредных» среди них пока не замечено, ссылка из какого-нибудь определённого каталога может никак не влиять на продвижение сайта.


    Дальнейшие действия обоих сторон были аналогичны уже описанным — оптимизаторы придумывали новые методы обхода фильтров, разработчики — вычисляли эти методы и меняли алгоритмы. Эта борьба продолжается и по сей день, и конца-края ей пока не видно.


    Таким образом, оптимизаторы могут лишь на основе большого опыта и лишь приблизительно предсказать результат своих действий в более-менее отдалённой перспективе. И конечно не могут дать долговременных гарантий.


    Сама же работа оптимизаторов базируется на следующих вещах:
    Создание семантического ядра — взаимосвязанный взвешенный по частоте набор слов и фраз, которые относятся к тематике продвигаемого сайта.
    Настройка структуры и содержания сайта согласно семантическому ядру.
    Поиск подходящих сайтов и размещение на них ссылок на продвигаемый сайт.


    В этом плане поисковики более-менее определились со своей позицией, что считать «чёрными» методами оптимизации, а что — «белыми». К чёрным относят те, которые не улучшают сайт, не увеличивают его пользу для посетителей, а так же те, которые засоряют результаты поиска и увеличивают нагрузку на поисковик. В-основном это легко автоматизируемые методы. К белым же относят то, что делает сайт полезнее посетителям, позволяет поисковикам точнее определять тему сайта и ранжировать его содержимое.


    Так что же, нет никаких методов гарантированно оказаться на первой странице результатов поиска? Конечно же есть — только на постоянно платной основе. Материал о контекстной рекламе в поисковиках, о взаимодействии рекламы и оптимизации, как и когда лучше пользоваться тем или иным методом — переносится на следующий номер Штурмана.


    Эта статья, конечно же отражает истоки и методы поисковой оптимизации только в самых общих чертах — этот пласт интернета очень интересен, непрост и неоднозначен, но надеюсь, поможет немного разобраться в сути вопроса и понять, за что стоит платить деньги оптимизаторам.