Обратный подбор низкочастотных ключевых слов
15 июля 2010, 00:11, posted by Zhenek | SEO методы, SEO статьи |

В интернете довольно много информации, касательно написания оптимизированного под поисковики контента. Но сегодня мне хочется поговорить об обратной ситуации, когда контент на сайте уже есть, но он не оптимизирован под какие либо . Т.е. это просто тематический текст, или даже пользовательский контент, вроде комментариев в блогах или постов на форуме.

Как правило, такой контент тяжело оптимизировать (особенно если его много), это крайне трудозатратная и неблагодарная работа. Но есть способ получить более чем ощутимый прирост низкочастотного трафика на этот контент, лично мне, порой, удавалось поднять траф более чем в два раза, для этого я и использую нижеприведенную военную хитрость. Похожий механизм, кстати, применяют автоматические системы продвижения, вроде сеопульта, но, в силу налагаемых ограничений (и тормозов), эффективно использовать их (на нормальных объемах) у меня не получилось. Да и не наш это метод, переплачивать непонятно за что.

Идея состоит в подборе ключевых слов для каждой из страниц сайта таким образом, чтобы эта страница действительно была релевантна этим ключевым словам. Для каждого ключевого слова будет производиться поиск по имеющемуся контенту, в результате чего будет выбрана страничка, которая максимально релевантна данному ключевику. В результате применения описываемой ниже идеи, образуется список ссылок на страницы сайта, в анкоре которых релевантные им ключевые слова. как примененять полученные ссылки каждый решает сам, я например тысячами скупаю копеечные размещения в sape.

Так вот, чтобы сделать это, нам понадобятся ключевые слова, той же тематики, что и сайт, и некий поисковый механизм для нахождения релевантных соответствий. Про то, где взять ключевики сказано уже немало, способов много, выбирайте наиболее подходящий вам. Можете напарсить, можете купить, но главное, постарайтесь достать как можно больше, и именно низко- или среднечастотные.

А в качестве поискового механизма я применяю бесплатную программу «Яндекс.Сервер», которую можно скачать вот тут. Я использую Win-версию для домашнего компа, и всем доволен, если вы нет, то выбирайте подходящую для вашей ОСи (домашней или серверной), главное запомните, что парсер в итоге, лучше будет запускать на ней же.

Я.С вполне можно использовать как для русского языка, так и для английского. Но если захотите, то можете забить и состряпать, к примеру, кастомный поиск по вашему сайту от самого гугла, но тут уже я вам не советчик, для парсинга видимо понадобятся прокси, т.к. запросов, как правило, очень много.

Устанавливается Я.С парой кликов, не будем подробно останавливаться на этом, займемся дальнейшей настройкой. Основной конфигурационный файл называется yandex.cfg и лежит основном каталоге программы (у меня на Win7 — c:\Program Files (x86)\Yandex\Server\yandex.cfg). Там же, в подкаталоге data, лежит файл yandex-server-manual.pdf, содержащий всю документацию по программе, куда можете сунуться, если что-то пойдет не так.

Программа состоит из двух важнейших компонентов, это индексатор и, собственно, сервер. Давайте настроим индексатор для обработки страниц нашего сайта. Открываем конфиг и видим там простейшую xml-структуру, в которой за коллекции документов отвечают парные теги Collection, а за источники данных парные теги DataSrc. Источники данных описываются внутри тегов коллекций, и тех, и других, может быть несколько.

Для простоты понимания, считайте, что коллекция, это тот самый «индекс» поисковой системы, в который так желают попасть все вебмастера. К примеру, в конфиге уже есть одна коллекция, с одним источником данных, для индексации pdf-документов. Источники данных, это представленная в том или ином виде информация, по которой должен осуществляться поиск. Это могут быть веб-сайты, директории с файлами (pdf, txt, doc и пр.), БД и т.д. Не будем углубляться в подробности, сейчас это не важно, в дальнейшем можете сами почитать мануал и найти всё, что вам нужно (например, можете запретить индексировать некоторые маски урлов, которых почему-либо нету в robots.txt, или наоборот, разрешить только определенные). А сейчас поправим конфиг для индексации нашего сайта.

Замените расположенную в конфиге тестовую коллекцию:

<Collection>
<DataSrc id=»webds»>
Config -w www.domain.ru
</DataSrc>
</Collection>

Замените «www.domain.ru» на свой и можно запускать Я.С, для этого воспользуйтесь ярлыком на рабочем столе, или файлом admin.bat, всё в той же директории программы. После этого должно открыться окно браузера с адресом «http://localhost:17000/admin»:

Легко догадаться, что это админка, из которой можно управлять работой индексатора и сервера, сейчас, как мы видим, отключены оба. Для начала стартуем индексатор, жмакнув серую кнопку «i»:

Внимание: как и любой поисковый краулер, наш паук загрузит для обработки все найденные страницы сайта, начиная с корня. Если страниц очень много, то это может сожрать немало трафика и занять довольно долгое время. Поэтому, когда страниц дофига, имеет смысл ставить Я.С прямо на тот же сервер, где располагается сайт. Либо можно скопировать весь сайт (или только его БД) к себе на локальную машину, у Я.С есть все средства для работы с БД, курите мануал, там всё просто.

Когда индексатор закончит работу (кнопочка снова будет серой), можете запускать сервер, нажав кнопку «s»:

Теперь кликнув ссылку «Безымянная коллекция» можно увидеть строку поиска, похожую на настоящую яндексовскую. Поиграйтесь с ней, всё должно искаться. На этом подготовительный этап завершен, можно переходить непосредственно к подбору, который реализуется посредством парсинга выдачи нашего сервера. Оптимальнее всего парсить Хрефером, т.е. он многопоточный, но если его нету, то можно воспользоваться вот этим php-скриптом, работает он медленно, но работает. В один каталог с ним нужно положить файл keywords.txt с ключевыми словами. На выходе будет файл result.txt со ссылками, в скрипте можно выбрать (строки 25-27), в каком формате их отдавать (просто линк, html или bb-код), выбирайте нужный. Всё в utf-8 кодировке. Для запуска на домашнем компе можете заюзать Denwer.

Желаю успехов! 🙂

Автор статьи: hiend.

21 комментарий
21 комментарий
  • комментарий by Tweets that mention Обратный подбор низкочастотных ключевых слов | RX-Partners Blog -- Topsy.com - 15.07.2010, 01:09

    […] This post was mentioned on Twitter by t0ster_feed, RXPblog.com. RXPblog.com said: Обратный подбор низкочастотных ключевых слов http://bit.ly/8YXBs7 […]

  • комментарий by Hichnii - 15.07.2010, 07:17

    Мож не совсем вкурил алгоритм, но не легче просто из статистики вытаскивать нч, которая уже в выдаче и ее продвигать, сдается мне что можно никогда не найти кеи, по которым уже идет трафик нч, таким образом усложнять себе работу по продвижению новых нч кеев

  • комментарий by grut - 15.07.2010, 07:43

    Тупо набор умных слов. В начале абзаца автор говорит «Идея состоит в подборе ключевых слов для каждой из страниц сайта…» — ага, думаю, есть список страниц, для них нужно подобрать релевантные ключевики. И тут же «Для каждого ключевого слова будет производиться поиск по имеющемуся контенту» — так что, уже есть список ключевых слов? Сумбур какой-то.

    В общем, смысл статьи сводится к тому, что автор поднимает на своем компе поисковик, чтоб распарсить один сайт. Правильно я понимаю?

  • комментарий by Heromant - 15.07.2010, 10:54

    Если яндекс не индексирует сайт проиндексируем его сами. 😀
    Hichnii — если я правильно понял, то суть в том чтобы найти страницы сайта релевантные этим самым ключам… не будешь же морду прокачивать 🙂

  • комментарий by hichnii - 15.07.2010, 11:23

    Heromant, я как то думал сначала всегда ключи подбираются а потом для них страницы стругаются, если сайт под SEO затачивается

  • комментарий by Heromant - 15.07.2010, 11:30

    hichnii — ТС же написал: «это просто тематический текст, или даже пользовательский контент, вроде комментариев в блогах или постов на форуме.» …
    Да даже блог… простой блог, не будешь же писать тексты под ключи, а трафика хочется 🙂 вот тогда по методу ТС и получается.

  • комментарий by Max1mus - 15.07.2010, 16:32

    А не проще ли вообще воспользоваться Traffic Web и надергать кеев, которые уже дают траф?

  • комментарий by Abiron - 15.07.2010, 23:55

    Можно в футер кидать нч запросы. Тоже эффект должно давать.

  • комментарий by Max1mus - 16.07.2010, 00:20

    Abiron, да это детство. Так уже никто не делает 🙂

  • комментарий by hiend - 16.07.2010, 13:51

    Всем привет, прошу извинить, если немного непонятно написано, видимо в этот раз вдохновение меня немного покинуло, постараюсь исправиться в дальнейшем.

    Что касается статьи, то она, в принципе, хоть и не содержит ничего мега-революционного, но при этом крайне полезна в оптимизаторской практике, когда уже есть ключевики и есть контент, но мало трафа.

    По-сути, это даже не спаленная тема, а описание, в целом, не очевидного способа увеличения НЧ трафика. Найти много-много кеев, как правило, не проблема, а вот оптимизировать под них массу уже написанного контента — очень трудно. Для этого я и применяю этот метод, особенно он эффективен с пользовательским контентом, вроде форумов.

    Проделывать это всё довольно трудно, но результат получаемый в итоге, меня всегда очень радует, даже на совсем молодых сайтах. С баном за это дело, кстати, пока не сталкивался.

  • комментарий by Jump - 17.07.2010, 11:21

    Если писать в футере ключевые слова списком, не будет ли санкций со стороны поисковиков?

  • комментарий by tumbr - 18.07.2010, 10:36

    Спасибо, как раз оптимизирую странички под НЧ-запросы. Поисковый сервер на домашней машинке — по меньшей мере экзотичный способ решения этой задачи.

  • комментарий by Abiron - 18.07.2010, 15:59

    Хм, многие крупные сайты кидают в футер линки на себя с нужными подписями в виде запросов. Это проверенный метод. Только кидать надо 2-3 в случайной ротации, а не весь список в 3 сотни. Это просто небольшая внутренняя оптимизация.
    Никаких санкций от поисковиков. Это та же ссылка что в меню или ссылки на другую запись в блоге. Вполне рабочий метод.
    Страницы перелицовывать тоже детство?

    У меня все сайты с нч в футере. Это сильно помогает. Вообщем вам решать.

  • комментарий by Сергей - 19.07.2010, 11:48

    Статья очень полезная, правда все очень заморочено и заумно.Можно найти способы по легче…

  • комментарий by Max1mus - 19.07.2010, 21:54

    Abiron, как раз перелинковывать страницы — это то, что нужно. Вы сами ставили эксперимент по размещению ключевиков в футере?

  • комментарий by makseo - 26.07.2010, 19:26

    что то парсер ошибку выкинул:
    Warning: curl_setopt() [function.curl-setopt]: CURLOPT_FOLLOWLOCATION cannot be activated when in safe_mode or an open_basedir is set in /home/***/domains/***/public_html/pars/parser.php on line 40

  • комментарий by Журнал адверта goofyGoober’a | Получаем трафик с старых ГС, Гблогов и прочего мусора. - 29.07.2010, 15:10

    […] Сразу хочу сказать: идея того, что будет описано в этом посте не новая, но теперь ее можно вывести на более продуктивный и не рутинный алгоритм, а точнее теперь можно меньше работать руками. Сама реализация взята с поста на rxpblog’e […]

  • комментарий by goofyGoober - 29.07.2010, 19:27

    hiend — А при использовании выложенного парсера и Я.Сервера на домашнем ПК, что в парсере вписывать вместо $link = «http://» ?

  • комментарий by AmiGator - 16.08.2010, 03:38

    а что, язык запросов Яндекса для определения релевантной страницы уже не катит? думается поточнее будет, чем какой то локальный сервер, алгоритмы то меняются постоянно

  • комментарий by stef33 - 18.09.2010, 13:55

    Да ссылки в футере несомненно дают пользу для низкочастотных запросов. Яндекс сервер буду изучать, посмотрим что он выдает

  • комментарий by Александр - 19.05.2012, 00:48

    Я тоже начинал с нискочастотников, неплохо получалось!

Оставить комментарий

(обязательно)
(обязательно)
Введите свой email:

Разделы

Теги

Полезные сайты