Эффективная методика добычи низкочастотного трафика
17 октября 2011, 00:11, posted by Zhenek | SEO методы, SEO статьи |

Приветствую всех читателей RXPblog’a. В данной статье я расскажу Вам об эффективной методике добычи низкочастотного трафика, причем главным образом из Google. Чаще всего подобный траф вебмастеры сливают на различные PPC или же на некие «волшебные решения», но при правильном подходе в плане выбора ключевых слов можно добывать и более качественный нишевый траф, например, тот же фарма , который затем можно сливать на партнерки. Не исключено, что кому-то из читателей методика, описанная мной в этой статье, может показаться знакомой, но однозначно для массы людей она будет в новинку, особенно с учетом скрипта, который я приложил к статье.

Итак, в данной статье речь пойдет о добыче низкочастотного трафика главным образом со своих доменов, но возможны и методы «погорячее» в виде «пирогов». Для фармы, если использовать свои домены, данный метод не очень хорошо подходит, т.к. слишком высока конкуренция в этой нише, но если у Вас есть своя хорошая «пекарня», а значит и возможность быстрой простановки большого количества качественных ссылок, то описанный метод сработает на ура, причем и в других не менее конкурентных нишах.

Весь смысл данной статьи заключается в том, чтобы показать Вам, как привлекать трафик с Гугла на новые домены за короткий промежуток времени, что является очень весомым плюсом. Но справедливости ради стоит сказать и о главном и, пожалуй, единственном минусе данного подхода: сгенеренные вами , сплоги и т.п. могут попасть в бан Гугла довольно быстро, но без трафа они Вас в любом случае не оставят.

Гугл — система очень большая с десятками тысяч машин в десятках датацентров, которые выкачивают интернет, строят поисковый индекс, применяют фильтры к сайтам и т.д. Содной стороны это хороший подход: Гугл может расширяться в соответствии с ростом интернета, но с другой стороны он не может быстро анализировать новые ресурсы на предмет того, дорвеи это или нет, какие ссылки стоят на ресурс, какое качество контента на ресурсе (копипаст или нет). Именно за счет этого в топы вылазят доры и живут там в общем-то недолго, но все же успевают снабдить нас трафиком. Гугл просто физически не успевает проанализировать новые страницы сразу. Есть более жесткие фильтры, есть более мягкие: к примеру, анализ контента на предмет редиректа можно проводить сразу, а вот проверить страницу на дубли уже сложнее и затратнее по ресурсам, поэтому некоторые фильтры применяются сразу, некоторые чуть позже.

Но Гугл как поисковик №1 хочет иметь у себя самую актуальную информацию, те же самые свежие и актуальные новости и т.п. За счет этого существует так называемый «бонус новичка», когда к сайту не успевают применить фильтры и он может вставать в топы без особых проблем. Потом приходит, к примеру, «Панда» и проверяет страницу на предмет копипаста, качества контента, качества ссылок и т.д., в результате чего тот или иной ресурс попадает под фильтр или уходит в бан. Этим моментом, когда фильтры к сайту еще не применены, можно и нужно пользоваться: например, сделать сайт на несколько тысяч страниц и как можно быстрее поставить на него ссылки. Очень важно, чтобы Гугл находил ваши страницы именно по ссылкам, потому что так будет куда больше шансов попасть в топ.

Всем нам известно, что в последнее время Гугл фильтрует контент, причем делает он это довольно жестко: через несколько дней сайт с неуникальным контентом может быть отправлен в песочницу или полностью забанен, поэтому нам необходимо этот контент сделать отчасти уникальным. Для того чтобы уникализировать контент, я беру основной контент, который добавляется на дорвей/сплог и немного контента с других источников, в основном с сайта http://www.digg.com/. На данном сайте очень много хорошей информации, причем само количество текста минимально в каждой новости. Я беру 5-10 новостей с Дигга и добавляю к своему контенту, в итоге получается статья + несколько упоминаний о тематике статьи в интернете, что пользователям тоже нравится. Релевантные новости с Дигга я беру с его поиска. К примеру, Вы вбиваете запрос «online insurance»: http://digg.com/search?q=online+insurance&submit= — как видите новости тематические, и найдено их довольно много. В Дигге можно найти контент практически по любому запросу. Помимо Дигга есть еще довольно много ресурсов, где можно найти подобный контент: социальные закладки, новостные сайты, обзоры и т.п. В общем много различных ресурсов в зависимости от интересующей тематики.

Теперь, когда с тем, где брать разбавляющий контент, мы определились, перейдем непосредственно к технической части и реализации наших сплогов. Для этих целей я чаще всего использую движок из-за его большого функционала и большого количества бесплатных плагинов и шаблонов.

Устанавливаем WordPress на хостинг, затем скачиваем и устанавливаем плагин для граббинга RSS лент. Я использую плагин WP-o-Matic, который можно скачать здесь: http://wordpress.org/extend/plugins/wp-o-matic/. Скачиваем плагин и активируем его, затем заходим на страницу Settings → WP-o-Matic и выполняем 4 пункта, которые просит сделать плагин (более подробную информацию об этих настройках можно найти в Гугле). Затем жмем на ссылку Add campaign и заполняем необходимые поля. В подразделе Basic пишем любое название, в Feeds вводим адреса фидов, с которых парсить контент, в поле Categories выбираем категории, куда должен попадать этот контент, в подразделе Rewrite можно сделать небольшой рерайт для статей данной кампании, в поле Options можно настроить тип поста, автора и так далее. После того, как настроите кампанию, жмите кнопку Submit:

Для того чтобы спарсить фиды, необходимо зайти в раздел Campaigns и напротив нужной кампании нажать ссылку Fetch — фиды сграбятся и опубликуются:

Я не стал подробно описывать возможности данного плагина, так как статья и так получилась довольно объемная, да и информации об этом плагине в интернете предостаточно. Плагин можно запускать через крон и делать многое другое, для того чтобы узнать как это делать, смотрите документацию: http://wordpress.org/extend/plugins/wp-o-matic/.

Теперь займемся Диггом и уникализацией наших статей. Я написал небольшой плагин, который использую в своей работе, скачайте его и залейте в папку /wp-content/plugins вашего блога и поставьте права 777 на папку cache. О том как настраивать плагин, смотрите в файле readme.txt в папке с плагином. После того как поставите права на папку, активируйте плагин через админку блога в разделе Plugins. Все должно работать. Запускайте граббинг и заходите на любой пост, в итоге эти посты будут с добавлением дигг-новостей.

Теперь скажу пару слов и о других движках. Если Вы знаете PHP, то можете встроить плагин куда угодно, просто подключив файл glebgor.php и вызвав две функции: set_glebgor_title($title) — в функцию передавайте заголовок статьи и add_digg_content($content) — в функцию передавайте статью. Таким образом, можно приспособить плагин практически куда угодно — DLE, Joomla, и т.п. Если Вы желаете попробовать данную тему с фармой, то рекомендую Вам использовать CMS4SEO.

Идем дальше: теперь о раскрутке данных сплогов. Для раскрутки вам необходим Хрумер или другой сабмиттер с хорошей базой ссылок, потому что на каждый пост должна быть как минимум одна-две ссылки. Ссылки нужно сразу проставлять активно и массово, чтобы до фильтров Гугл нашел как можно больше страниц именно по внешним ссылкам, тогда статья с очень большой вероятность попадет в топ. Также можно массово покупать ссылки на биржах ссылок типа Sape, XAP и т.п., в общем везде, где можно быстро купить/поставить/снять большое количество ссылок.

Напоследок хочу сказать, что некоторые сплоги банятся довольно быстро, а некоторые живут весьма и весьма долго. Таким же образом можно работать и с различными типами трафика, но лучше всего, на мой взгляд, идет mp3, video и другой download трафик. Простые новости сами по себе дают немного трафика, поэтому делать сплоги/доры именно по ним особого смысла нет. Сплоги/дорвеи должны быть сделаны под определенную тематику с большим охватом различных кейвордов.

Желаю всем успехов в работе и побольше конвертабельного трафика! 🙂

Автор статьи: GlebGor.

39 комментариев
39 комментариев
  • комментарий by wertigen - 17.10.2011, 00:51

    Спасибо за подробное описание бонуса новичка 🙂

  • комментарий by Лютый - 17.10.2011, 11:42

    Применяю данную методику в сочетании с синонимайзингом — сайты долго живут.

  • комментарий by Crazer - 17.10.2011, 11:49

    Автор, а как спамить лучше данные ресурсы? Например, у меня есть база из 50к форумов, и есть сделанный сайт на 5к страниц. Как мне его в индекс загнать? Стоит ли как-то с перелинковкой заморачиватся?

  • комментарий by GlebGor - 17.10.2011, 12:20

    wertigen, Лютый спасибо 🙂
    Crazer, в идеале конечно на кажду страницу 5-10 ссылок чтобы было.

    >> Стоит ли как-то с перелинковкой заморачиватся?
    Возможно стоит поиграться, но я никогда над перелинковкой особо не заморачивался 🙂 Кроме вордпрессовых тегов,категорий и постраничной навигации никакой перелинковки небыло 🙂

  • комментарий by Tikov - 17.10.2011, 13:07

    GlebGor, подскажи можно ли аналогичные операции проводить Хуманэмулятором или Зеннопостером? Справятся они с этим?

    Zhenek, может быть всех авторов статей обязать присылать самописные скрипты или хоть какие то проги вместе со статьями?

  • комментарий by GlebGor - 17.10.2011, 13:28

    Tikov, ссылки ставить можно при желании данным софтом довольно успешно.

    Некоторые люди пишут сабмиттеры под различные движки на ZennoPoster и получают результаты получше чем с хрумером за счет хорошей базы чистых ресурсов 🙂

  • комментарий by Zhenek - 17.10.2011, 15:06

    To Tikov: думаю, что обязать всех авторов не получится, да и ни к чему это вовсе. Ведь далеко не все авторы умеют программить — это раз, а два — это то, что далеко не все статьи на нашем блоге требуют приложения к ним каких-либо скриптов. 🙂

  • комментарий by Рентер - 17.10.2011, 17:00

    Zhenek, опечатка:
    >> Устанавливаем WordPress на хостинг, затем скачиваем и устанавливаем плагин для граббнга RSS лент.

    А по теме — сам добываю даунлоад трафик похожими методами, только ссылки ставлю со своих серых сайтов. Хрумер не использую.

  • комментарий by Макаренко Александр - 17.10.2011, 19:35

    Методика действительно эффективная, действует. Только нужно не один час времени на неё потратить, чтобы хорошо разобраться.

  • комментарий by Zhenek - 17.10.2011, 20:15

    To Рентер: исправил, спасибо. 🙂

  • комментарий by Tikov - 17.10.2011, 21:01

    Спасибо за разъяснение GlebGor, но тогда уж посоветуй профессионально что лучше выбрать: зенно или хуман? в онтексте твоей вот темы и простановки ссылок, да и вообще.

  • комментарий by Bouncer - 17.10.2011, 21:23

    Статья начтоящая находка для меня как для ламера программинга, про бонус новичка я имею хорошее представление и активно юзаю эту лазейку, но подобного скрипта у меня в активе пока не было. жаль кстати так как автоматизация работы с дигом штука мощщная

  • комментарий by dxdim - 17.10.2011, 22:14

    нормальная статья зачет!

    P.S.зено лучший шаблоны клепать можно без знаний яз пр.

  • комментарий by GlebGor - 18.10.2011, 10:53

    Tikov, на мой взгляд Zenno больше подходит для тех кто не разбирается в программировании, а HumanEmulator — для тех кто знает PHP. Здесь личное дело каждого.

  • комментарий by WebWed - 18.10.2011, 11:53

    Да метода интересная, спасибо за идею и ссылочки

  • комментарий by Sting - 18.10.2011, 13:54

    Спасибо за плагин парсинга лент недавно думал подобные напарсеные блоги начать делать а тут статья
    А с Yahoo Pipes можно както данный плагин сработать?

  • комментарий by GlebGor - 18.10.2011, 15:16

    Sting, можно работать с любыми RSS каналами. Если Yahoo Pipes отдает RSS в свободный доступ без авторизации — то да, можно 🙂

  • комментарий by Yolanda - 19.10.2011, 10:50

    < Также можно массово покупать ссылки на биржах ссылок типа Sape, XAP и т.п.>

    То есть можно продвигать такие вот дорвеи с помощью этих самых бирж? А разве это не противоречит их правилам? Разве мне продадут ссылки на дорвеи оттуда? o_O

  • комментарий by Fenel - 19.10.2011, 11:12

    GlebGor, спасибо за статью! Мне она раскрыла глаза на нужные и очевидные вещи.

    По сколько страниц нужно делать на одном таком сайте? Про спам примерно понял — а как быть с биржами, присоединяюсь к предыдущему вопросу от Yolanda, хотелось бы больше информации о биржах.

    И еще вопрос: если у меня есть дамп контента в виде файла импорта WordPress(xml файл), то как мне разбавить такой контент новостями из дигга?

  • комментарий by SunCX - 19.10.2011, 13:20

    Стимулирующая такая тема, но лезть в фарму мне еще рановато, поэтому буду обкатывать эту методику на чем-то более легком типо фильмов. 🙂

  • комментарий by GlebGor - 19.10.2011, 15:21

    Yolanda, в Sape нет модерации проектов. Некоторые вебмастера смотрят на то что у них покупают, но большинство не смотрят. Те ссылки, которые ожидают подтверждения вебмастера удаляйте просто и все.

    Fenel, я делаю не более 5к страниц. Имхо больше сложно запхать в индекс Гугла, да и ВП при большем количестве постов требует больше ресурсов.

    >> И еще вопрос: если у меня есть дамп контента в виде файла импорта WordPress(xml файл), то как мне разбавить такой контент новостями из дигга?

    Просто импортируйте дампы и активируйте мой плагин, он сам добавит новости в контент. Таким же образом можно включать плагин на работающем сплоге — после активации он сам все сделает.

    SunCX, удачи 🙂

  • комментарий by Пaвeл - 19.10.2011, 20:49

    Спасибо огромное, убил несколько часов что бы все понять, и теперь не жалею о потраченом времени, все работает даже лучше чем я ожидал…. Еще раз спасибо за статью…

  • комментарий by Swе - 20.10.2011, 02:25

    На самом деле много интересной информации, даже косвенной, спасибо.

  • комментарий by Kamrad - 21.10.2011, 04:24

    Ого, вот это подгон))
    ушла часа 4 пока въехал, но оно того стоит. да и самое главное что дошло наконец))
    но для фармы я ещё очень мал. буду пока тестировать на мп3

  • комментарий by GlebGor - 21.10.2011, 09:54

    Пaвeл, Swе, Kamrad старался по-доступнее написать. Если будут вопросы — пишите. 🙂

  • комментарий by SeoClon - 21.10.2011, 13:19

    Tikov, попробуй альтернативу Хрумеру — ПК XseoN офсайт — ww*.xseon.ru, работает с phpBB2-3. ipb2-3, LJ, автор говорит SMF в разработке

  • комментарий by gogoshka - 22.10.2011, 11:11

    Отличная статья. Все подробно расписано, как раз для таких новичков как я)

  • комментарий by hoppy - 23.10.2011, 16:11

    «Таким же образом можно работать и с различными типами трафика, но лучше всего, на мой взгляд, идет mp3, video и другой download трафик. Простые новости сами по себе дают немного трафика, поэтому делать сплоги/доры именно по ним особого смысла нет. Сплоги/дорвеи должны быть сделаны под определенную тематику с большим охватом различных кейвордов.»

    Каким образом делать статейные посты под download траф? Не представляю даже..
    И как монетизировать? Ссылки в каждом посте, баннеры, редирект?

  • комментарий by GlebGor - 27.10.2011, 13:12

    hoppy, были дела в оффлайне, поэтому некоторое время не подходил к компу.

    Статейные посты под даунлоад траф делать на самом деле легко.

    К примеру если ты делаешь пост про софт, к примеру Download Adobe Photoshop CS5 — то можно взять просто описание софта как например здесь: http://download.cnet.com/Adobe-Photoshop-CS5/3000-2192_4-10021273.html

    Аналогично можно поступить с фильмами(IMDB — полно обзоров, ревью и т.д.), с книгами и так далее.

    Монетизировать — как все монетизируют, партнерки, контекст, контент локер, редирект в зависимости от того что ты делаешь и как продвигаешь. Если у тебя сплоги будут житть пару дней — то выгоднее редирект, если более качественный парсинг — то в перспективе долгосрочная монетизация на баннерах, файлообменниках, кино партнерках и так далее.

  • комментарий by Fenel - 28.10.2011, 10:02

    Хватит ли 30-40 сплогов для индексации, если я буду ставить ссылки на них? 20 фриблогов типа wordpress.com а остальные свои домены? Они все в индексе гугла.

  • комментарий by gringo - 28.10.2011, 11:25

    to fenel: уверен что хватит если гугл часто посещает твои сайты у меня и с меньшего количества шопы влазили в индекс

  • комментарий by Arsаu - 31.10.2011, 21:02

    Спасибо. Зачет.. Это все на brush можно реализовать..

  • комментарий by griz - 3.11.2011, 23:49

    а разве панда не убила подобные схемы? т.е можно абы как хрумером пройтись и успеть словить трафа?

    на не новых доменах можно достигнуть подобного эффекта или вся фишка именно в бонусе новичка?

  • комментарий by GlebGor - 4.11.2011, 13:40

    griz, да, панда не сразу срабатывает и трафа можно успеть словить. 🙂 И не обязательно хрумером, можно более качественные ссылки ставить. 🙂

  • комментарий by GoodStr - 12.11.2011, 12:09

    GlebGor а можно с тобой как-то связаться? есть вопрос по подключению плагина к одной системе.

  • комментарий by GlebGor - 14.11.2011, 10:41

    GoodStr, gleb.gorsky[гав]gmail.com

  • комментарий by Победитель 25-ого месяца Мега акции «Спалил тему – платим смело» | Фарма Блог №1 - RXPblog.com - 25.11.2011, 11:37

    […] На основании установленных ранее критериев жюри единогласно определило победителя двадцать пятого месяца. В этот раз им стал GlebGor со своей статьей Эффективная методика добычи низкочастотного трафика. […]

  • комментарий by Simon - 1.02.2012, 17:46

    Заказывайте уникальные статьи, будет проще.

  • комментарий by farmablogger - 27.03.2012, 17:42

    Simon, дело говоришь 🙂 Синонимайзеры, вп-роботы и прочее в топку. Есть сайты на которых уже 3 года висит уник. контент. Висят себе в выдаче и приносят копейку уже долгое время.

Оставить комментарий

(обязательно)
(обязательно)
Введите свой email:

Разделы

Теги

Полезные сайты