21 ноября 2012, 12:12, posted by Zhenek | SEO методы, SEO статьи |

В этой статье я хочу обсудить текущие реалии генерации дорвеев для Google и их продвижения. Сразу оговорюсь, что здесь я не буду обсуждать такие совсем черные темы как взлом ресурсов и создание дорвеев на них, а более белые и не противоречащие законодательству дорвеи на фрихостах (блог платформах, форумах и т.д.) и своих доменах. Помню, несколько лет назад все топы поисковиков по популярным и прибыльным запросам как по фарме, так и по другим тематикам были забиты дорвеями, созданными на различных сервисах, блог платформах, форумных профилях и т.д. Контент в этих дорвеях представлял из себя всего лишь список ключевых слов, по одному ключевому слову на строку — так называемый «столбик». Практически все использовали столбик и получали трафик в больших количествах. Для получения трафика достаточно было всего лишь найти трастовый ресурс и сгенерировать как можно больше дорвеев и как следует проспамить их по гестам.

Примитивные скрипты, которые из файла брали ключевые слова и перемешивали их с последующим сабмитом на фрихост позволили в общей сумме заработанных денег купить вебмастерам не одну Ferrari и дом на острове. Все были счастливы, получали трафик, топы партнерок украшали цифры с четырьмя нулями и все были довольны жизнью. А продвигалось все это хозяйство хрумером и апостером, просто гоняя те же профили по другим  гестам, форумам и блогам. Поностальгировали и хватит. 🙂
Подробнее »

20 комментариев
12 августа 2010, 00:11, posted by Zhenek | SEO методы, SEO статьи |

В одной из мартовских статей, гражданин Bobboy уже раскрывал тему парсинга актуальных кейвордов, сегодня мне хочется несколько «расширить и углубить» начатую им тему, представив некоторые дополнительные хитрости, появившиеся в последнее время.

Собственно рассматривать мы будем парсинг автокомплитов, которые в данный момент есть у всех уважающих себя поисковых систем. Кейворды там качественные, а парсинг не представляет собой большой проблемы, благо, капчу туда встроить поисковики не могут, да и банить довольно затруднительно, т.к. запросов к автокомплиту, как правило, чудовищное количество, поэтому встроить туда какую-то сложную программную логику весьма затруднительно. Лично я, когда парсил кеи для собственных нужд, с баном не столкнулся ни разу, но с другой стороны, объемы у меня были не шибко большие, поэтому гарантий тут никто не даст, в любом случае, использование даже небольшого количества рабочих проксей, позволит вообще забыть о всякой тревоге.
Подробнее »

14 комментариев
24 октября 2009, 00:11, posted by Zhenek | Интересные факты, Поисковые системы |

futsearchGoogle объявила о результатах исследования «Поиск будущего». Участникам исследования предлагалось составить своеобразный портрет поисковой системы будущего и определить важнейшие качества, которыми должен обладать идеальный веб-поиск. В традиционном исследовании, проведенном агентством Комкон, приняли участие 1200 респондентов из крупных городов России, еще около 2400 человек ответили на вопросы на специально созданном сайте.

Исследование показало, что пользователи, в целом, довольны качеством существующих поисковых систем и их функциями – так сказали 90% респондентов. Более половины респондентов (60%) уверены, что качество поисковиков улучшилось за последний год. Наиболее близкими к «идеальной поисковой системе» были признаны Яндекс и Google (64% и 63% соответственно). Google при этом возглавил список стремительно развивающихся поисковых систем – таковой Google считает более половины опрошенных.

Наиболее важными характеристиками поисковых систем будущего пользователи сочли точное соответствие запросу (34%) и высокую скорость (28%). Среди популярных требований также были отмечены отсеивание лишней информации, «думающий» и всеобъемлющий поиск.

Главным качеством поисковика будущего, по мнению пользователей, должно стать умение отфильтровывать заведомо ложную информацию (92%). Также им хотелось бы, чтобы в будущем поиск мог:

предоставлять доступ к архиву радио- и ТВ-программ (92%)
предлагать аналитические ответы (88%)
распознавать устную речь (88%)
развлекать в дороге и путешествиях (83%)
понимать описательные запросы (83%)
находить украденные и потерянные вещи (83%)
Подробнее »

4 комментария
3 сентября 2009, 13:06, posted by Zhenek | Интересные факты, Поисковые системы |

Компания comScore опубликовала новое исследование популярности поисковых сервисов у пользователей по всему миру по данным за июль 2009 г. Популярность российского поисковика «Яндекс» за год выросла значительно больше конкурентов — на 94%. В июле 2009 г. «Яндекс» обслужил 1,29 млрд поисковых запросов, тогда как год назад этот показатель составлял 663 млн.

Всего за месяц во всем мире было сделано более 113 млрд поисковых запросов — на 41% больше по сравнению с прошлым годом. Доля сайтов Google составила 76,7 млрд из них или 67,5% мирового рынка по данным comScore, рост за год — 58%.

На втором месте по популярности среди поисковиков сайты Yahoo — 8,9 млрд запросов или 7,8% рынка, рост — 2%. На третьем месте оказался китайский поисковик Baidu с 8 млрд поисковых запросов и долей в 7%, увеличив долю на 8%. «Яндекс» в этом рейтинге занял восьмую позицию.

Наиболее активно искали в интернете пользователи из Европы — доля этого региона составляет 32,1%. Далее идут Азиатско-Тихоокеанский регион (30,8%), Северная Америка (22,1%) и Латинская Америка (9,3%).

При этом, жители стран Латинской Америки наиболее активно использовали поисковые системы — в среднем, каждый пользователь за месяц осуществил 130 запросов. Европа на втором месте — 116 запросов на одного человека.

Мировой рынок поиска, июль 2009 — июль 2008.

Число поисковых запросов (млн)
Июль 2008 Июль 2009 Изменение в %
Весь интернет 80554 113685 41%
Google Sites 48666 76684 58%
Yahoo! Sites 8689 8898 2%
Baidu.com Inc. 7413 7976 8%
Microsoft Sites 2349 3317 41%
eBay 1223 1723 41%
NHN Corporation 1243 1526 23%
Ask Network 929 1291 39%
Yandex 663 1290 94%
AOL LLC 1148 1023 -11%
Facebook.com 743 879 18%

Следует отметить, что ранее американские аналитики включили «Яндекс» в число пяти главных конкурентов компании Google на мировом рынке интернет-поиска. Также в этот список попали чешский поисковик Seznam, занимающий 63% местного рынка, китайский Baidu, южнокорейский Naver, доля которых в своих странах составляет около 60%, и Yahoo Japan — более 50% японского рынка интернет-поиска.

Комментариев нет
17 апреля 2009, 10:19, posted by Zhenek | SEO методы, SEO статьи, Поисковые системы |

Сегодня я решил перечислить и кратно описать основные заблуждения по теме поисковой оптимизации. Некоторые из них уже знакомы для вас, но, возможно, о каких-то вы узнаете впервые. В любом случае подобной систематизации этих аспектов я нигде не встречал. Так что давайте вместе попробуем разобраться и выяснить, какие же все-таки заблуждения являются наиболее популярными?

1. Использование Robots.txt – это самый безопасный способ избежать сканирования поисковыми ботами вашего сайта или его отдельных страниц.
На самом деле это не так. Даже если вы заблокировали сайт/страницу через «Disallow» в robots.txt, Google может просканировать его, следуя по внешним бэклинкам. Поэтому самым безопасным и надежным способом защиты от сканирования следует считать установку пароля для входа на ту или иную страницу вашего сайта. В этом случае боты туда никак не проникнут.

2. Выделение ключевых слов Header-тегами поможет в SEO.
Header-теги, используемые в содержании, конечно же, определенным образом оказывают положительное влияние на поисковую оптимизацию, но все же они не являются абсолютно самостоятельным фактором, способным дать значимый результат вашему сайту.

3. Использование атрибута тега «nofollow» на страницах вашего сайта запрещает Google переходить по определенным ссылкам и соответственно сканировать содержимое определенных страниц.
Однозначно можно утверждать, что это совсем не так. Страницы, «закрытые» этим тегом, все же могут быть просканированы Googlebot’ом, поэтому атрибут тега «nofollow» не следует считать надежным средством от ботов.
Подробнее »

13 комментариев
Введите свой email:

Разделы

Теги

Полезные сайты