6 мая 2009, 02:42, posted by Zhenek | SEO методы, SEO статьи |

Компания User Centric провела интересное исследование, показывающее, сколько времени тратят пользователи на разглядывание прикрепленных к объявлениям URL-адресов при просмотре контекстной рекламы в выдаче Google. Результаты говорят о том, что адреса являются чрезвычайно важным фактором, влияющим на конечную кликабельность объявлений. Если говорить очень упрощенно, исследование показало, что на изучение адреса пользователи тратят неожиданно много времени.

Для объявлений, расположенных прямо над результатами поиска, выявлена следующая закономерность: на разглядывание адреса пользователи тратят в три раза больше времени, чем на текстовое описание объявления (0,53 сек. против 0,15 сек.) Более того, URL объявлений, расположенных на первой позиции, сравнялся по популярности с заголовком объявлений (по 0,65 сек.) Вот таблица с более полными данными:

Среднее время просмотра за один визит на страницу выдачи Google.

20090406-1

Подробнее »

2 комментария
23 апреля 2009, 21:23, posted by Zhenek | SEO методы, Поисковые системы |

Тема профилей Гугла в общем-то отнюдь не новая, просто раньше они были закрыты для индексации. Но сейчас ситуация изменилась, и Гугл дал нам возможность получать DoFollow бэки по сути с себя самого.

Давайте вместе проверим, так ли это? Идем в Гугл, делаем запрос «site:google.com/profiles/» и выбираем какой-нибудь профиль, например, google.com/profiles/116215152516492707890, и видим, что все ссылки без атрибута nofollow.

googprof2

Подробнее »

12 комментариев
17 апреля 2009, 10:19, posted by Zhenek | SEO методы, SEO статьи, Поисковые системы |

Сегодня я решил перечислить и кратно описать основные заблуждения по теме поисковой оптимизации. Некоторые из них уже знакомы для вас, но, возможно, о каких-то вы узнаете впервые. В любом случае подобной систематизации этих аспектов я нигде не встречал. Так что давайте вместе попробуем разобраться и выяснить, какие же все-таки заблуждения являются наиболее популярными?

1. Использование Robots.txt – это самый безопасный способ избежать сканирования поисковыми ботами вашего сайта или его отдельных страниц.
На самом деле это не так. Даже если вы заблокировали сайт/страницу через «Disallow» в robots.txt, Google может просканировать его, следуя по внешним бэклинкам. Поэтому самым безопасным и надежным способом защиты от сканирования следует считать установку пароля для входа на ту или иную страницу вашего сайта. В этом случае боты туда никак не проникнут.

2. Выделение ключевых слов Header-тегами поможет в SEO.
Header-теги, используемые в содержании, конечно же, определенным образом оказывают положительное влияние на поисковую оптимизацию, но все же они не являются абсолютно самостоятельным фактором, способным дать значимый результат вашему сайту.

3. Использование атрибута тега «nofollow» на страницах вашего сайта запрещает Google переходить по определенным ссылкам и соответственно сканировать содержимое определенных страниц.
Однозначно можно утверждать, что это совсем не так. Страницы, «закрытые» этим тегом, все же могут быть просканированы Googlebot’ом, поэтому атрибут тега «nofollow» не следует считать надежным средством от ботов.
Подробнее »

13 комментариев
17 апреля 2009, 01:28, posted by Zhenek | SEO методы, SEO сервисы |

Хочу поделиться со всеми еще одним интересным SEO-сервисом, который предсказывает будущий PR Вашего сайта. Не исключено, что кому-то он уже знаком. Но судя по тому, что зачастую можно встретить на форумах и блогах вопросы о том «где проверить будущий PR», я решил, что рассказать об этом сервисе еще раз будет совсем не лишним.

Предупреждаю сразу, что верить на 100% полученным результатам и, тем более, обольщаться ими, не стоит, особенно, если Вы проверяете Ваш новый сайт, у которого пока PR0. Скорее всего, предсказание Вас впечатлит, но в идеале при ближайшем апдейте Вы получите показатель PR  на 1 пункт меньше предсказанного сервисом, хотя все может быть…

Для примера я протестировал этой тулзой два сайта и получил результаты о повышении и понижении будущего PR.

Подробнее »

8 комментариев
15 апреля 2009, 21:47, posted by Zhenek | SEO методы, SEO сервисы |

На днях нашел весьма занимательную тулзу, написанную на Ajax. Она поможет вам довольно функционально и быстро проанализировать ваш сайт по ключевым параметрам. Вот некоторые из них:

* Дата создания сайта.
* Наличие sitemap.xml и robots.txt
* Google PageRank.
* Страницы в индексе Google, Yahoo, MSN.
* Бэки по данным Google и Yahoo.
* Наличие сайта в DMOZ.
* Букмарки в Delicious.

weban-11

Подробнее »

3 комментария
Введите свой email:

Разделы

Теги

Полезные сайты