17 июня 2009, 22:23, posted by Zhenek | SEO методы, SEO статьи, Поисковые системы |

Статья в более грамотном исполнении на эту тему: Matt Cutts о PageRank и Nofollow.

Google больше «не поддерживает предыдущие версии» в отношении платных ссылок и формирования PageRank?

Представьте, что вы включили свой компьютер и обнаружили, что часть программ на нем не работает из-за того, что без вашего ведома операционная система обновилась и теперь не поддерживает более ранние версии. Именно это случилось на этой неделе с Google. То, что раньше действовало безотказно, теперь не работает, потому что Google не поддерживает предыдущие версии. Похоже, это беспрецедентный случай.

Не стоит впадать в панику. Одно из изменений в действительности не затронет большинство сайтов, и коснется только тех, кто использует SEO-приемы, призванные повлиять на PageRank. Другое изменение будет несколько более заметным и может означать, что тысячи сайтов теперь нарушают правила Google в отношении платных ссылок, даже не зная об этом. Но и оно не будет иметь немедленного эффекта. Ниже я более детально объясню, в чем заключаются оба изменения.

В обоих случаях самое важное то, что владельцам сайтов, возможно, придется поменять что-то на своих сайтах не потому, что они пытались “обмануть алгоритм поисковой системы”, а напротив, потому что они следовали правилам и инструкциям от Google. Они делали это, потому что им было это рекомендовано, и теперь им придется переделывать работу заново.

Именно эта часть является поистине беспрецедентной. Google постоянно обновляет свои алгоритмы для работы с содержанием сайта, начиная с нововведений для индексирования PDF-документов и заканчивая показом ссылок на другие страницы сайта в результатах поиска. Все эти обновления в целом были позитивными и не требовали почти или совсем никакой работы со стороны владельцев сайтов – до сегодняшнего дня.
Подробнее »

12 комментариев
17 апреля 2009, 10:19, posted by Zhenek | SEO методы, SEO статьи, Поисковые системы |

Сегодня я решил перечислить и кратно описать основные заблуждения по теме поисковой оптимизации. Некоторые из них уже знакомы для вас, но, возможно, о каких-то вы узнаете впервые. В любом случае подобной систематизации этих аспектов я нигде не встречал. Так что давайте вместе попробуем разобраться и выяснить, какие же все-таки заблуждения являются наиболее популярными?

1. Использование Robots.txt – это самый безопасный способ избежать сканирования поисковыми ботами вашего сайта или его отдельных страниц.
На самом деле это не так. Даже если вы заблокировали сайт/страницу через «Disallow» в robots.txt, Google может просканировать его, следуя по внешним бэклинкам. Поэтому самым безопасным и надежным способом защиты от сканирования следует считать установку пароля для входа на ту или иную страницу вашего сайта. В этом случае боты туда никак не проникнут.

2. Выделение ключевых слов Header-тегами поможет в SEO.
Header-теги, используемые в содержании, конечно же, определенным образом оказывают положительное влияние на поисковую оптимизацию, но все же они не являются абсолютно самостоятельным фактором, способным дать значимый результат вашему сайту.

3. Использование атрибута тега «nofollow» на страницах вашего сайта запрещает Google переходить по определенным ссылкам и соответственно сканировать содержимое определенных страниц.
Однозначно можно утверждать, что это совсем не так. Страницы, «закрытые» этим тегом, все же могут быть просканированы Googlebot’ом, поэтому атрибут тега «nofollow» не следует считать надежным средством от ботов.
Подробнее »

13 комментариев
Введите свой email:

Разделы

Теги

Полезные сайты