Главная » Заметки » Еще один шаг Гугла на встречу качественным сайтам
Еще один шаг Гугла на встречу качественным сайтам

24 апреля Гугл сделал еще один шаг в поддержку качественных сайтов. Полный текст сообщения с выводами и рекомендациями читайте ниже.

"Гугл неоднократно заявлял что поисковая оптимизация может быть позитивной и результативной. SEO может помочь сайту быть более доступным для индексации, а также помочь страницам сайта получить более высокие позиции в выдаче.

Белые методы оптимизации улучшат видимость сайта в выдаче, помогут создать отличный контент, или же сделать сайт быстрее, что выгодно как пользователям, так и поисковым машинам. Хорошая поисковая оптимизация – это и хороший маркетинг, поскольку хорошо оптимизированный сайт получит больше трафика.

В противовес белым методам, существует и вебспам. В погоне за высокими позициями в выдаче некоторые сайты используют методы, не приносящие никаких выгод пользователям. Основной целью таких методов является поиск коротких путей к получению более высоких позиций, чем такие сайты реально заслуживают. Каждый день мы встречаемся с разными формами вебспама, от переспама ключевиками до схем размещения беклинков на сайтах с негативной репутацией.

Цель внедрения изменений в алгоритм ренкинга – помочь пользователям найти стоящие сайты, или другими словами, помочь пользователям найти то, что они ищут. Мы хотим, чтобы «хорошие ребята», делающие хорошие сайты для пользователей, увидели результаты своей работы. Так, мы запустили Панду, которая вернула утраченные позиции хорошим сайтам. Также недавно мы запустили новый алгоритм ренкинга, анализирующий расположение контента на сайте, который понизил позиции сайтов с излишком рекламы и баннеров в зоне «без прокрутки» (верхней части сайта).

На днях мы внедряем новое важное изменение в алгоритм, призванное бороться с вебспамом. Такое изменение коснется сайтов, которые, по нашему мнению, не соответствуют стандартом качества Гугл. Мы всегда наблюдали вебспам в выдаче, и это изменению улучшим алгоритм ренкинга. Наш совет вебмастерам – делайте качественные сайты, полезные для пользователей и используйте только белые методы поисковой оптимизации, вместо банального вебспама.

Мы считаем, что сайты, использующие такие методы, манипулируют поисковой выдачей. Изменения коснуться сайтов на 5 языках, 3.1% выдачи на англ, 3% - на немецком, китайском, арабские сайты, и 5% польской выдачи."

Итак, что мы видим:

Более жестко наказывают за переспам (внутренний и внешний) + изменена обработка анкоров.

Внутренний переспам - думаю объяснять не нужно. Статья под ключ, чпу точное вхождение ключа, ключ в тайтле, ключ в н1-н3, стронги, альты, каждое название статьи с ключем, повторение ключа в домене и в каждом ЧПУ и т.д. и т.п

Внешнее - покупные ссылки с бирж, в случае низкого качества донора и ГСного оформления самой ссылки. + ссылочное, которое делается спамными методами. Как в плане самого ссылочного, так и используемых анкоров

Многие смотрят на мир через розовые очки, при этом не видят бревна у себя в глазу. Больше часть срабатывания автофильтров направлена на сам сайт, причина именно в сайте.

Относительно качества ссылок- одно и тоже может быть по-разному сделано. Человек может себя спамить генеренными текстами, делать линквиллы на таких же авто-текстах далее спамить себя каментами с ПРистых страниц НО уже с 10000 внешних ссылок и при этом рассказывать что он двигается белыми методами...

К примеру статейные бэки. Можно написать статью, сделать гостевой постинг и при этом получить анкорную контекстную ссылку с уникального контента, в момент индексации, на новом документе, с другими внешними ссылками на трастовые, тематически площадки. Потом статья получается социальные отклики. А можно спарсить текст с езайнов, тыкнуть кнопочку чтобы сгенерило копии и проспамить ими. Как бы по-определению и то и то статейный бэк, но один очень качественный, а второй мягко говоря лажа.

Ну а далее кто как пытается строить свой бизнес - можно плодить ГС и ждать что он прорвется (а он не прорвется) или делать на перспективу качественные, многостраничные, обновляемые сайты.

Давно уже видна тенденция - играет роль не количество, а КАЧЕСТВО ссылок. Можно сколько угодно бить себя в грудь и доказывать что вручную прорабатывать ссылочную массу не выгодно - Гуглу пофиг. На самом деле это все проблемы вебмастеров, а не Гугла. Нужно понимать - ему по большому счету не важно куда слать трафик с выдачи. Главное чтобы юзверь был доволен и получил ответ на свои вопросы. Кликнут у тебя на сайте или у дяди Смита - ему пофиг, главное чтобы рекламодатель остался доволен. От перестановки сайтов в топе картина не особо меняется. Поэтому нужно или понять это и подстроиться, или пытаться рвать волосы на одном месте и плыть против течения..

Если вы все еще думаете что можно добиться успеха используя спарсеные, не уникальные тексты и банальным нажатием на чудо-кнопку обмануть Гугл и убедить его в том что это уникальный текст - вы ошибаетесь. Даже если и есть примеры нарушающие эти правила - это не заслуга вебмастера, а недоработка Гугла и просто вопрос времени...

P.S: Отноительно SeoPack.info:

Услуга Статейный прогон и ТОПовые директории статей будут соединены в Статейное продвижение. В большей степени это сделано чтобы дать максимальный эффект от статейного продвижения каждому заказу. Не все имеют достаточно опыта, чтобы “правильно” распределить ссылочную массу и дать сайту именно то что ему нужно в данный момент. Больше не придется выбирать между этими сабмитами. Вам просто нужно решить нужно ли вам качественное статейное ссылочное или нет... Уверен, результатом работы останутся довольны абсолютно все!

Всего комментариев: 0
avatar