Блог про интернет-маркетинг для бизнеса

SEO

Алгоритм Google Penguin, 2 недели феерии, способы избавления от фильтра и черное SEO

31
30
1
0

Сегодня представляю вашему вниманию вольный перевод статьи Дэнни Салливана - тут собраны ответы на волнующие многих вопросы.

Прошло две недели с тех пор, как Google выкатил апдейт под кодовым названием Penguin. Новый алгоритм лучше справляется со спамом и уже назван грозой "черному" SEO. Но многие пострадали от этого и задаются вопросом о том, как вернуть позиции. Цель любого обновления алгоритма состоит в улучшении поисковых результатов. Как говорит Мэтт Катц: "Это был успех". А как насчет тех странных результатов?

Конечно, вскоре после обновления алгоритма многие начали приводить в пример странные результаты из выдачи. К примеру, официальный сайт виагры не попал в топ, зато там были другие, "взломанные" сайты. Пустой сайт попал в выдачу по запросу "make money online". Также и другие пустые сайты попали в выдачу по самым разным запросам. Как можно считать Google Penguin успешным, если происходят такие вещи? Каттс говорит, что подобное существовало и до нового алгоритма, и они не были вызваны им. И действительно, что касается сайта Виагры - это правда и ситуация уже исправлена. Что, на счет тех людей, которые считают, что их сайты несправедливо понизили в ранжировании?

"Мы обнаружили несколько случаев, которые могли бы исследовать, но это изменение не имело тот же эффект, как Panda или Florida", - говорит Каттс.

Panda была серьезным обновлением алгоритма Google в прошлом году - оно было нацелено на низкокачественный спам. Florida - главный апдейт 2003-го года, нацеленный на улучшение качества поиска. Дэнни согласен, что, похоже, оба апдейта задели намного больше сайтов, чем пресловутый Penguin, по крайней мере, если судить по реакции на эти события. Конечно, не все с этим согласятся.

Просто как напоминание: если какой-то сайт понизить в ранжировании, то какой-то повысится. Мы реже слышим о тех сайтах, ранжирование которых улучшилось, не так ли?

В итоге, в Google, кажется, очень уверены, что новый апдейт фильтрует спамеров, как и было задумано. Дэнни отмечает, что спам - действительно причина, по которой многие сайты просели. Но если это работа Penguin, почему некоторые явно "заспамленные" сайты все-таки попадают в топ?

"Не существует безупречного алгоритма. Пока мы стремимся достичь совершенства, наша лакмусовая бумажка - это ответ на вопрос: "Стало ли что-либо лучше, чем было ранее?". Каттс также отмечает, что Penguin был достаточно точно разработан, чтобы действовать против страниц, в заспамленности которых нет сомнений. Спам все-таки может "пройти", но теперь его ощутимо меньше.

Как вернуть позиции?

В связи с текущим апдейтом очень сложно ответить на этот вопрос. Все пострадавшие сайты, видимо, считаются спамом с точки зрения Google. В прошлом, если ваш сайт был заспамлен, вам нужно было подать запрос на повторное рассмотрение. Однако известно, что повторное рассмотрение просьбы не поможет тем, кто пострадал от Penguin. Они будут восстановлены со временем, если спам будет почищен.

Дэнни еще заметил, что некачественные ссылки - одна из причин, почему многие сайты пострадали. Многие использовали платные темы WordPress или пренебрегали тематической перелинковкой, покупали ссылки или участвовали в спам-сетях. Да и как им вырваться из спам-сетей, если их ссылки уже давно неподконтрольны. И все равно Мэтт говорит: - "по возможности почистить сайт".

Вот два видео на эту тему:

Суть в том, чтобы попытаться решить то, что под силу. Если вы сделаете все, как следует, как вы узнаете об изменениях?

В идеале вы заметите трафик из Google после следующего обновления апдейта. Это ведет к пониманию другой важной вещи: Penguin (как и Panda) - фильтр, обновляемый раз за разом. Penguin работает не постоянно, а периодически и задачей алгоритма является пометить спам в выдаче Google, который пропустили другие спам-фильтры.

Является ли новый алгоритм "казнью" всем сайтам без разбора, как Panda, или есть специфика?

Дэнни считает, что стоит ждать от Google Penguin того же, что и от Google Panda - алгоритм затронет очень многие, если не все сайты. Если ваш сайт затронут, вам придется его почистить от спама. Как говорит Каттс, если вы это сделали, но никаких изменений не последовало, в конечном счете вам понадобится новый сайт.

Могут ли навредить конкуренты?

До Google Penguin было много разговоров на эту тему. После него, кажется, все стало местами даже хуже, чем было. Дэнни отмечает, что видел много постов о том, что якобы многие сайты пострадали из-за действий конкурентов. Верно, Google нацелился на некоторые схемы линкбилдинга. И многие получили от Google уведомления о том, что на их сайтах замечены "искусственные" или "неестесственные" ссылки. В итоге сайты потеряли трафик. Это должно привести к понимаю, что плохие ссылки лишь вредят сайтам. Но, как справедливо заметил Дэнни, это не новое веяние, не новости про "плохое" SEO. Эта тенденция наблюдается уже несколько лет и это снова стало большой проблемой.

В Google отмечают, что по факту довольно сложно навредить другим сайтам. В частности, плохие ссылки, которые ведут на хорошие сайты, как и другие подобные действия, могут считаться попыткой инфицировать сайт. Но у хороших сайтов есть антитела - хорошее перевешивает плохое. Каттс утверждает, что "было проделано огромное количество работы, чтобы убедиться, что один человек не может навредить другому". Большая часть тех 700 000 сообщений, отправленных сотрудниками Google веб-мастерам ранее в этом году, оказались вовсе не про "плохие" ссылки. И не были они отправлены внезапно в один день. Скорее всего, многие сайты получили штрафы как вручную, так и алгоритмически за какой-то промежуток времени.

Конечно, новые предупреждения поступают и сегодня. Это напоминает про ситуацию Dan Thies. Ходят слухи, что его сайт кто-то пытался выставить "в плохом свете" - якобы, он практикует "плохое" SEO. Он получил сообщение о том, что замечены искусственные ссылки, которые ведут на его сайт. Его сайт потерял позиции. Не является ли это доказательством, что такая тактика работает? Но Thies сообщил Салливану, что сайт потерял позиции вследствие изменений на сайте - а именно: накануне он убрал сквозную ссылку, которая вела на главную страницу. Когда он вернул её, вернулись и позиции. При этом поисковый трафик не ухудшался. Это идет вразрез убеждению, что такие действия могут угрожать чьему-либо сайту. Если бы это работало, то было бы достаточно пометить чужой сайт как спам - и он бы сразу "падал". Так что же про те ссылки? Thies считает, что это была неудачная попытка "черного" SEO. Также он утверждает, что отправил три запроса на пересмотр и каждый раз получал сообщения о том, что спам не замечен. Предупреждение было получено, сайт в итоге пострадал - но вовсе не потому, о чем шла речь в предупреждении. Дэнни попросил Мэтта Каттса прокомментировать эту ситуацию, но он отказался. Он сказал, что предупреждение - в каком-то роде предвестник "падения" сайта. Если веб-мастер быстро отреагирует, он может предотвратить это.

Решение проблемы

Дэнни ожидает и дальше муссирование темы про "черное" SEO, ведь многие и дальше будут уверены, что это - главная проблема. Когда проще всего купить ссылок - легко видеть в этом зло. Конечно, история Thies и масса подобных - например, о том, как внезапно появились 24 000 ссылок, которые ведут на чей-то сайт, вызывают опасения. (Во второй стории предупреждение поступило после падения сайта. Повлияли ли те SEO-ссылки или что-либо другое? В общем, сложно сказать потому, что не сказано, что именно за сайт был). Чтобы еще больше запутать: некоторые сайты из тех, что потеряли трафик после внедрения Penguin, вообще не являются жертвами "инквизиции". В то же время Google негативно реагирует на ссылки, которые появились с целью повлиять на ранжирование. Если сайт жестко зависел от этих ссылок, конечно, он в итоге пострадал. Дэнни видел множество людей, которые хотели бы отмежевать ссылки, которые ведут на их сайты. В Google отказались от комментариев о добавлении такой возможности. Конечно, Салливан не советует этого ждать, если сайт уже пострадал из-за нового алгоритма. Лучше сделать все, чтобы почистить сайт.

Одно хорошее предположение гласит, что Google не наказывает за плохие ссылки, которые ведут на сайты. Алгоритм игнорирует ссылки, не позволяя им как-либо повлиять на ранжирование, и не наказывает из-за них сайты. Более того, "черное" SEO - не то, ради чего этот алгоритм был разработан. Наиболее вероятно, что пострадавшие сайты были попросту заспамлены.

И под конец советы от Дэнни Салливана: — нужно почистить страницы сайта от спама, — удалить "плохие" ссылки, — подождать следующего апдейта и посмотреть, вернутся ли позиции. В случае, если не вернутся, нужно почистить сайт еще тщательнее или создать новый. Если вы уверены, что сайт пострадал несправедливо, напишите письмо в тех. поддержку с подробными объяснениями. Вот тут, кстати, список скрытых ссылок, которые находятся в плагинах WordPress. Если вы используете какой-то из этих плагинов и там есть скрытые ссылки - это вам ничем не грозит. В первую очередь, нужно строго посмотреть на сайт. Плохие ссылки всегда легко найти, если сайт замешан в спам-сетях.

И уж точно обнаружение сайтов, которых не тронул апдейт и жалобы на них - это не решение проблемы, если ваш сайт уже попал под фильтр.

От себя добавим, что довольно странно выглядят два противоречащих друг другу утверждения о том, что Google не учитывает плохие ссылки и игнорирует их, а также что позиции и трафик упадут, если на вас стоят спамные ссылки. Да и запрос о пересмотре сайта практически не работает. У нас есть пример, когда было отправлено 4-5 запросов на пересмотр, были убраны все ссылки, которые только возможно было убрать, было отправлено письмо о том, что "больше ничего убрать не можем" (есть такое условие в письме-предупреждении от Google). И всё безрезультатно. Все так же приходят письма о том, что, мол, мы видим искусственные ссылки на ваш сайт, уберите. Процесс цикличен. Порой кажется, что в Google заблудились в собственных алгоритмах, если даже советуют создавать новый сайт и бросать старый.

Комментарии (6)

  1. 0
    5 лет назад

    Если гугл так часто начал говорить о создании нового сайта, значит скоро появится инструмент от Googl'a по созданию сайтов, которые якобы будут изначально идеально оптимизированы и все такое.

    • 0
      kostyll
      5 лет назад

      интересная мысль по созданию сайтов от гугла. Если сделают, то гугл мозг №1!

    • 1
      kostyll
      5 лет назад

       гоша не заинтересован в идеальноотимизированных сайтах. Все чего он хочет это продавать больше рекламы.

  2. 0
    5 лет назад

    Да и такой инструмент уже давно есть - WP.

    • 0
      Сисяндр
      5 лет назад

      В нем много что нужно еще допиливать, чтобы он назывался таковым :)

      • 0
        Shark
        5 лет назад

        к сожалению не помню названия.. но пару лет назад я пробовал один такой сервис, и отложилось в памяти что он как то связан с гуглом.. визуально/по смыслу интерфейс похож на яндекс, конечно другой.. но шаблоны сайтов, "seo моменты"
        там были,  и "прикрутить свой домен" можно было..  

Чтобы оставить комментарий, необходимо авторизироваться

Подписаться

на самую полезную рассылку по интернет-маркетингу

Самое

обсуждаемое популярное читаемое