Блог про интернет-маркетинг для бизнеса

SEO

13 неочевидных и практически применимых SEO-фишек — круглый стол 8P 2017

540
3
6
62

«Неочевидные и практически применимые фишки» — формат круглого стола, когда один из спикеров рассказывает мини-кейс, а зал голосует по двум пунктам: была ли идея новой и полезной для развития бизнеса. Если фишка набирает больше 50% голосов, она заносится в общий список.

На прошедшей 15 июля 8P был не один, а целых три круглых стола. Фишки о развитии стартапов и мобильных приложений мы уже перечислили. Пришло время для озвученных и выбранных идей по поисковому продвижению.

Фишками делились Тарас Гуща (SEO.UA), Роман Зорба (Landing Birds), Дмитрий Иванов (Иванов SEO), Виктор Карпенко (SeoProfy), Виталий Кравченко (Webline Promotion), Иван Кутас (Netpeak), Дмитрий Мазурян (Tonti Laguna), Олег Саламаха (Serpstat), Владимир Сахаров (SalesDoubler), Виталий Стеценко (Initium Group), Алексей Чекушин (just-magic.org), Дмитрий Шахов (REMARKA).

1. Несколько главных страниц

Общеизвестно, что главную страницу продвигать легче и запросов по главной в поиске всегда больше. Поэтому стоит делать несколько главных страниц. Добавленные размещать на поддоменах. С точки зрения структуры ничего не меняется, но сайт легко выходит в топ. Главное — правильно настроить поддомены.

В одном из кейсов Алексея Чекушина этот метод отлично сработал в нише недвижимости.

Также с помощью нехитрых приемов с URL-адресом можно сделать так, что роботы поисковых систем будут видеть несколько главных страниц. Для «создания» второй главной страницы следует поставить ссылку на нее с помощью «/#» и canonical. Так роботы увидят оба анкора.

Этот метод также применяется, когда со страницы A нужно поставить две и больше ссылки на страницу Б.

2. Быстрая индексация новых страниц

Если ежедневно на сайте появляется по 100-200 новых страниц, для более быстрого попадания в индекс достаточно разместить их в футере главной страницы. В качестве анкоров следует брать тайтлы страниц.

По словам Дмитрия Шахова, Google к такому методу с условным названием «в поддон навалили» относится вполне терпимо.

3. Ускоряем индексацию с помощью браузеров

Во-первых, для автоматизации процесса (если страниц много), следует установить расширение iMacros. Во-вторых, следует открыть Chrome и массово загнать новые страницы в iMacros — чтобы программа сама открывала их в Chrome. Так страницы быстрее попадут в индекс Google.

Для Яндекса действует аналогичное решение через Яндекс.Браузер.

4. Секундомер с обратным отсчетом времени до понижения цены

На странице с описанием товара или текстом устанавливать секундомер, который каждые N секунд показывает понижение цены товара на определенную сумму. Второй вариант реализации секундомера — настроить его так, чтобы на табло показывалось, сколько секунд осталось до понижения цены на товар. При этом, конечно, цена зафиксирована и ниже определенного порога никогда не опустится.

Метод отлично работает для улучшения поведенческих факторов сайта.

Больше идей по улучшению поведенческих факторов ищите в списке фишек 8P 2016.

5. Как обмануть Минусинск от Яндекса

Интересный факт: под фильтр Минусинск не попадают сайты, которые проставляют ссылки на картинки. Даже в достаточно большом количестве. В частности, на картинках сейчас хорошо работают дорвеи.

6. Размещаем «хлебные крошки» в разных местах страницы

Чтобы повысить релевантность, в первый элемент хлебной крошки можно вставить запросы главной страницы.

Если не получается изменить главные хлебные крошки, можно вставить еще одни хлебные крошки внизу страницы. Но URL ссылки не должен дублироваться на одной странице. Чтобы этого избежать, можно добавить хеш к URL или вставить ссылку, для которой канонической является нужная страница.

7. Как победить текучку в отделе арбитража трафика

Часто, освоив все необходимые технологии, сотрудники из отдела арбитража трафика просто увольняются, так как понимают, что выгоднее работать дома. В качестве варианта решения вопроса — позволить сотрудникам пить пиво на рабочем месте.

Отвечаю на немой вопрос: да, эту фишку признали новой и полезной для своих компаний более 150 человек в зале.

позволить сотрудникам пить пиво на рабочем месте

8. Анализируем конкурентов с помощью фейковых заказов

Часто заказы из интернет-магазинов приходят со сквозным номером. Сделав фейковый заказ в начале и в конце месяца, можно подсчитать, сколько продаж было у конкурента.

На Западе все еще проще — при заказе на сайте европейские магазины обязаны высылать инвойсы со сквозным номером заказа.

9. Оптимизируем метатеги на страницах пагинации для региональной выдачи

Обычно страницы пагинации не оптимизируют, или оптимизируют автоматически — при этом проставляются такие же метатеги, как у главной страницы, плюс «_ страница 2». Но если сайт интернет-магазина ориентируется на продажи в нескольких городах, страницы пагинации можно оптимизировать под каждый из них, проставляя артикулы нужных топонимов в тайтле и метатегах. Например, вторую страницу пагинации оптимизируем под Чернигов, третью под Полтаву и так далее.

На этом сайте можно посмотреть, как на отдельных страницах пагинации оптимизированы тайтлы.

Оптимизируем метатеги на страницах пагинации

10. Используем бренд и слова «официальный сайт» в метатегах

Если интернет-магазин — просто дистрибьютор, а не официальный сайт бренда, возникает вопрос охвата запросов вроде «телефон Xiaomi официальный сайт». Для этого в метатегах сайта (и на агрегаторах) можно прописать «Официальный сайт Xiaomi — [название сайта или бренда]». Ту же операцию стоит проделать с тайтлом карточки товара.

То есть никто не претендует на звание официального сайта, а нужные ключевые слова расставлены.

11. Проверяем, не насолил ли предыдущий подрядчик

Обычно страницы от индексации закрывают в robots.txt, метатегом noindex, или же используют атрибут rel=canonical. Но страницу можно также закрыть в http-заголовках (кодах ответа сервера). Для этого используют тег x-robots-tag http header.

Как это выглядит:

страницу можно также закрыть в http-заголовках

Для этого используют тег x-robots-tag http header

Посмотреть наличие или отсутвие этого тега можно только с использованием специальных плагинов или сервисов, например, Http Headers. Из-за того, что тег редко используют, недовольный подрядчик может закрыть сайт бывшего клиента, и тот потом не будет знать, почему сайт не индексируется.

Google предлагает отдельную инструкцию по использованию данного тега.

12. Как быстро найти ошибки на сайте

Например, программист случайно закрыл важные страницы от индексации с помощью <meta name='robots' content='noindex'>.

Мы устанавливаем скрипт в Google Tag Manager, который проверяет meta robots на нужных нам страницах (страницы задаем в триггерах). Если скрипт обнаруживает noindex, то шлет url и время обнаружения в таблицу Google или другую выбранную базу данных.

В таблице Google, куда отправляются данные, есть скрипт, который по расписанию (например, раз в час) проверяет наличие url. Если данные появились, шлет на почту предупреждение.

Читайте подробно о том, как это работает.

13. Учим родных покупать трафик

Учим родных покупать трафик

Об одном нестандартном методе борьбы с текучкой в отделе арбитража трафика мы уже рассказали. Второй способ — научить родных основам медиабаинга. По словам одного из спикеров круглого стола: «У меня мама зарабатывает на арбитраже $5 000 в день».

Ваши сотрудники никуда не денутся, если они — ваша семья.

Да, этот метод также оказался новым и практически применимым для более чем половины участников круглого стола.


P.S.: Надеюсь, здоровое чувство юмора, которое всегда присуще читателям блога, поможет отличить обязательные для внедрения в своем бизнесе фишки от ироничных. Все-таки конференция проходила в Одессе.

Комментарии (17)

  1. 0
    месяц назад

    Есть возможность показать пример реальной реализации данного пункта? - "Размещаем «хлебные крошки» в разных местах страницы"

    А то если сам не особо понял и дал задание прогеру - то можно и напартачить у себя на сайте)
  2. 4
    месяц назад

    Пункт «11. Проверяем, не насолил ли предыдущий подрядчик» про X-Robots-Tag – это чисто область проверки Netpeak Spider: мы специально реализовали качественную проверку всех правил индексации типа:

    – robots.txt;

    – Canonical (в HTTP-заголовках и в блоке head на самой странице);

    – Refresh (аналогично, и в HTTP-заголовках, и в блоке head + дополнительно учитываем, нет ли рефреш-редиректа);

    – X-Robots-Tag (как раз то поле в HTTP-заголовках, о котором было сказано в самой фишке);

    – Meta Robots (в блоке head);

    – атрибут nofollow у ссылок.


    Советую попробовать, ибо при ручной проверке в браузере именно на этой странице каких-то правил может не быть и с индексацией всё будет в порядке, но в одном из разделов сайта всё-таки будут проблемы и вы снова будете гадать, почему же так ;)

  3. 0
    месяц назад
    Спасибо за статью. Много интересных идей.
  4. 0
    месяц назад

    А можете дать ссылку на пример реализации "нехитрых приемов с URL-адресом" в "1. Нескольких главных страниц"? 


    Не совсем понятно - почему за счет якорной ссылки(/#) на страницу, роботы поисковых систем будут видеть несколько главных страниц ?

    • 1
      Mark Babaev
      месяц назад

      Чистые примеры увидеть сложно. Тут только может показать тот, кто это реализовал.


      Тут важно понять принцип. Второй главной не будет. Будет эта же главная, но с другим адресом.
      И получаем одну главную, на которую ставим ссылки с анкором1. И вторую главную (#bla-bla), на которую ставим ссылки с анкором2.


      Что видят ПС?
      – Страница1. Адрес1. Анкор1.
      – Страница2. Адрес2. Анкор2.
      При этом Страница1=Страница2. 

      В идеальном мире: страница ранжируется по запросу "анкор1" и по запросу "анкор2". За счет каноникала в выдаче по этим двум запросам выводится Страница1.

      • 0
        Артём Меликян
        месяц назад

        Я просто где то год назад встречал близкий эксперимент (без изменения адреса, а только с изменением анкора):

        – Страница1. Адрес1. Анкор1.

        – Страница2. Адрес1. Анкор2.

        И в Yandex страница ранжировалась по двум запросам (про Google не помню).

        1.   Неужели к одному url привязывается только один анкор?

        2. И будет ли работать ваш метод, если такие ссылки будут проставлены с одной страницы (например  в меню один анкор, а в футере другой)

        3. Есть ли разница у Yandex и Google


        Заранее спасибо за ответ!


        • 0
          Mark Babaev
          месяц назад

          Вообще с этим методом многие могут не согласиться. Это вопрос отношения к ссылочному профилю.
          Кто-то ставит смело по 2 и больше ссылок с одной страницы. А кто-то не желает ставить больше 1 ссылки с одного домена.
          В связи с этим ответы:
          1. Если мы говорим об акцепторе, можно привязывать много анкоров. И даже нужно.
          2. Можно попробовать, но зачем?
          3. Да. С Яндексом надо быть особо осторожным при работе со ссылками. Там как по минному полю. С Google всё хорошо, в худшем случае – ничего не произойдет. 

          • 0
            Артём Меликян
            месяц назад
            Вы не совсем меня поняли. Я имел ввиду внутреннюю перелинковку)
            • 0
              Mark Babaev
              месяц назад
              Внутренняя перелинковка это тема отдельного обсуждения, статьи и даже собственного отдельного блога с блекджеком:)
  5. 1
    месяц назад

    Не совсем понятно, как запись в метатегах:

    «Официальный сайт Xiaomi — [название сайта или бренда]»

    не претендует на звание официального сайта.


    Поясните пожалуйста.

    • 0
      Геннадий Белобров
      месяц назад

      На самом деле все зависит от фантазии.

      «Официальный сайт — site.com, а site.net продает этот товар в Чебоксарах». Даже включение «официальный сайт» в конце тайтла даст прирост релевантности.

      Эта фишка особенно хорошо работает на сайтах-агрегаторах. Если, допустим, у гостиницы сайт слабый, добавление данных ключевых слов на страницу гостиницы в агрегаторе позволит ранжироваться выше.


      • 0
        Георгий Рябой
        месяц назад
        В лучшей релевантности и ранжировании я даже не сомневаюсь. Вопрос в другом: что делать с претензией официального сайта к нам, ведь это в нашей стороны ложь?
        • 0
          Геннадий Белобров
          месяц назад
          То есть вы считаете, что употребления словосочетания «официальный сайт» в любом контексте и в любом текстовом окружении в метатегах ли, на странице ли — является нарушением авторских прав?
  6. 2
    месяц назад

    А говорили "Не палите никому эти фишки, ибо они перестанут быть фишками" ))) Пора делать закрытый раздел в блоге!

  7. 4
    месяц назад
    гифка с псом и пивом гипнотизирует)

Чтобы оставить комментарий, необходимо авторизироваться

Подписаться

на самую полезную рассылку по интернет-маркетингу

Самое

обсуждаемое популярное читаемое