SEO

Как провести контент-аудит сайта — пошаговое руководство

430
19

Как понять, что проект нуждается в новых текстах, а того, что написала девочка с биржи за два косаря, недостаточно для счастья читателя и выхода сайта на первые позиции? Проведите контент-аудит. Прочитав этот текст до конца, вы узнаете как.

  1. Как найти все страницы без текстов?
  2. Как проверить, есть ли анализируемые страницы в индексе поисковой системы?
  3. Как проанализировать спрос?
  4. Как провести анализ входящего трафика на страницы фильтров?
  5. Как найти страницы с текстами, которые нуждаются в доработке?
  6. Как проверить тексты на сайте?
  7. Как доработать старые тексты?
  8. Выводы

Как найти все страницы без текстов?

Речь о всех страницах, включая разделы, категории, подкатегории, страницы фильтров. Если сайт небольшой, страницы без текстов можно найти вручную. В других случаях лучше использовать Netpeak Spider.

Для начала выделим потенциально важные типы страниц — разделы/категории/подкатегории.

Например:

Страницы подкатегории

С помощью XPath (XML Path Language — язык запросов к элементам XML-документа) спарсим все аналогичные типы страниц. Читайте подробно, как провести парсинг (или скрапинг) сайта.

Находясь на главной странице, кликаем правой кнопкой мыши по первому разделу и нажимаем «Просмотреть код»:

Находясь на главной странице, кликаем правой кнопкой мыши по первому разделу

Находим блок со всеми URL-адресами разделов, категорий, подкатегорий:

Находим блок со всеми URL-адресами разделов, категорий, подкатегорий

Копируем путь к этому блоку:

Копируем путь к этому блоку

Чтобы спарсить только ссылки, к результату нужно добавить //@href, то есть в итоге получается:

//*[@id="main-nav-menu-list"]//@href

Это и есть наш XPath, его нужно сохранить. Для проверки корректности результата можно использовать браузерное расширение XPath Helper в Chrome.

Теперь можно скопировать список всех URL:

Теперь можно скопировать список всех URL

И почистить список от дублей и лишних страниц. Например, нужно удалить URL других сайтов:

Например, нужно удалить URL других сайтов

Теперь необходимо найти XPath для текстов на всех страницах, так как он может быть разным для отдельных типов страниц.

В зависимости от типа страницы, путь может меняться, поэтому нужно проверить все страницы.

Для этого открываем Netpeak Spider и выбираем способ сканирования «По списку URL»:

Для этого открываем Netpeak Spider и выбираем способ сканирования «По списку URL»

Добавляем XPath в настройки:

Добавляем XPath в настройки

Добавляем список наших URL и запускаем сканирование:

Добавляем список наших URL

и запускаем сканирование

В самом крайнем столбике (справа) будет выводиться статус присутствия текста на странице:

В самом крайнем столбике (справа) будет выводиться статус присутствия текста на странице

После того как все страницы будут просканированы, можем выгрузить все страницы без текстов, выполнив сортировку. Страницы без текстов отмечены нулем:

Страницы без текстов отмечены нулем

Также можно воспользоваться фильтром:

Также можно воспользоваться фильтром

Важно: все анализируемые страницы должны возвращать код ответа 200.

Допустим, в списке встретились URL-адреса с редиректами:

Допустим, в списке встретились URL-адреса с редиректами

В таком случае укажите конечные URL и пересканируйте страницы заново:

укажите конечные URL и пересканируйте страницы заново

Как проверить, есть ли анализируемые страницы в индексе?

Необходимо убедиться, что анализируемые страницы есть в индексе поисковых систем. Если поисковик уже добавил страницу в индекс, то с большей вероятностью будет ее ранжировать в результатах поиска.

Отмечу, что описанный в данном разделе метод подходит для страниц фильтров и других посадочных под средне- и низкачастотные запросы.

Откроем Netpeak Checker и добавим туда список наших адресов:

Откроем Netpeak Checker и добавим туда список наших адресов

Выбираем: «Google SERP» — «Индексация»:

Выбираем «Google SERP» — «Индексация»

Берем в работу страницы со статусом «True», со статусом «False» — отбрасываем:

Берем в работу страницы со статусом «True», со статусом «False» — отбрасываем

Со страницами, которых нет в индексе, мы также будем работать. Просто на данном этапе это не в приоритете, к ним можно вернуться позже.

Важно учитывать индивидуальные особенности каждого сайта. То есть причин плохой индексации может быть множество. Например, неуместное использование метатега <meta name="robots" content="noindex"/> , HTTP заголовок X-Robots-Tag: noindex, неверно указанные директивы в файле robots.txt, низкое качество контента на странице, высокий уровень вложенности и так далее.

Как проанализировать спрос?

Метод не очень точный, но для быстрого анализа подойдет.

Открываем Netpeak Checker, выбираем параметры: «On-Page» — «значение h1» и выгружаем все заголовки h1 наших страниц:

Как проанализировать спрос

Включаем сканирование и копируем все заголовки h1:

Включаем сканирование и копируем все заголовки h1

Пробиваем частотность с помощью Планировщика ключевых слов Google. Чтобы ключи были более коммерческими, добавим в начало фразы «buy».

Важно анализировать частотность на вкладке «Планирование бюджета и получение прогнозов». При этом необходимо указывать ключевые слова в точном соответствии, добавив квадратные скобки для ключевых фраз:

необходимо указывать ключевые слова в точном соответствии, добавив квадратные скобки для ключевых фраз

Экспортируем данные и удаляем фразы без частотностей. Оставляем только нужные столбцы, как на картинке:

Экспортируем данные и удаляем фразы без частотностей

После этого сопоставляем заголовки с соответствующими URL-адресами — можно использовать функцию vlookup в таблицах Google.

То есть берем выгруженный список URL-адресов и заголовков h1:

То есть берем выгруженный список URL-адресов и заголовков h1

Удаляем «buy» (c пробелом) из списка фраз KeywordPlanner, нажав сочетание клавиш «Ctrl +H» и выбрав дипазон нужного столбца:

Удаляем «buy» (c пробелом) из списка фаз KeywordPlanner

Далее на нужной вкладке в столбце «Avg. Monthly Searches» прописываем формулу:

=VLOOKUP(B2;'Keyword Planner '!$A$2:$B$172;2;0)

Протягиваем ее вниз и получаем соответствие и частотности искомых ключевых фраз.

Чтобы отсортировать данные по частотности, выделяем столбец с частотностями, нажимаем сочетание клавиш «Сtrl+С» и вставляем столбец на то же место, нажав «Сtrl+Shift+V». Так мы переведем значения в обычный формат.

После этого выделяем столбец с частотностями и выбираем в меню «Данные» — «Сортировать лист по столбцу C, Я-A»:

После этого выдеялем столбец с частотностями и выбираем в меню «Данные — Сортировать лист по столбцу C, Я-A»

Получаем таблицу, которая дает ориентировочное представление, какие группы товаров более востребованные.

В Яндексе приоритетные страницы можно быстро определить с помощью Яндекс.Вебмастера. Следует перейти на «Индексирование» — «Важные страницы»:

В Яндексе приоритетные страницы можно быстро определить с помощью Яндекс.Вебмастера

Как провести анализ входящего трафика на страницы фильтров?

Еще один способ узнать, для каких страниц нужны тексты — проанализировать количество органического трафика, приходящего на конкретную страницу. Для анализа можно использовать Google Analytics или Яндекс.Метрику.

Смотрим количество органического трафика со страниц входа. В Google Analytics для этого нужно перейти на: «Источник трафика» — «Каналы» — «Organic Search» — «Страницы входа».

В Яндекс.Метрике нужно пройти по пути: «Стандартные отчеты» — «Содержание» — «Страницы входа»:

В Яндекс.Метрике нужно пройти по пути

Затем следует выбрать сегмент «Поисковый трафик»:

Затем следует выбрать сегмент «Поисковый трафик»

Пример страниц фильтров с достаточно хорошим трафиком:

Пример страниц фильтров с достаточно хорошим трафиком

Конечно, не для всех страниц нужен текстовый контент, но проведя такой анализ, вы получите готовый полигон для экспериментов с текстами.

Как найти страницы с текстами, которые нуждаются в доработке?

Проанализируем динамику трафика.

В Google Analytics переходим по пути: «Источник трафика» — «Каналы» — «Organic Search» — «Страницы входа». Выбираем анализируемый период и сравнить его с предыдущим годом:

Выбираем анализируемый период и сравнить его с предыдущим годом

Замечаем страницы, трафик на которые сильно просел:

Замечаем страницы, трафик на которые сильно просел

Также смотрим на изменение показателей отказов, страниц за сеанс, средней длительности сеанса  Все это — аргументы в пользу оптимизации контента данных страниц.

Если вам ближе Яндекс.Метрика, следуйте по пути: «Стандартные отчеты» — «Содержание» — «Страницы входа». Затем выбираем период и сравниваем.

Важно: анализ будет корректен, только если URL-адрес страницы за выбранный период не менялся.

Как проверить тексты на сайте?

Приоритетные страницы, для которых нужны хорошие тексты, определили. Допустим, что на некоторых из них тексты уже есть. Как проверить их качество?

Уникальность текстов должна быть не менее 90%. Можно использовать, например, Advego Plagiatus. Если вы делаете рерайт или темы ваших статей очень похожи, также проверяйте тексты на сайте на схожесть между собой. Вот неплохой сервис: http://utext.rikuz.com.

Допустим, вы делаете описания для похожих моделей телефонов. При трех словах в шингле (фрагменте текста, с которым работает программа проверки уникальности), показатель схожести должен быть не более 10%:

При трех словах в шингле (фрагменте текста, с которым работает программа проверки уникальности), показатель схожести должен быть не более 10

Спамность (плотность) ключевых слов в тексте должна быть не более 3%. Это условный показатель, но на него можно ориентироваться. Проверить вхождение ключевых слов легко с помощью сервиса istio.

Еще один отличный сервис — «Семён-Ядрён» (для регистрации понадобится яндексовская почта). С его помощью удобно проверять работу копирайтеров:

  1. В колонке «Фразы для поиска» добавляем ключевые фразы, которые вы указывали в техзадании для копирайтера.
  2. В колонку «Текст или URL:» вставляем написанный текст или адрес страницы.
  3. Получаем список ключевых слов в тексте.

Еще один отличный сервис — «Семён-Ядрён» (для регистрации понадобится яндексовская почта)

Оптимальный размер текстов, конечно, отличается от ниши к нише, но недавний эксперимент Алексея Рылко доказывает, что роботы поисковых систем предпочитают тексты объемом более 150 слов. Короткая выдержка из исследования: «Страницы, которые имеют меньше 150 слов текста, краулятся роботом реже всего. А страницы с текстами свыше 1200 слов крауляется в 89% случаев».

Если хотите лучше понять, какого объема тексты вам нужны, можно вручную посчитать объем текстов на релевантных страницах из ТОП-10. Затем рассчитать среднее количество символов и готовить тексты побольше.

Но это, естественно, слишком трудоемкий процесс, если у вас большой проект. В данном случае лучше использовать megaindex — сервис анализирует ТОП-10 по Яндексу/Google, подсчитывая средний объем текстов по заданному региону.

Оптимальный размер текстов, конечно, отличается от ниши к нише, но недавний эксперимент Serpstat доказывает, что роботы поисковых систем предпочитают тексты объемом более 150 слов

Этот сервис бесплатный, а вот аналог от Seolib обойдется в копеечку.

Алгоритм действий аналогичен:

  1. Нужно добавить анализируемую ключевую фразу.
  2. Выбрать регион.
  3. Поставить галочку рядом со строкой «Объем текста в словах и символах».
  4. Поставить галочку рядом со строкой «Всю страницу».

Поставить галочку рядом со строкой «Объем текста в словах и символах»

Результат:

Поставить галочку рядом со строкой «Всю страницу»

Еще одна программа — Ultimate Keyword Hunter — позволяет анализировать объем контента по ТОПу.

Еще одна программа — Ultimate Keyword Hunter — позволяет анализировать объем контента по ТОПу

Единственный минус — нельзя выгрузить данные об объеме символов.

Инструмент анализа текстовой релевантности от Serpstat в частности позволяет узнать необходимый размер текста на основании анализа конкурентов. Кроме того, сервис предоставляет данные о релевантности и коэффициенте штиля анализируемых ключевых фраз и дает рекомендации по использованию важных ключевых слов в title, h1 и самом тексте.

Также хорошие результаты дает совмещение двух инструментов: Key Collector (для Яндекса, при анализе до 50 фраз, можно использовать arsenkin.ru) и Netpeak Checker.

Алгоритм действий:

  1. Добавляем максимально релевантные ключевые фразы в Key Collector:

Добавляем максимально релевантные ключевые фразы в Key Collector

  1. Определяем регион:

максимально релевантные ключевые фразы в Key Collector

  1. Идем по пути: «SERP» — «Получить данные для ПС Google»:

Идем по пути «SERP» — «Получить данные для ПС Google»

  1. Экспортируем данные:

обавляем в Netpeak Checker список найденных URL из ТОПа

Получается такой отчет.

  1. Добавляем в Netpeak Checker список найденных URL из ТОПа.

Важно, чтобы URL были конечные, то есть возвращали код ответа 200, иначе Checker не выгрузит количество символов.

  1. Напротив строки «Количество символов» ставим галочку:

Ставим галочку «количество символов» напротив соответствующей строки

Получаем такой отчет.

После этого следует сопоставить полученные данные с нашим списком URL-адресов по ТОПам.

В доксе сопоставим основной список ключей и URL с количеством символов. Для этого используем все ту же функцию vlookup в таблицах Google.

В доксе сопоставим основной список ключей и URL с количеством символов

Посчитаем среднее количество символов в ТОП-10 по каждому запросу — для этого нужно использовать функцию =AVERAGE()

Посчитаем среднее количество символов в ТОП-10 по каждому запросу

Чтобы сосчитать для всех строк, нужно выделить первые десять строк, а затем протянуть курсор вниз до конца списка.

Чтобы сосчитать для всех строк, нужно выделить первые десять строк, а затем протянуть курсор вниз до конца списка

Так же можно находить самые большие тексты и стараться сделать их еще длиннее.

С помощью сочетания клавиш Ctrl+H удаляем из ключевых фраз «buy» с пробелом.

Удаляем из ключевых фраз «buy» с пробелом, с помощью сочетания клавиш Ctrl+H

Затем копируем все полученные данные в таблицу с общим списком URL категорий (вставлять данные следует с помощью CTRL+SHIFT+V). И опять с помощью функции =VLOOKUP сопоставляем среднее количество символов с названиями категорий:

И опять с помощью функции =VLOOKUP сопоставляем среднее количество символов с названиями категорий

В итоге получается такая таблица.

Оформление текста так же важно для оптимизации страницы. Следует учесть технические рекомендации:

1. Не должно быть слишком много ключевых слов, выделенных полужирным (тегами <strong>, <b>):

Оформление текста так же важно для оптимизации страницы

2. В тексте присутствуют подзаголовки h1, h2...h6.

3. Все списки размечены корректно. Пример некорректной разметки (без <ul> и <ol>):

Все списки размечены корректно

4. Текст желательно не скрывать:

Текст желательно не делать скрытым

Скрытый текст весит меньше для поисковых роботов Google

Как доработать старые тексты?

Если у вас информационный ресурс, алгоритм реанимации контента хорошо представлен в этой презентации:

Часть этих советов представлена в материале «Что делать со старыми статьями».

Дооптимизация текстов на страницах товаров

Повышением информативности страниц товаров на сайтах интернет-магазинов обычно занимаются в последнюю очередь (или вообще за это не берутся). Часто оправданно, так как описания одинаковых товаров на сайтах похожи друг на друга.

Чтобы сделать уникальные описания, добавьте к названию товара «отзывы» и введите полученную комбинацию в поисковик. Затем выберите страницы с отзывами. Их легко найти по микроразметке:

Чтобы сделать уникальные описания, добавьте к названию товара «отзывы» и введите полученную комбинацию в поисковик

Скопируйте полностью все отзывы со страницы и вставьте их в сервис istio.

После этого нужно найти тематические слова, которые часто встречаются в тексте описания:

После этого нужно найти тематические слова, которые часто встречаются в тексте описания

На сайте с отзывами ищем предложения/вопросы с этими словами:

На сайте с отзывами ищем предложения-вопросы с этими словами

Видим, что многие интересуются вопросом расширения оперативной памяти на ноутбуке. Соответственно, в описании товара на сайте добавляем информацию о возможностях расширения оперативной памяти.

Отзывы можно использовать и для определения ключевых достоинств и недостатков товара/услуги. Отличная площадка для этого — Яндекс.Маркет:

1. Находим отзывы о товаре на сайте.

2. Копируем весь текстовый контент из графы «Достоинства»:

Копируем весь текстовый контент из графы «Достоинства»

3. Определяем частотность слов/фраз и составляем список всех достоинств/недостатков продукта.

Наконец, используйте мощь пользовательского контента. Бесплатная идея:

Наконец, используйте мощь пользовательского контента

Слишком банально? Ok. Как насчет того, чтобы выводить на странице товара блок с превью информационных статей по заданной теме вместо стандартного текста:

Как насчет того, чтобы выводить на странице товара блок с превью информационных статей по заданной теме вместо стандартного текста

Или, например, показывать отзывы на страницы категорий:

Или, например, показывать отзывы на страницы категорий

На самом деле все средства хороши, чтобы посетители вашего сайта как можно быстрее нашли желаемое. Так что главный совет: пишите так, чтобы читатели были счастливы.

Выводы

1. Создавать простыни текста важно далеко не во всех нишах и не для каждого бизнеса. Изучайте тематику, анализируйте старые тексты. Легче переписать и дооптимизировать их, чем подготовить ворох новых материалов и неожиданно попасть под «Баден-Баден» из-за некачественных старых статей. В результате вы потратите гораздо больше времени для поиска текстов, из-за которых сайт оказался под санкциями.

2. При поиске страниц, для которых нужны тексты, используйте автоматизированные инструменты. Это значительно сэкономит время.

3. Периодически проводите дооптимизацию существующих статей: исправляйте ошибки, следите за структурой, спамностью, дополняйте текст упущенными ключевыми фразами.

4. Ищите альтернативные способы создания контента: проводите статейные конкурсы, предлагайте скидки за отзывы.

Думаете, на этом контент-аудит завершен? Как бы не так: впереди еще составление техзадания для копирайтеров и комплекс мероприятий по анализу сети для выявления плагиаторов и защиты от них. Но это уже темы для отдельных статей.

Обнаружили ошибку? Выделите ее и нажмите Ctrl + Enter.

Комментарии (0)

Чтобы оставить комментарий, необходимо авторизироваться

Подписаться

на самую полезную рассылку по интернет-маркетингу

Самое

обсуждаемое популярное читаемое