Как провести контент-аудит сайта — пошаговое руководство
Как понять, что проект нуждается в новых текстах, а того, что написала девочка с биржи за два косаря, недостаточно для счастья читателя и выхода сайта на первые позиции? Проведите контент-аудит. Прочитав этот текст до конца, вы узнаете как.
- Как найти все страницы без текстов
- Как проверить, есть ли анализируемые страницы в индексе поисковой системы
- Как проанализировать спрос
- Как провести анализ входящего трафика на страницы фильтров
- Как найти страницы с текстами, которые нуждаются в доработке
- Как проверить тексты на сайте
- Как доработать старые тексты
- Выводы
Как найти все страницы без текстов
Речь о всех страницах, включая разделы, категории, подкатегории, страницы фильтров. Если сайт небольшой, страницы без текстов можно найти вручную. В других случаях лучше использовать Netpeak Spider.
Для начала выделим потенциально важные типы страниц — разделы/категории/подкатегории.
Например:
- раздел — https://www.newegg.com/Electronics/Store;
- категория — https://www.newegg.com/Cell-Phones/Category/ID-450?Tid=161569;
- подкатегория — https://www.newegg.com/Tablets/SubCategory/ID-2557?Tid=171661.
С помощью XPath (XML Path Language — язык запросов к элементам XML-документа) спарсим все аналогичные типы страниц. Читайте подробно,
Находясь на главной странице, кликаем правой кнопкой мыши по первому разделу и нажимаем «Просмотреть код»:
Находим блок со всеми URL-адресами разделов, категорий, подкатегорий:
Копируем путь к этому блоку:
Чтобы спарсить только ссылки, к результату нужно добавить //@href, то есть в итоге получается:
//*[@id="main-nav-menu-list"]//@href
Это и есть наш XPath, его нужно сохранить. Для проверки корректности результата можно использовать браузерное расширение XPath Helper в Chrome.
Теперь можно скопировать список всех URL:
И почистить список от дублей и лишних страниц. Например, нужно удалить URL других сайтов:
Теперь необходимо найти XPath для текстов на всех страницах, так как он может быть разным для отдельных типов страниц.
В зависимости от типа страницы, путь может меняться, поэтому нужно проверить все страницы.
Для этого открываем Netpeak Spider и выбираем способ сканирования «По списку URL»:
Добавляем XPath в настройки:
Добавляем список наших URL и запускаем сканирование:
В самом крайнем столбике (справа) будет выводиться статус присутствия текста на странице:
После того как все страницы будут просканированы, можем выгрузить все страницы без текстов, выполнив сортировку. Страницы без текстов отмечены нулем:
Также можно воспользоваться фильтром:
Важно: все анализируемые страницы должны возвращать код ответа 200.
Допустим, в списке встретились URL-адреса с редиректами:
В таком случае укажите конечные URL и пересканируйте страницы заново:
Как проверить, есть ли анализируемые страницы в индексе
Необходимо убедиться, что анализируемые страницы есть в индексе поисковых систем. Если поисковик уже добавил страницу в индекс, то с большей вероятностью будет ее ранжировать в результатах поиска.
Отмечу, что описанный в данном разделе метод подходит для страниц фильтров и других посадочных под средне- и низкочастотные запросы.
Откроем Netpeak Checker и добавим туда список наших адресов:
Выбираем: «Google SERP» — «Индексация»:
Берем в работу страницы со статусом «True», со статусом «False» — отбрасываем:
Со страницами, которых нет в индексе, мы также будем работать. Просто на данном этапе это не в приоритете, к ним можно вернуться позже.
Важно учитывать индивидуальные особенности каждого сайта. То есть причин плохой индексации может быть множество. Например, неуместное использование метатега <meta name="robots" content="noindex"/> , HTTP заголовок X-Robots-Tag: noindex, неверно указанные директивы в файле robots.txt, низкое качество контента на странице, высокий уровень вложенности и так далее.
Как проанализировать спрос
Метод не очень точный, но для быстрого анализа подойдет.
Открываем Netpeak Checker, выбираем параметры: «On-Page» — «значение h1» и выгружаем все заголовки h1 наших страниц:
Включаем сканирование и копируем все заголовки h1:
Пробиваем частотность с помощью Планировщика ключевых слов Google. Чтобы ключи были более коммерческими, добавим в начало фразы «buy».
Важно анализировать частотность на вкладке «Планирование бюджета и получение прогнозов». При этом необходимо указывать ключевые слова в точном соответствии, добавив квадратные скобки для ключевых фраз:
Экспортируем данные и удаляем фразы без частотностей. Оставляем только нужные столбцы, как на картинке:
После этого сопоставляем заголовки с соответствующими URL-адресами — можно использовать функцию vlookup в таблицах Google.
То есть берем выгруженный список URL-адресов и заголовков h1:
Удаляем «buy» (c пробелом) из списка фраз KeywordPlanner, нажав сочетание клавиш «Ctrl +H» и выбрав диапазон нужного столбца:
Далее на нужной вкладке в столбце «Avg. Monthly Searches» прописываем формулу:
=VLOOKUP(B2;'Keyword Planner '!$A$2:$B$172;2;0)
Протягиваем ее вниз и получаем соответствие и частотности искомых ключевых фраз.
Чтобы отсортировать данные по частотности, выделяем столбец с частотностями, нажимаем сочетание клавиш «Сtrl+С» и вставляем столбец на то же место, нажав «Сtrl+Shift+V». Так мы переведем значения в обычный формат.
После этого выделяем столбец с частотностями и выбираем в меню «Данные» — «Сортировать лист по столбцу C, Я-A»:
Получаем таблицу, которая дает ориентировочное представление, какие группы товаров более востребованные.
В Яндексе
Как провести анализ входящего трафика на страницы фильтров
Еще один способ узнать, для каких страниц нужны тексты — проанализировать количество органического трафика, приходящего на конкретную страницу. Для анализа можно использовать Google Analytics или Яндекс.Метрику.
Смотрим количество органического трафика со страниц входа. В Google Analytics для этого нужно перейти на: «Источник трафика» — «Каналы» — «Organic Search» — «Страницы входа».
В Яндекс.Метрике нужно пройти по пути: «Стандартные отчеты» — «Содержание» — «Страницы входа»:
Затем следует выбрать сегмент «Поисковый трафик»:
Пример страниц фильтров с достаточно хорошим трафиком:
Конечно, не для всех страниц нужен текстовый контент, но проведя такой анализ, вы получите готовый полигон для экспериментов с текстами.
Как найти страницы с текстами, которые нуждаются в доработке
Проанализируем динамику трафика.
В Google Analytics переходим по пути: «Источник трафика» — «Каналы» — «Organic Search» — «Страницы входа». Выбираем анализируемый период и сравнить его с предыдущим годом:
Замечаем страницы, трафик на которые сильно просел:
Также смотрим на изменение показателей отказов, страниц за сеанс, средней длительности сеанса Все это — аргументы в пользу оптимизации контента данных страниц.
Если вам ближе Яндекс.Метрика, следуйте по пути: «Стандартные отчеты» — «Содержание» — «Страницы входа». Затем выбираем период и сравниваем.
Важно: анализ будет корректен, только если URL-адрес страницы за выбранный период не менялся.
Как проверить тексты на сайте
Приоритетные страницы, для которых нужны хорошие тексты, определили. Допустим, что на некоторых из них тексты уже есть. Как проверить их качество?
Уникальность текстов должна быть не менее 90%. Можно использовать, например, Advego Plagiatus. Если вы делаете рерайт или темы ваших статей очень похожи, также проверяйте тексты на сайте на схожесть между собой. Вот неплохой сервис: https://utext.rikuz.com.
Допустим, вы делаете описания для похожих моделей телефонов. При трех словах в шингле (фрагменте текста, с которым работает программа проверки уникальности), показатель схожести должен быть не более 10%:
Спамность (плотность) ключевых слов в тексте должна быть не более 3%. Это условный показатель, но на него можно ориентироваться. Проверить вхождение ключевых слов легко с помощью сервиса istio.
Еще один отличный сервис — «Семён-Ядрён» (для регистрации понадобится яндексовская почта). С его помощью удобно проверять работу копирайтеров:
- В колонке «Фразы для поиска» добавляем ключевые фразы, которые вы указывали в техзадании для копирайтера.
- В колонку «Текст или URL:» вставляем написанный текст или адрес страницы.
- Получаем список ключевых слов в тексте.
Оптимальный размер текстов, конечно, отличается от ниши к нише, но недавний эксперимент Алексея Рылко доказывает, что роботы поисковых систем предпочитают тексты объемом более 150 слов. Короткая выдержка из исследования: «Страницы, которые имеют меньше 150 слов текста, краулятся роботом реже всего. А страницы с текстами свыше 1200 слов крауляется в 89% случаев».
Если хотите лучше понять, какого объема тексты вам нужны, можно вручную посчитать объем текстов на релевантных страницах из ТОП-10. Затем рассчитать среднее количество символов и готовить тексты побольше.
Но это, естественно, слишком трудоемкий процесс, если у вас большой проект. В данном случае лучше использовать megaindex — сервис анализирует ТОП-10 по Яндексу/Google, подсчитывая средний объем текстов по заданному региону.
Этот сервис бесплатный, а вот аналог от Seolib обойдется в копеечку.
Алгоритм действий аналогичен:
- Нужно добавить анализируемую ключевую фразу.
- Выбрать регион.
- Поставить галочку рядом со строкой «Объем текста в словах и символах».
- Поставить галочку рядом со строкой «Всю страницу».
Результат:
Еще одна программа — Ultimate Keyword Hunter — позволяет анализировать объем контента по ТОПу.
Единственный минус — нельзя выгрузить данные об объеме символов.
Инструмент анализа текстовой релевантности от Serpstat в частности позволяет узнать необходимый размер текста на основании анализа конкурентов. Кроме того, сервис предоставляет данные о релевантности и коэффициенте штиля анализируемых ключевых фраз и дает рекомендации по использованию важных ключевых слов в title, h1 и самом тексте.
Также хорошие результаты дает совмещение двух инструментов: Key Collector (для Яндекса, при анализе до 50 фраз, можно использовать arsenkin.ru) и Netpeak Checker.
Алгоритм действий:
- Добавляем максимально релевантные ключевые фразы в Key Collector:
- Определяем регион:
- Идем по пути: «SERP» — «Получить данные для ПС Google»:
- Экспортируем данные:
Получается такой отчет.
- Добавляем в Netpeak Checker список найденных URL из ТОПа.
Важно, чтобы URL были конечные, то есть возвращали код ответа 200, иначе Checker не выгрузит количество символов.
- Напротив строки «Количество символов» ставим галочку:
Получаем такой отчет.
После этого следует сопоставить полученные данные с нашим списком URL-адресов по ТОПам.
В документе сопоставим основной список ключей и URL с количеством символов. Для этого используем все ту же функцию vlookup в таблицах Google.
Посчитаем среднее количество символов в ТОП-10 по каждому запросу — для этого нужно использовать функцию =AVERAGE()
Чтобы сосчитать для всех строк, нужно выделить первые десять строк, а затем протянуть курсор вниз до конца списка.
Так же можно находить самые большие тексты и стараться сделать их еще длиннее.
С помощью сочетания клавиш Ctrl+H удаляем из ключевых фраз «buy» с пробелом.
Затем копируем все полученные данные в таблицу с общим списком URL категорий (вставлять данные следует с помощью CTRL+SHIFT+V). И опять с помощью функции =VLOOKUP сопоставляем среднее количество символов с названиями категорий:
В итоге получается такая таблица.
Оформление текста так же важно для оптимизации страницы. Следует учесть технические рекомендации:
1. Не должно быть слишком много ключевых слов, выделенных полужирным (тегами <strong>, <b>):
2. В тексте присутствуют подзаголовки h1, h2...h6.
3. Все списки размечены корректно. Пример некорректной разметки (без <ul> и <ol>):
4. Текст желательно не скрывать:
Скрытый текст весит меньше для поисковых роботов Google
Как доработать старые тексты
Если у вас информационный ресурс, алгоритм реанимации контента хорошо представлен в этой презентации:
Часть этих советов представлена в материале
Дооптимизация текстов на страницах товаров
Повышением информативности страниц товаров на сайтах интернет-магазинов обычно занимаются в последнюю очередь (или вообще за это не берутся). Часто оправданно, так как описания одинаковых товаров на сайтах похожи друг на друга.
Чтобы сделать уникальные описания, добавьте к названию товара «отзывы» и введите полученную комбинацию в поисковик. Затем выберите страницы с отзывами. Их легко найти по микроразметке:
Скопируйте полностью все отзывы со страницы и вставьте их в сервис istio.
После этого нужно найти тематические слова, которые часто встречаются в тексте описания:
На сайте с отзывами ищем предложения/вопросы с этими словами:
Видим, что многие интересуются вопросом расширения оперативной памяти на ноутбуке. Соответственно, в описании товара на сайте добавляем информацию о возможностях расширения оперативной памяти.
Отзывы можно использовать и для определения ключевых достоинств и недостатков товара/услуги. Отличная площадка для этого — Яндекс.Маркет:
1. Находим отзывы о товаре на сайте.
2. Копируем весь текстовый контент из графы «Достоинства»:
3. Определяем частотность слов/фраз и составляем список всех достоинств/недостатков продукта.
Используйте мощь пользовательского контента. Бесплатная идея:
Слишком банально? Ok. Как насчет того, чтобы выводить на странице товара блок с превью информационных статей по заданной теме вместо стандартного текста:
Или, например, показывать отзывы на страницы категорий:
На самом деле все средства хороши, чтобы посетители вашего сайта как можно быстрее нашли желаемое. Так что главный совет: пишите так, чтобы читатели были счастливы.
Выводы
1. Создавать простыни текста важно далеко не во всех нишах и не для каждого бизнеса. Изучайте тематику, анализируйте старые тексты. Легче переписать и дооптимизировать их, чем подготовить ворох новых материалов и неожиданно попасть под «Баден-Баден» из-за некачественных старых статей. В результате вы потратите гораздо больше времени для поиска текстов, из-за которых сайт оказался под санкциями.
2. При поиске страниц, для которых нужны тексты, используйте автоматизированные инструменты. Это значительно сэкономит время.
3. Периодически проводите дооптимизацию существующих статей: исправляйте ошибки, следите за структурой, спамностью, дополняйте текст упущенными ключевыми фразами.
4. Ищите альтернативные способы создания контента: проводите статейные конкурсы, предлагайте скидки за отзывы.
Думаете, на этом контент-аудит завершен? Как бы не так: впереди еще составление техзадания для копирайтеров и комплекс мероприятий по анализу сети для выявления плагиаторов и защиты от них. Но это уже темы для отдельных статей.
По теме
Sitemap.xml или карта сайта — руководство для новичков
Подробно рассказываем, как создать, внедрить и проверить XML-карту сайта.
11 этапов SEO-продвижения сайта
Не знаешь как раскрутить сайт? Мы подготовили 11 этапов SEO-продвижения сайтов в поисковых системах.
Где бесплатно разместить ссылки — площадки для продвижения
Как найти релевантный сайт-донор для размещения своей ссылки
Свежее
Ежемесячная подписка в Telegram — что это значит и кому может быть полезна
Субъективный рейтинг новых функций мессенджера от Head of Telegram Network в Netpeak.
Как подготовить и написать предложение блогеру в Instagram
Чтобы эффективно продвигать товар или услугу в Instagram, необходимо повысить охват целевой аудитории. Одно из возможных решений — привлечение блогеров. Казалось бы, достаточно предложить платное размещение рекламы…
Кейс Office-Expert.kz. Как дополнительно стимулировать покупки на 50 млн тенге в месяц
Мы решили внедрить товарные рекомендации на сайте. Они приносят дополнительно до 10% дохода.