• База знаний
  • /
  • Блог
  • /
  • Wiki
  • /
  • ONLINE CHAT
+380 (44) 364 05 71

Статья также доступна на украинском (перейти к просмотру).

Использование Google Search Console в SEO

Содержание:

Консоль поиска Google (GSC) - это бесплатный инструмент от Google, позволяющий вебмастерам и SEO-специалистам получить доступ к данным о том, как сайт воспринимается в поисковике. GSC предоставляет широкие возможности для отслеживания технических данных сайтов, количества страниц в индексе, мониторинга ошибок, принятых вручную мер, влияющих на видимость сайта и трафик.

В данной статье мы рассмотрим, как использовать данные GSC для улучшения индексации, построения эффективной SEO-стратегии, выявления и устранения дублирования контента.

Рассмотрим, какие инструменты можно использовать для SEO оптимизации сайта.

Анализ краулинговых данных

Краулинг – это процесс, при котором поисковая система, сканирующая веб-страницы,

чтобы добавлять и обновлять их в базе данных.

Во время краулинга специальная программа (так называемый бот или паук)

обходит страницы сайта, изучает их содержимое, ссылки и метаданные, а также индексирует их,

чтобы поисковая система могла затем выдавать эти страницы в поисковой выдаче.

Оптимизация сайта следует начинать с анализа краулинговых данных в отчете по покрытию страниц Google Search Console. Из него мы узнаем какие страницы сайта проиндексированы, а какие нет и по какой причине.

Обзор отчетов по покрытию в GSC

Эффективность

Выберите Эффективность - Результат поиска.

Здесь Вы можете исследовать следующие показатели:

  • Количество кликов;

  • Количество показов;

  • CTR – соотношение количества показов сайта к количеству кликов.

  • Средняя позиция.

Также можно сравнить эти показатели за разные периоды времени, типами поисков и добавить фильтры. Эти сравнения находятся в верхнем горизонтальном меню.

Анализ краулинговых данных: как найти и устранить проблемы с индексацией

В разделе Индексирование-Страницы мы можем узнать сколько страниц на сайте проиндексировано, а сколько нет, а также причину не попадания этих страниц в индекс.

Типичные причины исключения страниц из индекса:

  • Не найдено (404). 

  • Заблокирован в файле robots.txt.

  • 5xx (Server Errors): ошибки на стороне сервера, из-за которых страницы недоступны.

  • Страница представляет собой копию. Канонические версии страницы, выбранные Google и пользователем, не совпадают. И другие.

Проанализируйте страницы, которые не проиндексированы, выясните причину и устраните ее.
Лично я нашел такие ошибки, которые раньше не выявлял. Ни вручную, ни с помощью специальных сервисов.
Например, ошибки 404. Исправлял их путем изменения URL ссылок или с помощью 301 редиректа.

Проблемы безопасности и меры, принятые вручную

Этот раздел в Главном меню GSC касается безопасности сайта и ручных санкций, которые могут повлиять на видимость и поисковую оптимизацию сайта.

Где найти этот раздел?

Он находится слева в главном меню. Щелкните “Проблемы безопасности и средства, принятые вручную”. В нем Вы увидите два подпункта: “Средства, использованные вручную” и “Проблемы безопасности”

Меры, примененные вручную

Отчет покажет, что сайт нарушает правила Google в отношении веб-спама и на него наложены ручные санкции.

Примеры таких нарушений:

  • Искусственные ссылки. Покупаемые ссылки или использование PBN.

  • Спам-контент. Некачественный контент создан только для манипуляций с поисковой выдачей.

  • Клоакинг. Тоже манипулятивная разработка, когда контент, который видит юзер и поисковая система различаются.

  • Хакерски атаки. Публикация и распространение сломанного контента.

Что делать:

  1. Ознакомиться с нарушениями и URl, указанными в отчете.

  2. Устраните проблему. Удалите плохой контент или ссылку. Убедитесь, что Ваш сайт соответствует правилам Google.

  3. Отправьте запрос на повторное разбирательство.

  4. В описании напишите, какие средства Вы использовали для устранения проблем.

Подробнее читайте здесь.

Проблемы безопасности

В этом отчете выводятся угрозы, несущие угрозы Вашему сайту и пользователям.

Например:

  • Вредоносное ПО. Сайт содержит или распространяет вредоносные файлы.

  • Фишинговые страницы. Сайт использует страницы для кражи пользователей.

  • Сломанный контент. Хакеры изменили или добавили вредоносный контент.

  • Подозреваемая активность. Использование сайта для спама или других нелегальных действий.

Что делать:

  1. Выделите раздел и ознакомьтесь с сущностью проблемы.

  2. Исправьте проблему. Удалите вредоносный контент, файлы или код. Обновите CMS, плагины и серверное ПО.

  3. Проверьте права доступа к сайту и серверу, оптимизируйте его. Смените пароли.

  4. Попросите проверку.

Подробнее смотрите здесь.

Превентивные меры по недопущению проблем

Обеспечить безопасность сайта:

  • Используйте SSL-сертификаты.

  • Регулярно обновляйте CMS, плагины и темы.

  • Установите двухфакторную аутентификацию для доступа на сайт и сервер.

Соблюдайте правила Google:

  • Следуйте естественной ссылочной массе.

  • Публикуйте только релевантный, оригинальный и полезный контент.

  • Используйте посторонние инструменты для анализа безопасности и ссылочной массы. 

Улучшение показателей с помощью данных о статистики краулинга

Перейдите в Главное меню: Настройки - Статистика сканирования и нажмите кнопку "Открыть отчет".

На данном графике отображается динамика изменения количества запросов на сканирование.

Для того, чтобы проанализировать другие показатели, необходимо их включить вручную.

В отчете "Статистика сканирования" есть три ключевых графика:

  • Запросов в день (Запросы на сканирование в день) – количество страниц, сканируемых Googlebot ежедневно.

  • Скачано килобайт в день (Общий размер загрузки в байтах) – объем данных, загружаемый Googlebot.

  • Время ответа (Время отклика мс) – среднее время, необходимое серверу для обработки запросов.

Requests per day (Запросы на сканирование в день)

Нормативные показатели:

  • Малые сайты (до 1 тыс. страниц): от 500 запросов в день.

  • Средние сайты (от 1 тыс. до 10 тыс. страниц) – от 200 до 2000 запросов в день.

  • Большие сайты от 10 тыс. страниц в день – от 2000 запросов в день.

Объяснение:

  • Низкие показатели для большого сайта свидетельствуют о проблемах с краулингом из-за блокировки в файле robots.txt или малый краулинговый бюджет. Проверьте настройки robots.txt, чтобы заблокировать нужные разделы. А также другие способы, которые могут блокировать их для поисковой системы.

  • Резкие колебания говорят о добавлении новых страниц, изменениях структуры сайта или технических ошибок. Необходимо произвести технический аудит.

  • Убедитесь, что у сайта нет ошибок индексации и у него есть карта sitemap.xml с актуальными URL.

Downloaded kilobytes per day (Общий размер загрузки в байтах) 

Нормативные показатели:

  • Средний объем данных для большинства сайтов – от 10 до 500 MB в день.
  • Для больших ресурсов таких как интернет-магазины или информационные порталы объем может превышать 1 GB.

Объяснение:

  • Слишком большой объем данных указывает на избыточные элементы страниц: тяжелые изображения, скпипты и стиль. 

  • Оптимизация HTML, CSS, JS и использование сжатия может снизить и оптимизировать объем скачиваемых контентов.

Рекомендуем ознакомиться со статьей: “SEO оптимизация изображений и оптимизация скорости загрузок".

Response time (Время отклика мс)

Нормативные показатели:

  • Оптимальное время откуда – 200-500 мс.

  • Допустимое время отклика - до 1 тис. мс. Но лучше без этого. При превышении норматива это может повлиять на краулинг и SEO оптимизацию.

Объяснение:

  • Большое время отклика может быть вызвано перегрузкой сервера, плохой работой базы данных или недостаточной оптимизацией серверного оборудования.

  • Оптимизация скорости сервера, а именно – переход на VPS хостинг или аренда сервера помогут улучшить эти показатели. Также стоит попробовать кэширование (Redis, Memcached).

  • Проверьте производительность сервера.

  • Используйте инструмент Статистика Google PageSpeed для выявления узких мест и получения конкретных рекомендаций.

Отправление запроса на индексирование

GSC можно использовать для подачи страниц на индексацию или переиндексацию. С помощью консоли можно проверить, разрешена ли индексация правильно и настроена. Потому что если будет ошибка, или запрет на индексацию то система это выдаст.

Выявление и устранение дублирования контента

Дублирование контента может серьезно повлиять как на краулинговый бюджет, да и на саму SEO оптимизацию сайта.

Из-за дубля релевантность страниц снижается и соответственно снижается поисковая выдача.

В этом разделе рассмотрим, как с помощью GSC обнаружить дубли, устранить их и оптимизировать структуру сайта.

Поиск дублей в отчетах GSC

В Главном меню перейдите к следующему разделу: Индексирование - Страницы.

В этом разделе можно найти следующие типы дублей:

  • Страница представляет собой копию. Канонический вариант не выбран пользователем.

Дублированный контент без канонического URL.

  • Страница представляет собой копию. Канонические версии страницы, выбранные Google и пользователем, не совпадают.

Работа с картой сайта sitemap.xml

Произведите следующие действия.

В Главном меню проверьте карту сайта (раздел “Файлы Sitemap”).

Внешние инструменты для анализа дублирования

Для обнаружения дублирования используйте сервисы: Screaming Frog, Sitebulb или SEMrush, чтобы дополнить данные GSC и найти страницы с одинаковым содержанием или схожими метатегами.

Часто эти сервисы не видят дубли, которые видит GSC и наоборот.

Рекомендуем ознакомиться со статьей “Использование Screaming Frog для SEO оптимизации и аудита".

Как устранить дублирование контента

Для этого необходимо использовать следующие методы:

  • Настройка канонических тегов. 

Для указания основной версии страницы используйте тег <link rel="canonical" href="URL">.  Для страниц с параметрами фильтров (например, ?color=red) установите канонический URL без параметров: https://example.com/product/. 

Относительно настройки фильтров товаров рекомендуем ознакомиться с этой инструкцией-мануалом.

  • Использование редиректив. Для сочетания старых и новых версий страниц или устранения ошибок в URL.

  • Блокировка дублей в robots.txt. Выключите страницы из неценными параметрам.

  • Другие виды дублей. Подробнее о проверке сайта на дубле читайте в разделах "Технические дубли" и “Дублирование мета-тегов ЗАГОЛОВОК да DESCRIPTION” этой статьи.

Ускорение индексации страниц

Классический способ ускорения индексации страниц – сделать с помощью GSC. Это необходимо делать при появлении новых страниц или при обновлении контента на старых страницах.

Делается это через верхнюю сроку в GSC

Этот метод эффективен для индексации или переиндексации небольшого количества страниц. Для массовой индексации используйте файл sitemap.xml.

Убедитесь в отсутствии технических ошибок:

  • Страница не заблокирована в файле robots.txt.

  • Не содержит тэг noindex.

  • Релевантный и уникальный контент.

Но есть и многие другие методы ускорения индексации.

Полезная статья: “Как ускорить индексацию сайта”.

Применение данных Google Search Console для улучшения технической оптимизации сайта

Техническая оптимизация играет ведущую роль в SEO и удобстве пользователя. Рассмотрим, как GSC помогает в этом процессе.

Анализ Core Web Vitals

Опыт пользователя является важным фактором ранжирования, особенно для мобильных устройств.

Показатели Core Web Vitals в GSC дают представление о том, насколько страницы отвечают этим требованиям.

Для того, чтобы найти этот показатель в Главном меню, перейдите к разделу: Качество - Core Web Vitals.

Выделите разделы для мобильных устройств или компьютера. Кликните на ссылку “Полный отчет”, Вы узнаете о ошибках относительно показателей Core Web Vitals.

Если будут обнаружены ошибки, GSC покажет их. Он даст рекомендации по их преодолению. Однако не спешите сразу исправлять контент. Для начала просто отправьте эти ошибки на проверку.

В разделе "Для мобильных устройств" Вы можете оценить показатель "Удобство для мобильных устройств" (Mobile Usability).

Рекомендуем ознакомиться со статьей: “Core Web Vitals: что это такое и как работает".

Вывод

Google Search Console (GSC) – это незаменимый инструмент для SEO-специалистов и владельцев сайтов для поисковой оптимизации, технического аудита, улучшения пользовательского опыта.

Рассмотрим основные рекомендации:

  1. Анализ краулинговых данных.

Регулярно проверяйте да анализируйте следующие показатели: количество кликов, показов, CTR, средняя позиция.

Используйте отчеты GSC для выявления проблем с индексацией, таких как ошибки 404 и исключения из индекса.

  1. Средства безопасности и меры предприняты вручную.

Утро начинайте не только с кофе, но и с проверки раздела Главного меню. Сразу реагируйте, если проблемы будут обнаружены.

  1. Улучшение индексации.

Оптимизируйте файл sitemap.xml Установите соответствующий плагин на веб-сайте.

  1. Проверка дублирования контента.

Устраните дублирование с помощью тегов canonical, редиректив, настройка robots.txt.

  1. Оптимизация опыта юзера.

Следите за показателями Core Web Vital и улучшайте мобильную версию сайтов.

  1. Техническая оптимизация.

Техническая оптимизация сайта объединяет в себе первые четыре вышеперечисленных пункта.

Подписывайтесь на наш телеграмм-канал https://t.me/freehostua, чтобы быть в курсе новых полезных материалов

Смотрите наш канал Youtube на https://www.youtube.com/freehostua.

Мы в чем ошиблись, или что-то пропустили?

Напишите об этом в комментариях, мы с удовольствием ответим и обсуждаем Ваши замечания и предложения.

Дата: 06.12.2024
Автор: Яременко Владислав под редакцией Евгения Шермана
Голосование

Авторам статьи важно Ваше мнение. Будем рады его обсудить с Вами:

comments powered by Disqus
navigate
go
exit
Спасибо, что выбираете FREEhost.UA