Стаття також доступна російською (перейти до перегляду).
Зміст:
- Аналіз краулінгових даних
- Огляд звітів з покриття у GSC
- Аналіз краулінгових даних: як знайти та усунути проблеми з індексацією
- Проблеми безпеки та заходи вжиті вручну
- Заходи, вжиті вручну
- Проблеми безпеки
- Покращення показників за допомогою даних про статистику краулінгу
- Відправлення запиту на індексування
- Виявлення та усунення дублювання контенту
- Прискорення індексації сторінок
- Застосування даних Google Search Console для покращення технічної оптимізації сайту
- Висновок
Консоль по
Google Search Console (GSC) - це безплатний інструмент від Google, який дозволяє вебмайстрам та SEO-спеціалістам отримати доступ до даних про те, як сайт сприймається у пошуковій системі. GSC надає широкі можливості для відстежування технічних даних сайтів, кількості сторінок в індексі, моніторинга помилок, заходів, що вжиті вручну, що впливають на видимість сайту та трафік.
У даній статті ми розглянемо, як використовувати дані GSC для покращення індексації, вибудовування ефективної SEO-стратегії, виявлення та усунення дублювання контенту.
Розглянемо, які інструменти GSC можна використовувати для SEO оптимізації сайту.
Аналіз краулінгових даних
Краулінг – це процес, у якому пошукова система, сканує вебсторінки,
щоб додавати та оновлювати їх у своїй базі даних.
Під час краулінгу спеціальна програма (так званий бот або павук)
обходить сторінки сайту, вивчає їх вміст, посилання та метадані, а також індексує їх,
щоб пошукова система могла потім видавати ці сторінки у пошуковій видачі.
Оптимізація сайту треба починати з аналізу краулінгових даних у звіті з покриття сторінок Google Search Console. З нього ми дізнаємось які сторінки сайту проіндексовані, а які - ні та з якої причини.
Огляд звітів з покриття у GSC
Ефективність
Перейдіть у розділ Ефективність - Результат пошуку.
Тут Ви может дослідити наступні показники:
-
Кількість кліків;
-
Кількість показів;
-
CTR - співвідношення кількості показів сайту до кількості кліків.
-
Середня позиція.
Також Ви можете порівняти ці показники за різні періоди часу, типами пошуками та додати фільтри. Ці порівняння знаходяться у верхньому горизонтальному меню.
Аналіз краулінгових даних: як знайти та усунути проблеми з індексацією
У розділу Індексування-Сторінки ми можемо дізнатися скільки сторінок на сайті проіндексовано, а скільки - ні, а також причину не потрапляння цих сторінок до індексу.
Типові причини виключення сторінок з індексу:
-
Не знайдено (404).
-
Заблоковано у файлі robots.txt.
-
5xx (Server Errors): помилки на стороні сервера, через які сторінки недоступні.
-
Сторінка є копією. Канонічні версії сторінки, вибрані Google та користувачем, не збігаються. Та інші.
Проаналізуйте сторінки, які не проіндексовані, з'ясуйте причину та усуньте її.
Особисто я знайшов такі помилки, які раніше не виявляв. Ані вручну, ані за допомогою спеціальних сервісів.
Наприклад помилки 404. Виправляв їх шляхом зміни URL посилань або за допомогою 301 редиректу.
Проблеми безпеки та заходи вжиті вручну
Цей розділ у Головному меню GSC стосується безпеки сайту та ручних санкцій, які можуть негативно вплинути на видимість та пошукову оптимізацію сайту.
Де знайти цей розділ?
Він знаходиться зліва у Головному меню. Клікніть пункт “Проблеми безпеки та засоби, вжиті вручну”. У ньому Ви побачите два підпункти: “Засоби, вжиті вручну” та “Проблеми безпеки”
Заходи, вжиті вручну
Звіт покаже, що сайт порушує “Правилам Google у відношенні веб-спама” та на нього накладені ручні санкції.
Приклади таких порушень:
-
Штучні посилання. Покупні посилання або використання PBN.
-
Спам-контент. Неякісний контент, що створений лише для маніпуляцій з пошуковою видачею.
-
Клоакінг. Теж маніпулятивна технологія, коли контент, що бачить користувач та пошукова система відрізняються.
-
Хакерські атаки. Публікація та розповсюдження зламаного контенту.
Що робити:
-
Ознайомитися з порушеннями та URl, що вказані у звіті.
-
Усуньте проблему. Видаліть поганий контент чи посилання. переконайтеся, що Ваш сайт відповідає правилам Google.
-
Відправте запит на повторний розгляд.
-
У опису напишіть, які засоби Ви вжили для усунення проблем.
Докладніше читайте тут.
Проблеми безпеки
У цьому звіті виводяться загрози, що несуть загрози Вашому сайту та користувачам.
Наприклад:
-
Шкідливе програмне забезпечення. Сайт містить або розповсюджує шкідливі файли.
-
Фішингові сторінки. Сайт використовує сторінки для крадіжки даних користувачів.
-
Зламаний контент. Хакери змінили або додали шкідливий контент.
-
Підозрювана активність. Використання сайту для спаму або інших нелегальних дій.
Що робити:
-
Перейдіть у розділ та ознайомитися зі суттю проблеми.
-
Виправьте проблему. Видаліть шкідливий контент, файли або код. Оновіть CMS, плагіни та серверне ПЗ.
-
Перевірте права доступу до сайту та сервера, оптимізуйте її. Змініть паролі.
-
Запросіть перевірку.
Докладніше дивіться тут.
Превентивні заходи для недопущення проблем
Забезпечити безпеку сайту:
-
Використовуйте SSL-сертифікати.
-
Регулярно оновлюйте CMS, плагіни та теми.
-
Налаштуйте двофакторну аутентифікацію для доступу на сайт та сервер.
Дотримуйтесь правил Google:
-
Дотримуйтесь природної посилальної маси.
-
Публікуйте тільки релевантний, оригінальний та корисний контент.
-
Використовуйте сторонні інструменти для аналізу безпеки та посилальної маси.
Покращення показників за допомогою даних про статистику краулінгу
Перейдіть у Головному меню: Налаштування - Статистика сканування та клікніть “Відкрити звіт”.
На даному графіку відображено динаміку змін кількості запитів на сканування.
Для того, щоб проаналізувати інші показники необхідно їх включити вручну.
У звіті “Статистика сканування” є три ключові графіки:
-
Requests per day (Запити на сканування на день) - кількість сторінок, що сканується Googlebot щоденно.
-
Downloaded kilobytes per day (Загальний розмір завантаження в байтах) - об'єм даних, що завантажується Googlebot.
-
Response time (Час відгуку мс) - середній час, що необхідний серверу для обробки запитів.
Requests per day (Запити на сканування на день)
Нормативні показники:
-
Малі сайти (до 1 тис. сторінок): від 500 запитів на день.
-
Середні сайти (від 1 тис. до 10 тис. сторінок) - від 200 до 2000 запитів на день.
-
Великі сайти від 10 тис. сторінок на день - від 2000 запитів на день.
Пояснення:
-
Низьки показники для великого сайту свідчать про проблеми з краулінгом через блокуванням у файлі robots.txt або малий краулінговий бюджет. Перевірте налаштування robots.txt, щоб виключити блокування потрібних розділів. А також інші способи, які можуть їх блокувати для пошукової системи.
-
Різкі коливання говорять про додавання нових сторінок, зміни структури сайту або технічними помилками. Необхідно провести технічний аудит.
-
Переконайтеся, що у сайту немає помилок індексації та він має карту sitemap.xml з актуальними URL.
Downloaded kilobytes per day (Загальний розмір завантаження в байтах)
Нормативні показники.
Середній об'єм даних для більшості сайтів - від 10 до 500 MB на день.
Для великих ресурсіі таких як інтернет-магазини або інформаційні портали об'єм може перевищувати 1 GB.
Пояснення:
-
Занадто великий об'єм даних вказує на надлишкові елементи на сторінках: важкі зображення, скпіпти та стилі.
-
Оптимізація HTML, CSS, JS та використання стиснення може знизити та оптимізувати об'єм контенту, що скачуються.
Рекомендуємо ознайомитися зі статтею: “SEO оптимізація зображень та оптимізація швидкості завантажень”.
Response time (Час відгуку мс)
Нормативи:
-
Оптимальний час відкугу - 200-500 мс.
-
Допустимий час відгуку - до 1 тис. мс. Але краще без цього. При перевищенні нормативу це може негативно вплинути на краулінг та SEO оптимізацію.
Пояснення:
-
Великий час відгуку може бути викликаний перевантаженням сервера, поганою роботою бази даних або недостатньою оптимізацією серверного обладнання.
-
Оптимізація швидкості сервера, а саме - перехід на VPS хостинг або оренда сервера допоможуть покращити ці показники. Також варто спробувати кешування (Redis, Memcached).
-
Перевірте продуктивність роботи сервера.
-
Використовуйте інструмент Google PageSpeed Insights для виявлення вузьких місць та отримання конкретних рекомендацій.
Відправлення запиту на індексування
GSC можна використовувати для подачі сторінок на індексацію чи переіндексацію. За допомогою консолі Ви можете перевірити чи індексація дозволена та правильно налаштована. Тому що, якщо буде помилка, чи заборона на індексацію то система це видасть.
Виявлення та усунення дублювання контенту
Дублювання контенту може серйозно вплинути як на краулінговий бюджет, так і на саму SEO оптимізацію сайту.
Через дублі релевантність сторінок знижується та відповідно знижується пошукова видача.
У цьому розділі розглянемо як за допомогою GSC виявити дублі, усунути їх та оптимізувати структуру сайту.
Пошук дублей у звітах GSC
У Головному меню перейдіть у наступний розділ: Індексування - Сторінки.
У цьому розділі можна знайти наступні типи дублей:
-
Сторінка є копією. Канонічний варіант не обраний користувачем.
Дубльований контент без канонічного URL.
-
Сторінка є копією. Канонічні версії сторінки, що вибрані Google та користувачем не збігаються.
Робота з картою сайта sitemap.xml
Проведіть наступні дії.
У Головному меню перевірте карту сайту (розділ “Файли Sitemap). Переконайтеся, що вона містить лише унікальні URL та не показує помилок.
Зовнішні інструменти для аналізу дублювання
Для виявлення дублювання використовуйте сервіси: Screaming Frog, Sitebulb або SEMrush, щоб доповнити дані GSC і знайти сторінки з однаковим вмістом або схожими метатегами.
Доволі часто ці сервіси не бачать дублі, які бачить GSC та навпаки.
Рекомендуємо ознайомитися зі статтею “Використання Screaming Frog для SEO оптимізації та аудиту”.
Як усунути дублювання контенту
Для цього необхідно використовувати наступні методи:
-
Налаштування канонічних тегів.
Використовуйте тег <link rel="canonical" href="URL"> для вказівки основної версії сторінки. Для сторінок із параметрами фільтрів (наприклад, ?color=red), установіть канонічний URL без параметрів: https://example.com/product/.
Стосовно налаштування фільтрів товарів рекомендуємо ознайомитися з цією інструкцією-мануалом.
-
Використання редиректів. Для поєднання старих та нових версій сторінок або усунення помилок в URL.
-
Блокування дублей у robots.txt. Виключте сторінки з неціними параметрами.
-
Ініші види дублей. Докладніше про перевірку сайту на дублі читайте у розділах “Технічні дублі” та “Дублювання мета-тегів TITLE та DESCRIPTION” цієї статті
Прискорення індексації сторінок
Класичний спосіб прискорення індексації сторінок - зробити за допомогою GSC. Це необхідно робити при появі нових сторінок або при оновленні контенту на старих сторінках.
Робиться це через верхню строку у GSC.
Цей метод ефективний для індексації або переіндексації невеликої кількості сторінок. Для масової індексації використовуйте файл sitemap.xml.
Переконайтеся у відсутності технічних помилок:
-
Сторінка не заблокована у файлі robots.txt.
-
Не містить тег noindex.
-
Релевантний та унікальний контент.
Але є і багато інших методів прискорення індексації.
Корисна стаття: “Як прискорити індексацію сайта”
Застосування даних Google Search Console для покращення технічної оптимізації сайту
Технічна оптимізація грає провідну роль у SEO та зручності користувача. Розглянемо, як GSC допомагає у цьому процесі.
Аналіз Core Web Vitals
Досвід користувача є важливим фактором ранжування особливо для мобільних пристроїв.
Показники Core Web Vitals у GSC дають уявлення про те, наскільки сторінки відповідають цим вимогам.
Для того, щоб знайти цей показник у Головному меню перейдіть до розділу: Якість - Core Web Vitals.
Перейдіть до підрозділів для Мобільних пристроїв або для ПК. Клікніть на посилання “Повний звіт”, Ви дізнаєтесь про наявність помилок стосовно показників Core Web Vitals.
Якщо будуть виявлені помилки, GSC їх покаже. Він дасть рекомендації стосовно їх подолання. Однак, не поспішайте одразу виправляти контент. Для початку просто відправте ці помилки на перевірку.
У підрозділі “Для мобільних пристроїв” Ви зможете оцінити показник “Зручність для мобільних пристроїв” (Mobile Usability).
Рекомендуємо ознайомитися зі статтею: “Core Web Vitals: що це таке та як працює”.
Висновок
Google Search Console (GSC) - це незамінний інструмент для SEO-спеціалістів та власників сайтів для пошукової оптимізації, технічного аудиту, покращення користувацького досвіду.
Розглянемо основні рекомендації:
-
Аналіз краулінгових даних.
Регулярно перевіряйте та аналізуйте наступні показники: кількість кліків, показів, CTR, середню позицію.
Використовуйте звіти GSC для виявлення проблем з індексацією, таких як помилки 404 та виключення з індексу.
-
Засоби безпеки та заходи вжиті вручну.
Ранок починайте не тільки з кафи, але і з перевірки цього розділу Головного меню. Одразу реагуйте, якщо проблеми будуть виявлені.
-
Покращення індексації.
Оптимізуйте файл sitemap.xml. Встановіть відповідний плагін на сайт. Після цього проіндексувати його на GSC та перевірте на помилки. Створюйте внутрішню перелінковку для прискорення оптимізації.
-
Перевірка на дублювання контенту.
Усуньте дублювання за допомогою тегів canonical, редиректів, налаштування robots.txt.
-
Оптимізація досвіду користувача.
Слідкуйте за показниками Core Web Vital та покращуйте мобільну версію сайтів.
-
Технічна оптимізація.
Технічна оптимізація сайту об'єднує в собі перші чотири вищезазначених пункти.
Підписуйтесь на наш телеграм-канал https://t.me/freehostua, щоб бути в курсі нових корисних матеріалів.
Дивіться наш канал Youtube на https://www.youtube.com/freehostua.
Ми у чомусь помилилися, чи щось пропустили?
Напишіть про це у коментарях, ми з задоволенням відповімо та обговорюємо Ваші зауваження та пропозиції.
Дата: 06.12.2024 Автор: Яременко Владислав за редакцією Євгена Шермана
|
|
Авторам статті важлива Ваша думка. Будемо раді його обговорити з Вами:
comments powered by Disqus