Стаття також доступна російською (перейти до перегляду).

Зміст:
- Перевірка на дублювання метатегів TITLE та DESCRIPTION, а також заголовків-підзаголовків H1-H2
- Дублювання контенту
- Сканування сайту на код відповіді сервер
- Аудит зображень (alt-теги, розмір)
- Аудит мобільної версії сайту
- Коди відповіді сервера під час сканування картки сайту Sitemap.xml
- Як перевірити дані про зовнішні посилання
- Інтеграція Screaming Frog з Google Analytics, Google Search Console та PageSpeed Insights
- Висновок
- Використання регулярних виразів для фільтрації даних
Screaming Frog SEO Spider – потужний інструмент для аудиту та оптимізації сайтів, що допомагає покращити їх пошукові показники.
У цій статті ми розглянемо ключові можливості програми, включаючи аналіз контенту, мобільну оптимізацію, аудит зовнішніх посилань та інтеграцію з іншими SEO інструментами для ефективної оптимізації
Перевірка на дублювання метатегів TITLE та DESCRIPTION, а також заголовків-підзаголовків H1-H2
За допомогою цього сервісу Ви зможете перевірити сайт на наявність дублювань title, description, h1-h2.
Тому що, якщо Ви їх допустите це стане однією з головних причин песимізації видачі.

Для пошуку дублікатів скористайтесь вкладками у верхній панелі: Page Titles, Meta description, H1 та H2. Та клікніть розділ Duplicate.
Також Ви можете відфільтрувати метатеги, розмір яких перевищує певну кількість знаків. Для ТАЙТЛа довжина має бути до 70 знаків, хоча це значення може змінюватися.
Для виправлення цієї помилки потрібно прибрати ці дублі вручну, або налаштувати їх генерації.
Дублювання контенту
Контент - це не самі метатеги, це вся інформація на сайті насамперед
Тепер поговоримо не тільки про метатеги та медіа файли, але й про дублювання текстів на сайтів. При дублюванні пошуковій системі буде складніше визначити релевантну сторінку.
Завдяки цій функції ми зможемо знаходити не тільки повні дублі на сайті, але й сторінки зі схожим контентом за заданими параметрами: на 90, 80, 70%% і т.д.
Розглянемо алгоритм дій з цієї перевірки:
-
У верхньому меню перейдіть Configuration-Content-Duplicates

-
Ставимо галочку біля Enable Near Duplicates. Near Duplicates Threshold за замовчуванням встановлено 90%. Але Ви можете регулювати цей показник за власним бажанням.
Після цього починаємо парсити.

-
Далі переходимо до вкладки “Content”.

Та аналізуємо колонку “Closest Similarity Match” ступінь схожості дублікатів контенту.
-
У нижньому меню кликніть Duplicate Details, що дублюються.
Але слід пам'ятати про наскрізні блоки. Це шапка з номером телефону, або популярні товари. Тому такі ключові слова треба вилучити.
Для цього можемо використовувати CSS розмітку. Наприклад: номер контактного телефону в HTML верстці сайту <div class="number"> має клас тегу “number”.
Заходимо у головному меню: Configuration - Content - Content Area.

Та виключаємо тег класу number з аналізу.
Після цього пошук дублікатів контенту стане більш раціональним та без урахування наскрізних блоків
Сканування сайту на код відповіді сервер

Сторінки, які відвідує користувач повинні завантажуватися правильно та швидко.
Тому відповідь сервера при скануванні сторінок повинна бути - 200.
На сайті можуть бути знайдені внутрішні УРЛи, що віддають відповідь сервера 3xx, 4xx або 5xx.
Для виправлення цієї помилки видаліть ці сторінки, або виправте помилки з цими відповідями сервера, щоб був код відповіді 200.
Ознайомтися зі статтею “Що таке сторінки помилок HTTP?”.
З відповіддю сервера Redirection (3xx) можуть бути свої нюанси.
Все треба розглядати окремо.
Аудит зображень (alt-теги, розмір)
Оптимізація зображень та інших медіафайлів грають провідну роль в підвищенні досвіду користувача, видимості сайту, та як наслідок - покращення пошукових результатів.
Оптимізація зображення це як технічний аспект ( наприклад швидкість завантаження) так і контентний (унікальний та оптимізований опис)

Алгоритм дій з аудиту зображень за допомогою Screaming Frog SEO Spider:
-
Пiсля парсингу сайтів у верхній панелі перейдіть до вкладки “Images”.
-
Далі зверху клікаємо вкладку “Size” та відсортовуємо картинку за розміром від найбільшої до найменшої. Аналізуємо зображення, які більші за 100 KB. Та якщо треба, оптимізуємо їх розмір.
-
Також за допомогою фільтрів справа у розділі “Content” відсортовуємо зображення за атрибутом ALT та іншими параметрами. Відстежуємо наявність помилок.
Рекомендуємо ознайомитися зі статтею “SEO оптимізація зображень та оптимізація швидкості завантажень”
Аудит мобільної версії сайту
Мобільна оптимізація стала критично важливою для сайтів, оскільки значна частина користувачів інтернету використовує мобільні пристрої для доступу до веб-сайтів.
Цей сервіс може парсити мобільну версію сайту і як окрему від desktop.

Налаштування Screaming Frog під аудит мобільної версії:
-
Перейдіть до «Конфігурація» > «Агент користувача».
-
Оберіть User-Agent на сайті пристрою, наприклад Googlebot Smartphone.
Рекомендуємо ознайомитися зі статтею “Як оптимізувати мобільну версію сайту для використання з мобільних пристроїв”
Коди відповіді сервера під час сканування картки сайту Sitemap.xml
Код відповіді сервера мусить бути 200 також у карті сайта sitemap.xml.
Це стандартно. Але є і винятки, вони мусять бути враховані оптимізаторами.
Розберемося, як треба перевірити карту сайта:
-
У Головному меню клікніть вкладку MODE та оберіть підпункт LIST.

-
Далі переходимо до вкладки зверху UPLOAD - DOWNLOAD SITEMAP;
-
У вікно, що відкрилось забиваємо адресу сайту, карту sitemap.xml ми хочемо просканувати.
У такому форматі: https://www.example.com.ua/sitemap.xml

-
Аналізуємо коди відповіді сервера.

У даному випадку усі коди відповіді - 200.
Як перевірити дані про зовнішні посилання
Розглянемо як перевірити Ваш сайт на якість зовнішніх посилань. Зокрема, на посилання з кодом 4xx, або посилань з редиректом 3xx.

-
Після парсингу у верхньому меню перейдіть у вкладку “external”.
-
А у нижньому у вкладку “Inlinks”, щоб Ви могли дізнатися, на якій сторінці сайту знаходиться вихідне посилання, яке Вас цікавить.
-
Далі відсортуйте вихідні посилання за кодом відповіді сервера “status code”.
-
Проаналізуйте причини наявності битих зовнішніх посилань, а також посилання з редиректом.
Інтеграція Screaming Frog з Google Analytics, Google Search Console та PageSpeed Insights
Інтеграція Screaming Frog з Google Analytics та Google Search Console та іншими SEO інструментами дозволить Вам отримати більш глибоке уявлення про стан сайту. Зробити аудит більш системним та зручним.
Інтеграція з Google Analytics
Завдяки інтеграції з Google Analytics Ви отримуєте:
-
Дані про відвідуваність сторінок.
-
Аналіз поведінки користувачів на веб-сайті.
-
Виявлення сторінок з високими показниками відмов.
Підключення Google Analytics
-
Відкрийте Screaming Frog та зайдіть у «Configuration» - «API Access» > «Google Analytics 4».
-
Натисніть кнопку «Sign in with Google» та увійдіть до свого облікового запису Google Analytics.
-
Виберіть метрики для аналізу.
-
Натисніть «OK», щоб зберегти налаштування.
-
Запустити сканування вебсайту.
-
Після завершення сканування перейдіть до вкладки "Google Search Console", щоб побачити дані пошукових запитів, кліків, показів і т.д.
Інтеграція з Google Search Console
Завдяки інтеграції з Google Search Console Ви отримуєте:
-
Отримання даних про пошукові запити, за якими користувачі відвідують сайт.
-
Аналіз кліків, показів, CTR та середньої позиції у пошуковій видачі.
-
Виявлення проблем з індексацією та виправлення їх. Наприклад вплив блек аутів на SEO показники.
Підключення Google Search Console
-
Перейдіть до "Configuration" > "API Access" > "Google Search Console".
-
Натисніть "Sign in with Google" та увійдіть до вашого облікового запису Google.
-
Дозвольте доступ Screaming Frog до даних Search Console.
-
Виберіть потрібний сайт (property) зі списку.
-
Налаштуйте фільтри для даних, які ви хочете імпортувати, наприклад, тимчасовий період або тип пристрою.
-
Запустити сканування вебсайту.
-
Після завершення сканування перейдіть до вкладки "Google Search Console", щоб побачити дані пошукових запитів, кліків, показів і т.д.
Інтеграція з PageSpeed Insights
Завдяки інтеграції з PageSpeed Insights Ви зможете інтегрувати дані про швидкість завантаження у загальний аудит, що дозволить більш зручно працювати з цим сервісом.
Підключення PageSpeed Insights
-
Перейдіть до "Configuration" > "API Access" >"PageSpeed Insights".
-
Введіть API ключ от Google PageSpeed Insights. Отримати його можна у Google Cloud Platform.
-
Виберіть потрібні параметри аналізу.
-
Запустити сканування сайту.
-
Після завершення сканування перейдіть до вкладки "PageSpeed" для перегляду даних про швидкість завантаження.
Висновок
З вищезазначеного можна зробити висновок, що Screaming Frog є потужним та гнучким інструментом для SEO аналізу сайтів.
Розглянемо стисло можливості Screaming.
Аналіз структури сайту та контенту
-
Аналіз метатегів (Title, Description). На коректність, кількість знаків, дублювання.
-
Аналіз контенту, його дублювання.
-
Аналіз зображень та атрибутів ALT.
-
Перевірка зовнішніх та внутрішніх посилань. Пошук посилань з кодом відповіді сервер (200, 3xx, 4xx).
Мобільна оптимізація
Перевірка мобільної версії сайту та виявлення проблем, які впливають на досвід користувача.
Інтеграція з іншими SEO інструментами
Хоча сам по собі не є повністю універсальним, та потребує підключення до себе інших сервісів. Але таке підключення дає змогу уніфікувати дані з різних сервісів.
Ви можете підключити сервіси з передачею даних: Google Analytics, Google Search Console, PageSpeed Insights та ін.
Також Ви можете ескспортувати отримані дані у вигляді окремих файлів.
Рекомендації щодо подальшого використання
Рекомендуємо дотримуватися наступних дій:
-
Регулярно оновлюйте версії сервісу Screamin Frog та вивчайте його нові функції та оновлення.
-
Відвідуйте вебінари та вивчайте відео уроки.
-
Вивчайте можливість інтеграції з новими SEO інструментами для створення комплексних робочих процесів.
-
Експерементуйте з різноманітними налаштуваннями та конфігураціями, щоб виробити оптимальні підходи до проектів, які Ви просуваєте.
-
Приєднуйтесь до профільних спільном, діліться досвідом та порадами.
Використання регулярних виразів для фільтрації даних

Регулярні вирази (regex) дозволяють створювати потужні
фільтри для пошуку та аналізу даних.
Це особливо корисно при роботі з великими сайтами та великим обсягом даних.
Використання просунутих функцій Screaming Frog, таких як регулярні вирази для фільтрації даних, кастомні налаштування та конфігурації, а також автоматизація завдань та планування сканувань, дозволяє значно спростити та покращити процес SEO-оптимізації сайту. Ці інструменти допомагають ефективно керувати великими обсягами даних та підтримувати сайт у актуальному та оптимізованому стані.
Нещодавно прослухав вебінар від Devaka (Сергій Кокшаров) на зазначену тему.
Рекомендуємо подивитися відео семінар на тему “Як збирати потрібні дані з сайту за допомогою Screaming Frog”, у ній розбирається застосування регулярних виразів.
Підписуйтесь на наш телеграм-канал https://t.me/freehostua, щоб бути в курсі нових корисних матеріалів.
Дивіться наш канал Youtube на https://www.youtube.com/freehostua.
Ми у чомусь помилилися, чи щось пропустили?
Напишіть про це у коментарях, ми з задоволенням відповімо та обговорюємо Ваші зауваження та пропозиції.
|
Дата: 03.07.2024 Автор: Яременко Владислав за радакцією Євгена Шермана
|
|

Авторам статті важлива Ваша думка. Будемо раді його обговорити з Вами:
comments powered by Disqus