Кому з нас не подобається працювати над вирішенням простих завдань в оптимізації ресурсу? У будь-якій галузі ті завдання, які вимагають мінімум зусиль і дають максимальну віддачу, повинні стояти не першому місці. Відносно просування ресурсу немає нічого більш важливого, ніж вирішення технічних аспектів сайту, які заважають SEO просування або роблять його неможливим.
В цій статті ми адаптували матеріал Джо Робінсона з Green Flag Digital, і готові розповісти, які проблеми внутрішньої оптимізації сайту можна і навіть потрібно закривати вже сьогодні.
Спочатку розберемося з простим запитанням: «Навіщо мені це потрібно?». Технічне SEO часто залишається поза увагою класичних маркетологів і навіть самих SEO-фахівців. Оптимізатор працює з технічною складовою, не завжди спираючись на можливість подальшого просування, а SEO-фахівець, в свою чергу, займається тільки оптимізацією контенту.
Так зване внутрішнє SEO повинно стати пильним предметом уваги маркетологів і оптимізаторів хоча б тому, що такі проблеми найчастіше впливають на працездатність і позиції видачі всього сайту, в той час як зовнішнє SEO зачіпає тільки індексацію і ранжування окремих сторінок.
Але не все так критично: є і приємна новина. Полягає вона в тому, що переважну більшість помилок внутрішньої оптимізації можна вирішити, і головне – вони дуже прості і до банального зрозумілі. Не обов’язково потрапляти в серйозне ДТП, щоб автомобіль постраждав – досить просто не відвідувати СТО і не заливати масло в двигун. Поговоримо про ті помилки оптимізації ресурсу, які ви можете закрити вже сьогодні і дати шанс вашому сайту рухатися вперед.
Звернемо увагу, що цей чекліст не повний, але складається з найбільш поширених і простих помилок, які часто допускають новачки.
Перевірте індексацію.
Чи ставили ви собі коли-небудь питання про те, чому сторінки сайту не індексуються навіть по брендовим запитам? Можливо, для власника бізнесу або сайту це питання стане справжньою загадкою, але навіть у початківця оптимізатора вже повинна бути відповідь.
Чи можна розраховувати на появу у видачі тих сторінок, які не бачать пошукові машини? Ні.
Чи можна отримати органічний трафік з такого сайту? Відповідь знову ж негативна.
Так, наприклад, Серж Стефогло стверджує, що всі проблеми з внутрішньою оптимізацією навіть самого складного ресурсу зводяться лише до двох процесів: індексації та ранжирування. Перед тим, як перевіряти сайт на відповідність кожному пункту з величезного чекліста, потрібно відповісти на один лише питання про те, чи індексуються сторінки вашого сайту в принципі? А перевірити це дуже просто.
Вбийте в пошуковик Google назву сайту через оператор «site:”. У результатах пошуку Google (або Яндекс) покажуть, скільки сторінок знаходиться у видачі. Зіставте дані і перевірте, чи всі сторінки індексуються належним чином, чи з’являються в результатах пошуку ті сторінки, які індексувати не варто було б?
Що робити далі?
- Перевірте всі сторінки і піддомени вашого ресурсу – це особливо важливо для великих інтернет-магазинів, блогів та інформаційних ресурсів.
- Перевірте застарілий ресурс, вимкніть індексацію його сторінок або включите редіректи на нові адреси.
- Позбавтеся від спаму на сторінках – він також впливає на індексацію сторінок.
- Поговоріть з оптимізатором про те, що саме заважає сторінці індексуватися або замовте послугу комплексного SEO просування у нас.
robots.txt
За словами Джо Робінсона, найбільшою і катастрофічною помилкою в SEO може бути просто слеш (/), неправильно поставлений у файлі robots.txt. В ідеалі файл показує пошуковим системам, які сторінки або елементи змісту сайту не потрібно індексувати. Яндекс приймає вказівки robots.txt в якості обов’язкових, а для Google – це просто рекомендації, які він може ігнорувати.
Повірте, така невелика помилка погубила вже не один десяток сайтів у видачі. Якщо в пошуку ви бачите напис «Опис веб-сторінки недоступно через обмеження у файлі robots.txt», то вона руйнує і ваш ресурс.
Що робимо?
Пройдіть за адресою «ваш сайт» /robots.txt – у вікні ви побачите, які файли закриті від індексації пошуковими системами. Якщо ж ви побачили
User-agent: *
Disallow: /
Можна сказати одне – ваші сторінки не допомагають вам залучити органічний трафік.
Що далі
- Поговоріть з оптимізатором, обговоріть, які сторінки і контент закритий від індексаціі. Disallow / в деяких випадках необхідний.
- Для великих ресурсів потрібно перевіряти файл для кожного піддомену окремо.
NOINDEX
NOINDEX -справжня загроза для подальшої оптимізації вашого сайту. Якщо попередній «шпигун» носить тільки рекомендаційний характер для того ж Google, то NOINDEX беззастережно закриває сторінки сайту від індексації пошуковими системами.
Такий тег ставиться на етапі розробки сайту. Так як більшість проектів (але, звичайно ж, не наші 🙂 здаються в умовах жорсткого дедлайну, помилки з ним все ж трапляються. Якщо в останній момент не видалили тег зі сторінок, то у великому ресурсі ще деякий час після запуску сайту можна спостерігати такі «сюрпризи».
Що робимо?
На коді сторінки не повинно бути такого:
В 90% випадках ви хотіли б бачити біля сторінок “Index, follow”, так що наявність вище описаних рядків потрібно прийняти насторожено і уточнити їх необхідність у оптимізатора. Для перевірки всіх сторінок скористайтеся сервісом Screaming Frog.
Як виправити?
Зверніться до оптимізаторів і щотижня перевіряйте сайт на наявність або відсутність таких тегів за допомогою спеціальних інструментів.
Канонізація URL сторінок
Користувачі часто не помічають різниці між www.sysale.ua і www.sysale.ua.html, але Google бачить і помічає все (не знаємо, добре це чи погано). Такі сторінки розглядаються пошукачем як дублі, хоча спрощують для користувачів доступ на цільові сторінки сайту. Популярність кожної сторінки, розбитою на кілька урлов, падає. І що ж робити?
Зазвичай пошуковики визначають пріоритетні сторінки для індексування, але вони зобов’язані індексувати їх всі. Найімовірніше, цю помилку ви ще не направили, але вона може зіграти позитивну роль в просуванні ресурсу.
Що робимо:
Перевірте вручну дублі сторінок під різними урлами. Перевірте HTTP і HTTPS версії сайту – для них теж повинен бути тільки один урл. Попрацюйте з оптимізатором над перенаправленням 301. Особливо важливо регулярно моніторити такі урли власникам великих порталів та інтернет-магазинів.
Rel = canonical
Цей тег, до речі, може стати одним з рішень проблеми дублів сторінок. Він корисний також у тому випадку, коли контент дублюється на різних сторінках. Наприклад, синій диван від ТОВ «Радість» в вашому каталозі може перебувати в підрозділі диванів, а також в колекціях по тегам «для дитячої» або «сині». Природно, у них буде різний урл, але однаковий контент – а це все той же «дубль», від якого краще позбутися.
Офіційний «реліз» rel = canonical відбувся ще в 2009 році, але багато, чомусь, забувають про нього і досі. Принцип його роботи дуже простий: урли підкатегорій і тегів налаштовуються із зазначенням на основний урл. Так пошукачі не сприймають їх дублями. Практично всі CMS платформи підтримують цей тег.
Текст в зображеннях
Не так давно в мережі пройшла чутка про те, що Google тепер може витягати текст з зображень формату .jpeg, .gif. Поспішаємо вас запевнити, що це не так: пошукові алгоритми поки ще не дозволяють це зробити. Але ось з PDF форматом все не так весело: в деяких випадках пошуковик вже може визначати релевантні запити і в документах такого формату. Нижче – наочний приклад (підкреслені слова, виділені Google жирним як релевантних запитів).
Висновок звідси один – пишемо унікальний контент, файли PDF формату – також конкуренти по унікальності (хоча програми для перевірки їх не розпізнають). До речі, про питання до зовнішнього просування: краще помістити ключові фрази в H1, заодно і перевірити їх структуру на сторінці.
Що робити?
Якщо текст на зображенні – невід’ємна частина дизайну сайту, то краще прописувати написи в стилях, а не використовувати готові зображення.
«Биті» зворотні посилання
Головний біль всіх великих ресурсів (і недобросовісно зроблених) – це неправильна робота зворотних посилань. Помилка 404 часто з’являється при «переїзді» сайту, і дуже сильно «б’є» по конверсійним сторінок. Перевірити їх в автоматичному режимі дозволяє Google Search Console.
Чи не вибираємо між HTTPS і HTTP
З 2017 року Google почне відзначати http сайти, в яких потрібно ввести пароль або дані кредитних карт, як ненадійні. Незабаром всі сайти http потраплять під безжальний фільтр пошукової системи. За допомогою Screaming Frog перевірте протоколи всіх сторінок і переведіть їх на «безпечну» версію.
Редіректи 301 і 302
Золоте правило оптимізатора говорить – «краще не використовувати 302 там, де можна використовувати 301». Не завжди 301 можна використовувати замість rel = canonical і помилки 404, але іноді цей постійний редирект рятує.
За словами автора оригінального матеріалу, він був свідком того, як сайти втрачали 60% прибутку тільки через неправильно налаштованих статичних редиректів між сторінками.
Що робимо?
Знову ж – ретельна перевірка всіх сторінок сайту, настройка редиректів 301 там, де їх можна використовувати замість 302. Не міняйте все 404 помилки на редіректи 301 – робіть це тільки на конверсійних сторінках і тих, де важливо не втратити трафік.
Карта сайту
Карти сайту – необхідні. Так Google легше перевірити і проіндексувати відразу всі сторінки. Особливо важлива карта в разі, якщо сайт дійсно великий, в ньому міститься безліч архівних сторінок, які не завжди залінковані по чинному. Не забувайте позначати розташування карти сайту у файлі robots.txt, видаляйте старі карти сайту. Додавайте в Google Search Console «найсвіжіші» версії карти сайту.
Слова на сторінці
Перевіряючи сторінку з вмістом 200 слів, ви можете побачити показники і в 8000-9000. Така нісенітниця може бути пов’язана з неполадками в коді. Так, іноді тексти в шаблонах, які повинні відображатися на одній сторінці, в коді прописані на всіх і закриті в CSS за допомогою Display: none. Перевірте подібні проблеми і усуньте їх. Це істотно знижує швидкість завантаження сторінок, а вона стає пріоритетною для ранжирування сторінок в епоху зростання мобільного трафіку.
Швидкість
Основа технічного SEO – швидкість. Google неодноразово заявляв про те, що швидкість завантаження сторінок стане визначальним фактором для ранжирування у видачі. Сам пошуковик пропонує програми для тестування швидкості – чим вище показник, тим краще.
Проведіть аудит сайту і визначте «самі повільні» сторони ресурсу. Доопрацювати код, контент та інші аспекти для збільшення швидкості.
На закінчення хочемо сказати, що просування сайту починається з моменту його створення і розробки. Є помилки, які можна закрити вже постфактум і потрібно моніторити постійно. Деякі з них – ми навели вище. Перевірте, чи не страждає ваш сайт такими проблемами, а якщо так – не пошкодуйте часу їх усунути.