Мы - сертифицированные партнеры Google
Обратный звонок
seo ошибки продвижения сайта

Критичные ошибки SEO оптимизации сайта: находим и исправляем

Время чтения: 16 минут
19.01.17

Кому из нас не нравится работать над разрешением простых задач в оптимизации ресурса? В любой отрасли те задачи, которые требуют минимум усилий и дают максимальную отдачу, должны стоять не первом месте. Касательно продвижения ресурса нет ничего более важного, чем решение технических аспектов сайта, которые мешают SEO продвижению или делают его невозможным.

В этом материале мы адаптировали материал Джо Робинсона из Green Flag Digital, и готовы рассказать, какие проблемы внутренней оптимизации сайта можно и даже нужно закрывать уже сегодня.

Сначала разберемся с простым вопросом «Зачем мне это нужно?». Техническое SEO часто остается за пределами внимания классических маркетологов и даже самих SEO-специалистов. Оптимизатор работает с технической составляющей, не всегда делая упор на возможность дальнейшего продвижения, а SEO-специалист, в свою очередь, занимается только оптимизацией контента.
продвижение сайта сео

Так называемое внутреннее SEO должно стать пристальным предметом внимания маркетологов и оптимизаторов хотя бы потому, что такие проблемы чаще всего влияют на работоспособность и позиции выдаче всего сайта, в то время как внешнее SEO затрагивает только индексацию и ранжирование отдельных страниц.

Но не все так критично: есть и приятная новость. Заключается она в том, что подавляющее большинство ошибок внутренней оптимизации решаемы и преодолимы, и главное – они очень просты и до банального понятны. Не обязательно попадать в серьезное ДТП, чтобы автомобиль пострадал – достаточно просто не посещать СТО и не заливать масло в двигатель. Поговорим о тех ошибках оптимизации ресурса, которые вы можете закрыть уже сегодня и дать шанс вашему сайту двигаться вперед.

Обратим внимание, что этот чеклист не полный, но состоит из наиболее распространенных и простых ошибок, которые часто допускают новички.

Проверьте индексацию.

Задавали ли вы себе когда-либо вопрос о том, почему страницы сайта не индексируются даже по брендовым запросам? Возможно, для владельца бизнеса или сайта этот вопрос станет настоящей загадкой, но даже у начинающего оптимизатора уже должен быть ответ.

Можно ли рассчитывать на появление в выдаче тех страниц, которые не видят поисковые машины? Нет.

Можно ли получить органический трафик с такого сайта? Ответ опять же отрицательный.

Так, например, Серж Стефогло утверждает, что все проблемы с внутренней оптимизацией даже самого сложного ресурса сводятся всего лишь к двум процессам: индексации и ранжированию. Перед тем, как проверять сайт на соответствие каждому пункту из огромного чеклиста, нужно ответить на один лишь вопрос о том, индексируются ли страницы вашего сайта в принципе? А проверить это очень просто

Вбейте в поисковик Google название сайта через оператор «site:». В результатах поиска Google (или Яндекс) покажут, сколько страниц находится в выдаче. Сопоставьте данные и проверьте, все ли страницы индексируются должным образом, появляются ли в результатах поиска те страницы, которые индексировать не стоило бы?
как проверить индекс страниц сайта

Что делать дальше?

  1. Проверьте все страницы и поддомены вашего ресурса – это особенно важно для крупных интернет-магазинов, блогов и информационных ресурсов.
  2. Проверьте устаревший ресурс, отключите индексацию его страниц или включите редиректы на новые адреса.
  3. Избавьтесь от спама на страницах – он также влияет на индексацию страниц.
  4. Поговорите с оптимизатором о том, что именно мешает страницам индексироваться или закажите услугу комплексного SEO продвижения у нас.

robots.txt

По словам Джо Робинсона, самой большой и катастрофичной ошибкой в SEO может быть просто слеш (/), неправильно поставленный в файле robots.txt. В идеале файл показывает поисковикам, какие страницы или элементы содержания сайта не нужно индексировать. Яндекс принимает указания robots.txt в качестве обязательных, а для Google – это просто рекомендации, которые он может игнорировать.

Поверьте, такая небольшая ошибка погубила уже не один десяток сайтов в выдаче. Если в поиске вы видите надпись «Описание веб-страницы недоступно из-за ограничений в файле robots.txt», то она разрушает и ваш ресурс.

Что делаем?

Пройдите по адресу «ваш сайт»/robots.txt – в окне вы увидите, какие файлы закрыты от индексации поисковиками. Если же вы увидели

User-agent: *

Disallow: /

Можно сказать одно – ваши страницы не помогают вам привлечь органический трафик.
что делает robots файл

Что дальше

  1. Поговорите с оптимизатором, обсудите, какие страницы и контент закрыт от индексации.Disallow / в некоторых случаях необходим.
  2. Для больших ресурсов нужно проверять файл для каждого поддомена отдельно.

NOINDEX

NOINDEX –настоящая угроза для дальнейшей оптимизации вашего сайта. Если предыдущий «шпион» носит только рекомендательный характер для того же Google, то NOINDEX безоговорочно закрывает страницы сайта от индексации поисковиками.

Такой тег ставится обыно на этапе разработки сайта. Так как большинство проектов (но, конечно же, не наши:) сдаются в условиях жесткого дедлайна, ошибки с ним все же случаются. Если в последний момент не удалили тег со страниц, то в большом ресурсе еще некоторое время после запуска сайта можно наблюдать такие «сюрпризы».

Что делаем?

На коде страницы не должно быть такого:

 

 

 

В 90% случаях вы хотели бы видеть возле страниц “Index, follow”, так что наличие выше описанных строк нужно принять настороженно и уточнить их необходимость у оптимизатора. Для проверки всех страниц воспользуйтесь сервисом Screaming Frog.

Как исправить?

Обратитесь к оптимизаторам и каждую неделю проверяйте сайт на наличие или отсутствие таких тегов при помощи специальных инструментов.

Канонизация URL страниц

Пользователи часто не замечают разницы между www.sysale.ua и www.sysale.ua.html, но Google видит и замечает все (не знаем, хорошо это или плохо). Такие страницы рассматриваются поисковиком как дубли, хотя упрощают для пользователей доступ на целевые страницы сайта. Популярность каждой страницы, разбитой на несколько урлов, падает. И что же делать?

Обычно поисковики определяют приоритетные страницы для индексирования, но они обязаны индексировать их все. Вероятнее всего, эту ошибку вы еще не исправляли, но она может сыграть положительную роль в продвижении ресурса.

Что делаем:

Проверьте вручную дубли страниц под разными урлами. Проверьте HTTP и HTTPS версии сайта – для них тоже должен быть только один урл. Поработайте с оптимизатором над редиректом 301. Особенно важно регулярно мониторить такие урлы владельцам крупных порталов и интернет-магазинов.

Rel=canonical

Этот тег, кстати, может стать одним из решений проблемы дублей страниц. Он полезен также в том случае, когда контент дублируется на разных страницах. К примеру, синий диван от ООО «Радость» в вашем каталоге может находиться в подразделе диванов, а также в коллекциях по тегам «для детской» или «синие». Естественно, у них будет разный урл, но одинаковый контент – а это все тот же «дубль», от которого лучше избавиться.

Официальный «релиз» rel=canonical состоялся еще в 2009 году, но многие, почему-то, забывают о нем и до сих пор. Принцип его работы очень прост: урлы подкатегорий и тегов настраиваются с указанием на основной урл. Так поисковики не воспринимают их дублями. Практически все CMS платформы поддерживают этот тег.

Текст в изображениях

Не так давно в сети прошел слушок о том, что Google теперь может извлекать текст из изображений формата .jpeg, .gif. Спешим вас уверить, что это не так: поисковые алгоритмы пока еще не позволяют это сделать. Но вот с PDF форматом все не так радужно: в некоторых случаях поисковик уже может определять релевантные запросы и в документах такого формата. Ниже – наглядный пример (подчеркнуты слова, выделенные Google жирным в качестве релевантных запросов).
гугл видит текст на пдф

Вывод отсюда один – пишем уникальный контент, файлы  PDF формата – также конкуренты по уникальности (хотя программы для проверки их не распознают). Кстати, о вопросе к внешнему продвижеию: лучше помещать ключевые фразы в H1, заодно и проверить их структуру на странице.

Что делать?

Если текст на изображении – неотъемлемая часть дизайна сайта, то лучше прописывать надписи в стилях, а не использовать готовые изображения.

«Битые» обратные ссылки

Головная боль всех больших ресурсов (и недобросовестно сделанных) – это неправильная работа обратных ссылок. Ошибка 404 часто появляется при «переезде» сайта, и очень сильно «бьет» по конверсионным страницам. Проверить их в автоматическом режиме позволяет Google Search Console.

Не выбираем между HTTPS и HTTP

С 2017 года Google начнет отмечать http сайты, в которых требуется ввести пароль или данные кредитных карт, как ненадежные. В скором времени все сайты http попадут под безжалостный фильтр поисковой системы.  При помощи Screaming Frog проверьте протоколы всех страниц и переведите их на «безопасную» версию.
screaming frog использование

Редиректы 301 и 302

Золотое правило оптимизатора гласит – «лучше не использовать 302 там, где можно использовать 301». Не всегда 301 можно использовать вместо rel=canonical и ошибки 404, но иногда этот постоянный редирект спасает.

По словам автора оригинального материала, он был свидетелем того, как сайты теряли 60% прибыли только из-за неправильно настроенных статических редиректов между страницами.

Что делаем?

Опять же – тщательная проверка всех страниц сайта, настройка редиректов 301 там, где их можно использовать вместо 302. Не меняйте все 404 ошибки на редиректы 301 – делайте это только на конверсионных страницах и тех, где важно не потерять трафик.

Карта сайта

Карты сайта – необходимы. Так Google легче проверить и проиндексировать сразу все страницы. Особенно важна карта в случае, если сайт действительно большой, в нем содержится множество архивных страниц, которые не всегда залинкованы к действующем. Не забывайте обозначать расположение карты сайта в файле robots.txt, удаляйте старые карты сайта. Добавляйте в Google Search Console самые «свежие» версии карты сайта.

Слова на странице

Проверяя страницу с содержанием 200 слов, вы можете увидеть показатели и в 8000-9000. Такая бессмыслица может быть связана с неполадками в коде. Так, иногда тексты в шаблонах, которые должны отображаться на одной странице, в коде прописаны на всех и закрыты в CSS при помощи Display: none. Проверьте подобные проблемы и устраните их. Это существенно снижает скорость загрузки страниц, а она становится приоритетной для ранжирования страниц в эпоху роста мобильного трафика.

Скорость

Основа технического SEO – скорость. Google неоднократно заявлял о том, что скорость загрузки страниц станет определяющим фактором для ранжирования в выдаче. Сам поисковик предлагает программы для тестирования скорости – чем выше показатель, тем лучше.

Проведите аудит сайта и определите «самые медленные» стороны ресурса. Доработайте код, контент и другие аспекты для увеличения скорости.

В заключение хотим сказать, что продвижение сайта начинается с момента его создания и разработки. Есть ошибки, которые можно закрыть уже постфактум и нужно мониторить постоянно. Некоторые из них – мы привели выше. Проверьте, не страдает ли ваш сайт такими проблемами, а если да – не пожалейте времени их устранить.
вжух с котом мем

Появились вопросы ?

У нас есть ответы

Любые вопросы относительно нашей деятельности и предлагаемых продуктов мы с радостью обсудим в теплой атмосфере. Мы будем рады вам и вашим вопросам, задачам, проектам.

Обсудить проект

ОБСУДИМ ПРОЕКТ?

заполните ваши контактные
данные, мы вам перезвоним и уточним все детали

Это поле обязательное для заполнения

Некорректный ввод

Это поле обязательное для заполнения

Некорректный ввод

данные не передаются 3-м лицам

заполните ваши контактные
данные, мы вам перезвоним

Это поле обязательное для заполнения

Некорректный ввод

Это поле обязательное для заполнения

Некорректный ввод

данные не передаются 3-м лицам