Здравствуйте! Делюсь материалом, который мне и моим коллегам очень помогает в работе.


Показаны сообщения с ярлыком зеркала. Показать все сообщения
Показаны сообщения с ярлыком зеркала. Показать все сообщения

четверг

Почему сайт просел в поиске

9 фатальных ошибок, способных угробить любой сайт

Поисковая оптимизация – большая работа над множеством различных факторов. Дизайн, техническая составляющая, контент. Даже незначительные на первый взгляд детали очень важны для продвижения. О самых частых ошибках в дизайне сайта мы уже говорили. Сегодня разберем 9 фатальных SEO ошибок, способных «угробить» любой сайт.

  1. Фильтры и санкции поисковых систем
  1. Как минимум, раз в неделю рекомендую заглядывать в вебмастера Яндекс и Google для проверки наличия санкций. В Яндексе это можно сделать в разделе Диагностика → Безопасность и нарушения. В Google – Поисковый трафик → Меры, принятые вручную.

    Как показывает наша практика, чаще всего владельцы сайтов даже не догадываются о наложенных ограничениях. Недавний пример из нашей работы:

    Большое количество чужих текстов на сайте и открытые исходящие ссылки. Результат на скриншоте.

    До снятия всех ограничений дальнейшего смысла заниматься продвижением нет. Исправляем все ошибки, сообщаем поисковой системе и ждем снятия санкций.

  2. Контент

    Мы постоянно говорим о том, как важны тексты. Контент – это то, зачем пользователи заходят на сайты. Неуникальный и неинтересный контент никому не нужен. Поисковые системы занижают подобные ресурсы в выдаче, а клиенты устали читать одни и те же шаблонные тексты на сотне сайтов. Пруф того, что за контент можно вылететь с хороших позиций, тут.

    Проверяйте уникальность текстов перед размещением на text.ru.

    Как писать тексты, на какие страницы и в целом, о контенте, много написано в нашем блоге. Вот хорошая подборка статей от нашего копирайтера Дарьи.

  3. Теги Title и Description, заголовки H1-H3

    Основа SEO-продвижения – правильно подобранные ключевые слова. Это очень важный фактор в оценке релевантности вашего сайта поисковому запросу.

    Чаще всего мы сталкиваемся с двумя ошибками. Полное отсутствие ключевых слов в тегах:

    Тег Title должен быть заполнен в виде связного предложения с включением ключевых слов.

    Либо переспам ключами в заголовках:

    Важно найти золотую середину. Теги должны быть полезными не только для поисковых роботов, но и для обычных людей. Не забывайте об информативности. Как правильно писать теги title, description и заголовки H1, хорошо рассказывает наш копирайтер Екатерина в своей статье.

  4. Переезд на https

    C января 2017 года браузер Google Chrome (начиная с 56 версии) начал помечать все HTTP-сайты, содержащие любые формы, передающие личные данные пользователей (email, пароли, данные кредитных карт и т.п.) как «небезопасные». Также наличие SSL сертификата является небольшим импульсом в ранжировании в Google.

    Всем интернет-магазинам в первую очередь следует перейти на протокол https. При этом очень важно соблюсти правильный алгоритм действий.

    Самая частая ошибка – просто настроить 301-редирект со старой версии http на https после покупки SSL-сертификата. Владельцы сайтов забывают о файле robots.txt, директиве Host, настройке вебмастеров. Сайт с http выпадает из индекса, новый сайт на https еще не проиндексирован. Все позиции моментально улетают в трубу.

    В нашем Блоге есть подробная инструкция, как правильно перенести сайт с http на https. Если останутся вопросы, пишите нам, обязательно поможем.

  5. Файл robots.txt

    Текстовый файл, размещенный на сайте и предназначенный для роботов поисковых систем. В этом файле следует указать параметры индексирования своего сайта для поисковых роботов.

    Иногда файл robots.txt отсутствует вовсе.

    Свежий пример из нашей работы. Интернет-магазин станков, работы проводились в рамках услуги поисковое продвижение сайта. Сайт был полностью открыт для индексации поисковым роботам и вовсе не имел файл robots.txt.

    Настроили ему robots, теперь все в порядке:

    Что конкретно мы сделали?

    Закрыли от индексации админ панель сайта, служебные страницы 404 и 403, страницу поиска, корзину. Указали адрес карты сайта, настроили директиву Host.

    Вместе с остальными работами по оптимизации это помогло достичь следующих результатов:

    Еще одна серьезная ошибка – сайт полностью закрыт от индексации. За это отвечают директивы Disallow и Allow, которые запрещают или разрешают индексирование разделов, отдельных страниц сайта или файлов соответственно. Для проверки файла у поисковых систем есть специальные инструменты: Яндекс и Google.

    Проверьте, что у вашего сайта имеется файл robots.txt и заполнен он корректно. От индексации следует закрывать все служебные страницы, страницы поиска и фильтров. Страницы дублей, регистрации, авторизации. Корзину и страницу оформления заказа для интернет-магазинов. Подробнее о robots.txt.

  6. Дублирование контента (дубли страниц)

    Дублированный контент или просто дубли – это страницы на вашем сайте, которые полностью (четкие дубли) или частично (нечеткие дубли) совпадают друг с другом, но каждая из них имеет свой URL.

    Одна страница может иметь как один, так и несколько дублей:

    Поисковые роботы отрицательно относятся к дублированному контенту и могут понизить позиции в выдаче из-за отсутствия уникальности, а следовательно, и полезности для клиента. Нет смысла читать одно и то же на разных страницах сайта.

    Может измениться релевантная страница. Робот может выбрать для выдачи дублированную страницу, если посчитает ее содержание более релевантным запросу. Сайт потеряет позиции и просядет в выдаче. В 90% случаев дубли мешают продвижению, и после их устранения позиции сайта улучшаются.

    Как найти и убрать дубли на сайте, рассказываем в данной статье.

  7. Зеркала сайта

    Зеркалами считаются сайты, являющиеся полными копиями друг друга, доступные по разным адресам. Все зеркала сайта важно склеить через 301 редирект.

    Показатели тИЦ, вес внешних ссылок не должны растекаться, а они будут, т.к. поисковики считают разными ресурсами сайты, расположенные по разным адресам. Возможна подмена релевантной страницы в поисковой выдаче, дублирование контента. 100% мешает росту сайта в выдаче.

    Сайт не должен открываться по разным адресам, с www и без www, просто site.ru и site.ru/index.php, по http и https и т.д.:

    Чек-лист для проверки:

    • Сайт должен быть доступен только по одному протоколу http или https.
    • Выбрано главное зеркало сайта, с www или без www, указано в Вебмастере.
    • Настроен 301 редирект со всех зеркал.
    • Главная страница сайта доступна по одному адресу, без /index.php, /index.html и т.п.
  8. Адаптивная верстка (версия сайта для мобильных устройств)

    100% Must-have для всех сайтов в 2017 году. Сегодня рост мобильного трафика опережает компьютерный. Число пользователей, использующих смартфоны для совершения покупок, в мире растет с каждым днем. Алгоритмы поисковых систем учитывают адаптивность при ранжировании сайта в мобильной выдаче.

    Google уже с 2015 года использует алгоритм Google mobile-friendly.

    Яндекс год назад запустил алгоритм Владивосток.

    Если ваш сайт все еще не адаптирован под мобильные устройства – каждый день вы теряете до половины своих клиентов. Подробнее о том, зачем нужна оптимизация.

  9. Скорость загрузки сайта

    Тут все просто. Пользователям не нравятся медленные сайты. Поисковые системы так же отдают предпочтение быстрым, оптимизированным сайтам. Проверить скорость загрузки своего сайта можно с помощью инструмента Google. Красный – медленно, важно срочно увеличивать скорость, желтый – нормально, но можно оптимизировать, зеленый – отлично.

    Разберем на конкретном примере

    Помните, в начале статьи мы упоминали интернет-магазин станков. Что мы исправили из фатальных ошибок:

    • Неуникальный контент

    Написали хороший продающий, уникальный текст на главную страницу сайта.

    До проведения работ:

    После оптимизации:

    • Ошибки оптимизации

    Скорректировали теги title и description, заголовки H1.

    До проведения работ:

    После оптимизации:

    • Отсутствие файла robots.txt

    Создали и настроили файл robots.txt. Сейчас сайт правильно индексируется поисковыми системами. До этого, как писали выше, данного файла не было на сайте вовсе.

    • Наличие не склеенных зеркал

    Склеили зеркала сайта. Сайт был доступен по двум адресам с www и без.

    • Некорректный ответ сервера для несуществующих страниц

    Создали отдельную страницу 404 и настроили правильный ответ сервера для несуществующих страниц.

    До выполнения работ несуществующие страницы через 302 редирект перенаправляли пользователя на главную страницу сайта.

    Результаты:

    Положительная динамика роста посещаемости из поисковых систем:

    Трафик из Google вырос в два раза:

    Результат за 3 месяца:

    +8 запросов у Яндекса, +6 у Google в топ-5

    +19 запросов у Яндекса, +9 у Google в топ-10

    +25 запросов у Яндекса, +11 у Google в топ-20

    +14 запросов у Яндекса, +4 у Google в топ-50

    Посмотреть позиции до и после »

    Хотите так же? Проверьте, может данные ошибки есть и на вашем сайте. Если нет времени и желания разбираться, заказывайте поисковое продвижение у нас, с радостью поможем.

Автор Леонид Батыкин
Специалист отдела SEO 1PS

среда

Зеркала и склейка

В SEO термины «зеркало» и «склейка» имеют важное значение, поэтому каждый сайтовладелец, самостоятельно продвигающий свой ресурс, должен разобраться в этом вопросе. В зеркалах и склейке нет ничего сложного, однако нужно четко представлять себе весь механизм.

С настоящим зеркалом сайта обычный сайтовладелец практически никогда не сталкивается, потому что крайне редко возникает ситуация одновременного существования двух и более полных или частичных копий сайта на разных серверах с разными IP. Это требуется обычно для поддержания очень больших и высоконагруженных сайтов, к которым одновременно обращаются тысячи человек.

Указать главное зеркало можно в файле robots.txt с помощью директивы Host. Эта директива с гарантией работает при выборе зеркала при настроенном редиректе, а если речь о независимых копиях сайта, то она лишь является важным фактором для решения поисковика, но не прямым указанием для него.

Правило для настоящих зеркал: обязательно ставить редирект с кодом 301 на основное зеркало и прописывать основное зеркало в robots.txt дополнительных зеркал.

Однако зеркалом часто называют не только физическую копию сайта на другом сервере, но и один сайт, доступный с разных адресов, то есть доменное зеркало. Фактически, каждый сайт имеет как минимум одно такое доменное зеркало, поскольку должен быть доступен как с префиксом www, так и без. Однако для поисковых систем сайты www.site.ru и site.ru – это разные домены. Если не принять никаких мер, то поисковик выберет один из них по своему разумению и сделает главным зеркалом. Это может повлечь следующую проблему: если на сайт ведут внешние ссылки с анкорами типа http://www.site.ru/page1.html, а главным зеркалом поисковик счел домен без префикса www, то внешние ссылки перестанут приносить пользу: они будут повышать авторитетность сайта, исключенного из поиска (так как показывается только главное зеркало). Пользы от этого никакой. Однако такую ситуацию достаточно легко исправить: достаточно поставить редирект с кодом 301 со страниц неглавного зеркала на соответствующие страницы главного. В этом случае передаваемый вес практически не потеряется. Такой метод объединения страниц с помощью редиректа для переноса веса иногда называют «подклейкой».

При создании сайта стоит сразу указать основное зеркало в robots.txt всех доменов-зеркал, а также настроить редиректы (об этом мы достаточно подробно писали в одном из предыдущих номеров рассылки).

Недобросовестные оптимизаторы иногда пользуются таким приемом при продвижении низко- и среднечастотных запросов: проставляют ссылки на свой сайт, а с его страниц делают редиректы на страницы сайта клиента. Когда клиент решает завершить отношения с оптимизатором, у того остается достаточно авторитетный сайт со ссылочной массой, а клиент мгновенно лишается всех ссылок.

Итак, с зеркалами мы разобрались (почитайте еще FAQ «Яндекса» на эту тему), при этом коснулись и понятия склейки. Склейка – это когда поисковая система считает два или более документа (страницы) копиями, поэтому показывает при выдаче результатов только один из них. Склеить поисковая система может как страницы одного сайта, так и разных, принадлежащих разным владельцам. Обычно это происходит из-за большого процента одинакового контента. Как и в случае с зеркалами, поисковая система определяет главную копию, и именно ее показывает в результатах поиска.

Внутренняя склейка часто возникает из-за дублирующихся тегов Title – если описания страниц одинаковые (многие CMS часто делают их одинаковыми, если не менять их вручную), до шанс непредсказуемой склейки очень велик. Ведь HTML-код страниц одного сайта очень похож: достаточно одинаковых тегов Title и какого-то небольшого совпадения в контенте, чтобы некоторые страницы были склеены. Следует обязательно создавать индивидуальные TItle и метатеги для каждой страницы, а также избегать дублирования контента по всему сайту. Еще одна распространенная проблема – возникновение многочисленных дублей страниц (версия для печати, один и тот же контент, доступный по разным URL) в некоторых CMS. С этим нужно бороться: либо настраивать CMS, чтобы она не плодила дубликаты, либо автоматически подклеивать все дубли к основным страницам с помощью 301-редиректа.

Внешняя склейка – исключение страниц разных сайтов за одинаковый контент. Необходима как профилактика (при добавлении текстов на сайт нужно вносить их в форму «Содержимое сайта – Оригинальные тексты» в сервисе «Яндекс.Вебмастер»), так и расклейка путем переделывания контента и Title страниц, с которыми это случилось.

Склеить сайты поисковая система может также из-за аффилированности: из-за совпадения контактных данных и данных во whois домена. В этом случае поисковик решает, что сайты принадлежат одному владельцу, поэтому не должны одновременно показываться в выдаче по одинаковым поисковым запросам. 

Выводы

Следите за историей своего сайта, подклеивайте страницы старых доменов к новым с помощью редиректа. Если страницы выпадают из выдачи, проверьте, нет ли совпадений по контенту среди новых лидеров с вашими страницами (то есть не склеилась ли ваша страница с чужой). О настройке редиректов с помощью веб-сервера Apache читайте в статье "Настройки веб-сервера"