300+ факторов ранжирования в Google. Анатолий Владимирович Косарев

Читать онлайн.
Название 300+ факторов ранжирования в Google
Автор произведения Анатолий Владимирович Косарев
Жанр Компьютеры: прочее
Серия
Издательство Компьютеры: прочее
Год выпуска 0
isbn 9785005114921



Скачать книгу

Search Console, не повлияют на то, как Яндекса, так и других поисковых систем, которые сканируют сайт. Придется использовать инструменты для других поисковых систем в дополнение к настройке параметров в Search Console.

      Файл robots. txt.

      В файле robots. txt сообщается поисковым ботам, какие страницы или файлы не стоит сканировать.

      Для этого используют директиву «Disallow». Она запрещает заходить на ненужные страницы.

      Заметьте, если страница указана в robots. txt с директивой Disallow, это не значит, что страница не будет проиндексирована, и не попадёт в выдачу.

      Это может произойти, потому что

      · страница была проиндексирована ранее,

      · на неё есть внутренние

      · или внешние ссылки.

      Инструкции robots. txt носят рекомендательный характер для поисковых ботов. Поэтому этот метод не гарантирует удаление дублей из списка ранжированных страниц.

      Всегда тег rel = canonical гарантирует, что версия вашего сайта получит дополнительный кредит доверия как «оригинальный» фрагмент контента.

      Дополнительные методы для работы с дублирующим контентом.

      1. Если веб-мастер определяет, что каноническая версия домена – www.example.com/, то все внутренние ссылки должны идти по адресу

      http: // www. example.com/example, а не http: // example.com/page

      (обратите внимание на отсутствие www).

      2. При копировании фрагмента контента убедитесь, что страница с копированной частью добавляет ссылку на исходный контент, а не вариант URL.

      3. Чтобы добавить дополнительную защиту от копирования контента, уменьшающего SEO- вес для контента, разумно добавить ссылку на rel-canonical для ссылок на существующие страницы. Это канонический атрибут, указывающий на URL-адрес, на котором он уже включён, и это значит, что это препятствует воровству контента.

      После того как устранили дублирующий контент необходимо проверить сайт ещё раз. Только так можно убедиться в эффективности проведённых действий.

      Анализ сайта на дубли желательно проводить регулярно. Только так можно вовремя определить и устранить ошибки, чтобы поддерживать высокий рейтинг сайта.

      Дополнительно читайте о дублях страниц в ФИЛЬТРЕ PANDA, в первой части книги «36 фильтров Google».

      ИЗОБРАЖЕНИЯ

      60 фактор. Уникальность изображения

      На сайте изображения должны быть уникальными, также, как и тексты. Если картинка взята с другого сайта, то такие изображения не учитываются.

      Даже если у вас интернет-магазин, который продаёт брендовые вещи, и на нем вы размещаете фотографии производителя, то для поисковиков – это не аргумент качества сайта, а фактор того, чтобы не учитывать это изображение.

      Только уникальные изображения добавляют вес страницы.

      61 фактор. Дубли изображения

      Также, как и текст поисковик учитывает только на одной страницы, которую проиндексировал первой, так и изображение увеличивает вес только один раз.

      Повороты, обрезание, зеркальные отражения, применение различных фильтров Google распознает. Так что такие манипуляции