Поисковые алгоритмы ранжирования сайтов. Анатолий Косарев

Читать онлайн.
Название Поисковые алгоритмы ранжирования сайтов
Автор произведения Анатолий Косарев
Жанр Компьютеры: прочее
Серия
Издательство Компьютеры: прочее
Год выпуска 0
isbn 9785005689986



Скачать книгу

align="center">

      Дублированный контент

      Скопированный контент, считается дублированным, если появляется в Интернете более чем в одном месте. Обычно поисковики считают, что оригиналом является тот текст, который ими был проиндексирован раньше.

      Проблемы с копиями страниц также могут возникать на собственном веб-сайте, когда есть несколько страниц с одинаковым текстом, практически без изменений.

      Например, компания, занимающаяся уборкой помещений в разных городах страны, может создать 10 страниц, по одной для каждого города. Очень здорово с точки зрения геозависимого поиска. Но содержание веб-страниц идентично для всех городов. Отличие страниц только в названии города, интервал времени прибытия для уборки и тарифы.

      Низкокачественный контент

      Если на странице отсутствует подробная информация, разъяснения термина, явления, и подобного, то такие страницы Google считает, не представляют ценности читателю. Опять-таки возвращаемся к сопутствующим словам, которые есть в текстах на уже зарекомендовавших себя сайтах.

      Например, если вы описываете номера в своей гостиницы, то для полного понимания, насколько хорош номер, требуется описание всех предметов, которые находятся в номере, чтобы пользователь понимал какой комфорт, ему предлагается.

      Или другой пример. Кулинарный рецепт трудно представить без описания, какие продукты туда входят, времени и методики их приготовления. Рецепт будет считаться более полным, если в него добавить калорийность, аллергены, дополнительные фотографии, или видео.

      Недостаток авторитета достоверности

      Контент, созданный со ссылками на источники, которые Google не считает авторитетными, не увеличивают вес страницы.

      Представители Google неоднократно заявляют в различных изданиях, что сайты, нацеленные на то, чтобы избежать влияния Panda, попадают в черный список, и должны работать, чтобы стать признанными авторитетами в своей теме и отрасли. И не делать попытки обмануть этот фильтр.

      Чтобы стать авторитетным сайтом пользователь на этом сайте должен чувствовать себя комфортно, чувствовать надежность и, если требуется предоставлять информацию о себе и своей кредитной карте.

      Именно поэтому Google считает, что ссылки на неавторитетные сайты делает и сайт донор не авторитетным.

      То же самое, когда не авторитетный сайт ссылается на более авторитетный сайт, то авторитетный сайт делится своим авторитетом, но это уже действие другого фильтра CO-citation Linking Filter.

      Более подробно об определения авторитета сайта читайте в книге «5000+ сигналов ранжирования в поисковиках».

      Большое количество некачественных страниц

      Здесь под некачественными страницами имеется ввиду, что материал собран с различных не авторитетных сайтов слабо подготовленным копирайтером.

      В результате получается большой набор маленьких не авторитетных