Фильтр Panda
Фильтр Panda
Дата запуска: февраль 2011
Отслеживает: дубликаты контента, плагиат, переспам ключевыми словами, спам-контент.
Как работает?
Панда оценивает «качество» документов сайта (страниц) и присваивает некий балл, используемый впоследствии как один из факторов ранжирования. Первоначально алгоритм «Панда» был фильтром, но с 2016 года он стал составной частью основного алгоритма ранжирования. Вследствие этого штрафы (пессимизация) некачественного и переспамленного контента проводится значительно быстрей.
Google Panda был разработан как алгоритм борьбы с текстовым спамом и некачественным контентом, а также с некачественными сайтами в целом. В ходе эволюции алгоритма стало известно, что данный алгоритм понижает позиции сайтов, которые:
- содержат копированный контент с других сайтов;
- искусственно разбивают одну публикацию на несколько и заставляют пользователей постоянно нажимать «Следующая часть статьи», чтобы получить весь контент полностью;
- содержат контент сотен разных тематик (контент-фермы);
- некорректно работают технически, или регулярно недоступны, или содержат много технических ошибок;
- содержат низкокачественный контент. При этом даже опечатки входят в признаки низкого качества текста для «Панды»;
- содержат машинно-сгенерированный контент. Гугл умеет распознавать генерацию спамерских «уникальных текстов» с помощью марковских алгоритмов, вариаций синонимов и т. п.;
- имеют большой показатель отказов - сигнал низкого качества контента или его нерелевантности;
- являются входом в «партнёрки» (то есть сайты, которые созданы специально для заработка на партнёрских программах);
- имеют предупреждения о безопасности и другие сообщения об ошибках;
- имеют плохой дизайн и юзабилити. Это субъективная метрика, но сайт, на котором пользователь из-за дизайна не может легко получить нужный контент (как и поисковый робот), однозначно будет считаться плохим;
- не имеют оптимизации под поисковые системы (например, пустые метатеги и заголовки страниц).
Алгоритм Panda постоянно обновляется (в среднем около одного раза в месяц), но официальная информация об обновлениях уже давно не публикуется. Ваш сайт может быть затронут «Пандой» именно в очередное обновление алгоритма - об этом будет сигнализировать резкое падение трафика. Следите за отраслевыми СМИ и сообществами веб-мастеров - обычно в течение пары дней после апдейта о нём становится известно исследователям и оптимизаторской общественности.
Что делать?
Необходимо избавиться от спамного контента и дубликатов контента. Дубликаты можно отловить используя Screaming Frog SEO Spider, просканировав сайт и проверив title и description. Далее необходимо избавится от спамного контента (неинформативного, генерированного, заимствованного и пр.), снизить плотность вхождения ключей, избавиться от явного акцентирования текста на коммерческих ключах, проверить структуру хеддингов, переписать title и description в сторону уменьшения вхождения ключей. Так же избавляемся от неуникального контента, уникализируем изображения.