Перейти к основному содержанию

Фильтр Panda

DrMax.suGoogleGooglePandaПоисковые системыСанкции поисковых системОколо 1 минОколо 405 слов

Фильтр Panda

Дата запуска: февраль 2011

Отслеживает: дубликаты контента, плагиат, переспам ключевыми словами, спам-контент.

Как работает?

Панда оценивает «качество» документов сайта (страниц) и присваивает некий балл, используемый впоследствии как один из факторов ранжирования. Первоначально алгоритм «Панда» был фильтром, но с 2016 года он стал составной частью основного алгоритма ранжирования. Вследствие этого штрафы (пессимизация) некачественного и переспамленного контента проводится значительно быстрей.

Google Panda был разработан как алгоритм борьбы с текстовым спамом и некачественным контентом, а также с некачественными сайтами в целом. В ходе эволюции алгоритма стало известно, что данный алгоритм понижает позиции сайтов, которые:

  • содержат копированный контент с других сайтов;
  • искусственно разбивают одну публикацию на несколько и заставляют пользователей постоянно нажимать «Следующая часть статьи», чтобы получить весь контент полностью;
  • содержат контент сотен разных тематик (контент-фермы);
  • некорректно работают технически, или регулярно недоступны, или содержат много технических ошибок;
  • содержат низкокачественный контент. При этом даже опечатки входят в признаки низкого качества текста для «Панды»;
  • содержат машинно-сгенерированный контент. Гугл умеет распознавать генерацию спамерских «уникальных текстов» с помощью марковских алгоритмов, вариаций синонимов и т. п.;
  • имеют большой показатель отказов - сигнал низкого качества контента или его нерелевантности;
  • являются входом в «партнёрки» (то есть сайты, которые созданы специально для заработка на партнёрских программах);
  • имеют предупреждения о безопасности и другие сообщения об ошибках;
  • имеют плохой дизайн и юзабилити. Это субъективная метрика, но сайт, на котором пользователь из-за дизайна не может легко получить нужный контент (как и поисковый робот), однозначно будет считаться плохим;
  • не имеют оптимизации под поисковые системы (например, пустые метатеги и заголовки страниц).

Алгоритм Panda постоянно обновляется (в среднем около одного раза в месяц), но официальная информация об обновлениях уже давно не публикуется. Ваш сайт может быть затронут «Пандой» именно в очередное обновление алгоритма - об этом будет сигнализировать резкое падение трафика. Следите за отраслевыми СМИ и сообществами веб-мастеров - обычно в течение пары дней после апдейта о нём становится известно исследователям и оптимизаторской общественности.

Что делать?

Необходимо избавиться от спамного контента и дубликатов контента. Дубликаты можно отловить используя Screaming Frog SEO Spider, просканировав сайт и проверив title и description. Далее необходимо избавится от спамного контента (неинформативного, генерированного, заимствованного и пр.), снизить плотность вхождения ключей, избавиться от явного акцентирования текста на коммерческих ключах, проверить структуру хеддингов, переписать title и description в сторону уменьшения вхождения ключей. Так же избавляемся от неуникального контента, уникализируем изображения.