Google Panda 4.2 — как с ним жить

Google Panda 4.2 — как с ним жить

Как понять, что алгоритм Google Panda наложил санкции на ваш сайт и что сделать, чтобы избавиться от него? Из следующего материала вы подробно узнаете все о последних изменениях в Panda от Google.

Итак, чем же характерен Panda версии 4.2:

  1. Хотя большинство пользователей и называют его апдейтом, на самом деле, Панду 4.2. нельзя назвать апдейтом в полном смысле этого слова. Т.к. апдейт подразумевает некие изменения в алгоритме. А тут, если верить словам официальных представителей Google, речь идёт о том, что обновляется база сайтов, которые анализируются.
  2. В то же время, это событие более ожидаемое, чем какой-либо обычный апдейт. Дело в том, что ожидается, что вернётся трафик на сайты, попавшие под Panda 4.1. Другие же вебмастера вполне законно волнуются, т.к. на них, напротив, могут быть наложены жёсткие санкции. Но произойдёт всё это не сразу, а в течение месяцев. Есть вероятность, что такой глобальный «апдейт» станет последним, после чего обновления в Panda будут происходить постоянно, но незаметными для непосвящённых темпами.
  3. Многие заметят действие Panda 4.2. Речь, конечно, идёт о вебмастерах и продвинутых пользователях, а не о тех, кто привык читать новости на парочке глобальных порталов. Говорится о том, что более 100 миллионов сайтов будут серьёзно затронуты новым алгоритмом.
  4. Алгоритм по-прежнему будет касаться всего сайта, но в то же время – анализ будет проводиться и для каждой страницы, и её значимость в выдаче также будет выделяться в зависимости от размещённого на ней материала.

Что же делать, если Гуглевская Panda наложила санкции на сайт? Как избавиться от санкций? Надеемся, что следующие советы помогут.

 

#1 Надо выяснить, в чем конкретная причина падения трафика

Чтобы понять, из-за чего именно на ваш ресурс пришёл Panda от Google, можно воспользоваться разными возможностями. Например, может проанализировать источники трафика с помощью Google Analytics. Можно проверить, как ранжируется сайт по низкочастотным запросам, либо по отдельным частям текста. Также можно применять и комплексный метод и уже на его основе ставить диагноз.

Ещё один неплохой вариант, это использование Panguin Tool. Во всяком случае, некоторые сеошники пользуются им и рекомендуют, как достаточно продуманный инструмент, показывающий по каким причинам просел на сайте трафик. Эта утилита показывает, какие были последние версии алгоритмов от Google и как, по мере их выхода изменялся трафик вашего сайта. Есть и другие сервисы (например, Mozcast), которые демонстрируют, как изменяется выдача.

Апдейт Google Panda

Вебмастер должен помнить, какие технические работы проводились на его ресурсе в последнее время. Возможно, трафик упал именно из-за технических проблем, которые не были вовремя устранены.

Не стоить забывать и о таком полезном инструменте как Google Search Console. Там можно проверить: не были ли наложены на сайт ручные санкции. Если это произошло, то там будет указана причина их применения. А если указана причина, то её следует как можно скорее исправить.

 

#2 Новости SEO-сообщества вам помогут

Т.к. апдейт обещает быть достаточно неспешным, поначалу падение трафика может происходить только на отдельных страницах ресурса. И если это замечено, то лучше приобщится к знаниям сео-сообщества. Существуют тематические форумы, где идёт активное обсуждение даже достаточно редких проблем. Например, предыдущие версии алгоритма Penguin были замечены и проанализированы там ещё раньше, чем о них официально объявлял Гугл. Т.е. – на примере того, как что-то изменялось в выдаче отдельных сайтов, придумывались эффективные тактики позволяющие избегать кар Google.

 

#3 С проблемными страницами надо работать

Если замечено, что у той или иной страницы, на которую недавно ещё активно заходили, теперь просел трафик – она проблемная. Это не значит, что её надо удалять. С такой страницей надо работать.

Какие страницы попадают в зону риска:

  1. Если на странице слишком много рекламы.
  2. На странице может быть дублирующийся контент (или частично дублирующийся) со страницами этого или других сайтов.
  3. Если на странице слишком мало текста (менее 400 слов) – это тоже плохой признак.
  4. Страницы до которых сложно добраться (более 4-х переходов от главной страницы).

Любые страницы, которые по мнению гугльского алгоритма являются некачественными, неудовлетворяющими запросы пользователей, могут попасть под его негативное действие. Работа с ними – процесс довольно рутинный, но необходимый для проведения качественной поисковой оптимизации.

Panda от Google в первую очередь смотрит на то, как ведёт себя пользователь на сайте. Если он, пройдя на страницу, провёл на ней всего пару секунд, то это значит, что его ожидания не оправдались, что его завлекли туда обманом и, соответственно, велик риск, что такая страница будет засчитана как некачественная и попадёт под фильтр.

Для того чтобы проверить как весь сайт в целом, так и отдельные его страницы, была запущен новый сервис Prodvigator. Вот по каким критериям «продвигатор» вычисляет качество страницы:

  1. Частота, с которой на анализируемой странице попадаются слова из запроса пользователя.
  2. Выделены ли на странице слова поискового запроса при помощи жирного шрифта или курсива.
  3. Сколько на странице ключевых слов из запроса пользователя.
  4. Размеры страницы тоже имеют значение.
  5. Соотношение словосочетаний на странице и их же из поискового запроса (считается прямое вхождение).
  6. Учитываются и другие параметры (а их весьма много).

Если раньше на вопрос о том, как избегать фильтров Google, опытные сеошники твердили о создании качественного контента, то сейчас ответы уже не столь однозначны. Да и представители Гугля все чаще упоминают о том, что новая версия Panda особенно благосклонна к старым текстам.

 

#4 Много контента – это хорошо

Новые алгоритмы Google неодобрительно относятся к излишне коротким, по их мнению, текстам. Например, если на странице содержится меньше 400 слов, то это будет воспринято поисковиком с подозрением. Оптимальными считаются значения от 600 до 800 слов.

Конечно, вручную высчитывать слова на каждой странице вам не нужно. Воспользуйтесь плагином Word Count, который все оперативно сосчитает. Разработан он, также как и многие другие хорошие плагины, под Chrome.

Но не на каждую страницу получается сочинить по 600 и более слов. Это может быть какой-то очень узкотематический текст, который сложно растянуть без внедрения спама. В таком случае не помешают ссылки на авторитетные ресурсы, которые как бы подтверждают значимость такой статьи.

 

#5 Порой не обойтись без старательного редактирования

Специалисты из Google постарались, чтобы их Panda проводила как можно более тщательный анализ текста, причём на всех языках. Используется индекс удобочитаемости (также известный как формула Флэша), и по полученным данным выдаёт страницу в ранжировании. Например, если показывается уровень «80», то это весьма примитивный текст и его могут усвоить даже дети. А если меньше «30», то такой уровень будет понятен только научным сотрудникам.

Формула Флеша

Неплохим подспорьем для определения, насколько хорош для поисковика текст, является сервис «Главред». С его помощью можно хорошенько вычистить тексты от мусора, но и не ко всем его рекомендациям следует относиться так уж серьёзно.

Умелое пользование синонимами тоже полезно: с их помощью можно подавать похожую информацию разными способами. Говорят, что с помощью синонимизации можно увеличить трафик примерно в 9 раз.

 

#6 И фото и видео – чем больше, тем лучше

Времена длинных текстовых портянок давно прошли. Мало у кого хватает терпения изучить такие страницы до конца. Их быстро закрывают. Зато в выдаче Google 55% страниц содержат видео и 40% — фото.

Кстати, и ключевые слова в title и alt к видео и фото никто не отменял. Не надо лениться: прописывайте их, помогая поисковику определять, где что находится.

 

#7 Панда не любит слишком «тяжёлые» сайты

Тщательный анализ показывает, что Панда недружелюбно относится к сайтам с большим количеством страниц. Если у ресурса более 10 тысяч страниц, то это ещё один тревожный сигнал для алгоритма, т.к. он полагает, что в таком случае пользователю сложно будет найти информацию. Вот какие советы сеошники дают для сайтов со многими тысячами страниц:

  1. Малозначимые страницы блокировать через robots.txt
  2. Если на страницах есть noindex, то их лучше вывести из индексации
  3. Также малозначимые страницы лучше удалять, либо объединять их с максимальной выжимкой полезного текста
  4. Лучше самому указывать Google, какие страницы должны индексироваться в первую очередь. Помогает в этом тег canonical.
  5. Страницы забивающие сайт лишней информацией можно перенести на поддомены.

Ещё один простой совет: если выяснилось, что из-за Google Panda утеряна половина трафика, то оптимальный способ вернуть людей – просто сделать сайт наполовину легче и проще.

 

#8 Внутренняя перелинковка и работа с ней

Не забывайте, что если страницы не открываются по внутренним ссылкам, то это признак некачественного сайта и санкций не избежать. Проверьте с помощью подходящего сервиса, например Screaming Frog SEO Spider.

Что ещё нужно сделать для качественной перелинковки.

  1. Нет ничего плохого в большом основном меню. Скажем, если с главной страницы идёт полторы сотни внутренних ссылок, то для поисковика это хорошо.
  2. Для интернет-магазина рекомендуется включение дополнительной навигации.
  3. Сквозные или повторяющие ссылки, которые пользователь увидит после перехода с главной страницы сайта в боковом меню, тоже принимаются как плюс.

 

#9 Распространять контент надо. Но делайте это вдумчиво.

Да – распространять созданный контент надо. Постить полностью, либо частично на популярных ресурсах. Но делать это надо, продумывая последствия. Как пример можно привести один популярный блог, который дублировал свои хорошие посты на специализированных ресурсах. Получался ежемесячный прирост пользователей. Вот только после того как Google Panda в очередной раз апнулся, оказалось, что его алгоритм уже не может разобрать, где первоначальный источник тех популярных постов. В результате, плюс был зачислен сторонним ресурсам, а тот популярный блог потерял огромное количество посетителей.

Падение органического трафика

Но без рекламы и репостов не обойтись. Так опытные авторы тратят на создание текста 2 часа, а на его распространение с целью привлечения читателей – 14 часов.

Вот что требуется сделать, чтобы новая Панда определяла, где первоначальный источник информации:

  1. Старые посты нужно поменять, прописывая в тайтлах, откуда взята информация (без договорённости с владельцами сторонних ресурсов здесь не обойтись).
  2. В ссылки нужно прописывать rel=”canonical”, что добавляет значимость странице, на которую она ведёт.
    relcode
  3. Уникальные посты с такими ссылками тоже вернут утерянные позиции.

 

#10 Панда – это надолго

Представителями Google было объявлено, что Panda 4.2 начнёт действовать 18 июля. После этого в течение 10 месяцев будет происходить процесс апдейта. Следующее же обновление ожидается ещё примерно через год. И во всё это время (т.е. приблизительно 22 месяца), обновления на сайте не будут учитываться, т.е. – раз уж попали, так попали.

Но паниковать из-за этого не стоит, т.к. уж слишком сильных отличий в алгоритме новой Panda нет. Если следовать рекомендациям поисковых систем, то фильтры вас не затронут.

[schema type=»review» url=»d-sant.com» name=»Google Panda 4.2″ description=»10 советов как не попасть под алгоритм Google Panda 4.2″ rev_name=»SEO» rev_body=»10 советов как успешно продвигать сайты в условиях алгоритма Google Panda 4.2″ author=»Андрей Унтерзегер» pubdate=»2016-04-11″ user_review=»4.1″ min_review=»2″ max_review=»5″ ]