Сопли Google и как уберечь сайт от простуды
Supplementary results или дополнительные результаты или, как привыкли мы русифицировать по звучанию английские слова, сопли Google – это ещё один фильтр поисковика. Он угрожает в первую очередь тем страницам, которые продвигаются по редким, низкочастотным запросам.
В этой статье я расскажу всё о том, что делать, если ваш сайт стал пускать сопли, как их распознать и почему этот недуг может появиться.
Функции
Споли Google придуманы для того, чтобы не отвлекать внимание пользователей поисковика на ненужные, не интересные и некачественные страницы, но с таким подходом, чтобы эти страницы можно было при желании тоже просмотреть.
В отличие от других фильтров Google, которые просто понижают позиции сайта, этот фильтр помещает страницы в специальном разделе поисковой выдачи, который называется Supplementary results или дополнительные результаты в русскоязычной версии. Это значит, что пользователь сам решает, смотреть ему сайты, попавшие туда, или нет. И, как правило, никто особо туда не стремится посмотреть.
Дополнительный поиск Google
Симптомы и диагноз
Обнаружить сопли Google, накапанные на ваш сайт, достаточно просто. Введите в поисковик какой-то запрос, под который написана одна из статей, и посмотрите, есть ли страница вашего сайта в основной поисковой выдаче. Если нет, то посмотрите в дополнительных результатах, которые располагаются на последней странице поиска. Если там есть страница вашего сайта, значит это фильтр Supplementary results.
Может быть так, что ваш сайт будет отображаться и в основных результатах поиска Google, и в дополнительных. В дополнительных будут отображаться дубли страниц – страницы вашего сайта с одинаковым содержимым, но с разными URL. Это тоже проблема для продвижения, поэтому вам необходимо убрать дубли страниц из индекса.
Если вашего сайта нет ни в основной, ни в дополнительной поисковой выдаче, значит это другой, более серьёзный фильтр, и проблему нужно искать как-то иначе.
Таким образом, можно проверить все страницы сайта на сопли Google. Делать это придётся вручную. Фильтр накладывается на отдельные страницы, а не на весь сайт.
Причины
Причины наложения фильтра на страницы сайта просты и очевидны – плохое качество. Можно привести ряд традиционных и понятных причин, по которым может быть применён этот алгоритм:
- Не уникальность контента. Это касается как внешней не уникальности (копипаст), так и внутренней (одинаковые фрагменты текста на разных страницах сайта).
- Некачественная перелинковка. Это тоже касается как внешней перелинковки (спамные ссылки или некачественнее площадки), так и внутренней (спамные, некачественные внутренние ссылки).
- Техническое несовершенство страниц – медленная скорость загрузки, плохое удобство просмотра и прочее.
- И другие причины, которые характеризуют низкое качество контента.
Лечение
Чтобы избавиться от этого фильтра, необходимо просто понять, в каком месте контент показал себя некачественным, и привести его в порядок. Причём желательно провести комплексное лечение – если, например, сайт попал в дополнительный поиск Google за низкую уникальность, нужно не только уникализировать текст, но и позаботиться о других признаках качества. Лишним это точно не будет.
После улучшения качества необходимо подождать апдейта Google и периодически проверять страницы, обнаруженные в дополнительные результатах: остаются они там или перешли в основную выдачу. В общем, нужно держать руку на пульсе.