Алгоритм Гугл Панда. Google Панда как бороться
Алгоритм Гугл Панда. Сейчас изучаю алгоритмы работы поисковиков, и решил в этом небольшом посте поделиться кое какими соображениями.
Алгоритм Google Панда был введен в августе 2011 года, я имею ввиду наш сектор Интернета, буржуины под него попали раньше, и навел очередной шорох в рядах seo-шников.
Гугл стал еще больше щемить оптимизаторов и те в свою очередь искать новые фишки оптимизации своим детищам.
Но как ни крути Гугл не Яндекс и его не обманешь, все мы равно или поздно придем к тому что сайт должен быть сделан для людей.
В среде оптимизаторов обновление алгоритма, которое назвали Пандой также известно как «Гугл Фермер».
Мало кто знает, что назван он был в честь одного из инженеров компании Google — Навнита Панды, который, собственно, его и разработал.
Обновленный Алгоритм Гугл, ранжирования, благодаря разработкам Панды, работает намного сложнее и качественнее, чем предыдущий.
Он основан на уникальности и релевантности предоставляемого контента.
Он анализирует взаимосвязь между контентом, заголовком и ссылками, которые были даны в контенте. Это обновление очень сильно повлияло на поисковую выдачу, поэтому некоторые опытные веб-мастера и оптимизаторы называют его больше фактором ранжирования, нежели обновлением алгоритма.
Важность обновления Алгоритма Гугл Панда
Большое количество трафика, который идет на сайты, направляется Гуглом. Малейшие изменение в алгоритмах ранжирования могут влиять на весь бизнес владельцев сайтов. Главная цель запуска этого обновления — удаление из верхних позиций поисковой выдачи некачественных сайтов.
Его суть заключалась в том, чтобы определить эти некачественные сайты и улучшить пользовательский опыт, предоставляя только наиболее релевантные запросу результаты.
Как при этом работать с Алгоритмом Гугл Панда
Одним из способов борьбы с обновленным алгоритмом является глубокое взаимодействие с пользователями и дальнейшее влияние на персонализированную выдачу этого пользователя.
Если ваш сайт нравится посетителям, то он будет заходить на него не один раз, а Google этому придает очень сильное значение, формируя персонализированную выдачу. Поэтому следует большое внимание уделять теперь пользовательскому опыту, который он испытывает, пользуясь вашим сайтом.
Основные факторы которые учитываются алгоритмом Google Панда
1. Уникальность контента.
Об этом и упоминать не стоит это аксиома. Контент-король!
2. Поведенческие факторы
Как говорится были есть и всегда будут. Люди должны проводить время на Вашем сайте.
3. Соответствие или релевантность рекламы
Чтоб не лить воду, скажу просто, реклама должна быть по теме ресурса. Если сайт о рыбалке, никакой рекламы противозачаточных там не должно быть.
Грамотно подходите к выбору рекламодателей.
4. Ну и ссылочная масса , куда уж без нее.
Что и в этом случае нужно действовать с умом, говорить наверное лишнее.
Если уж покупаете ссылки т берите их на тех биржах, где проверяются сайты на уникальность. не покупайте на говно-помойках.
Постараюсь в ближайшее время сделать более развернутый пост на эту тему.
5. Внутренняя оптимизация сайта.
Никаких черных приемов, только белое SEO и очень осторожно.
Оптимизация графики
Грамотное написание текстов
внутренняя перелинковка (ручная)
грамотно составленный файл robots.txt
Заботьтесь о пользователе, и Гугл позаботится о вас!
Если тема зацепила, посмотрите в каталоге лучших статей блога , там еще много информации по оптимизации блога!
И под конец хочу представит вам обзор от профессионалов от мегаиндекса.
Федор Ашифин.
Создание проектов под ключ любой сложности!Доводка сырых сайтов до кондиции
Разработка уникального дизайна под заказ
Верстка и натяжка на популярные ситемы: WordPress, MODX, OpenCart Обращайтесь, сделаем качественно и красиво! Skype: ashifin Viber/Mob: V+380503613708 Как заказать сайт?
Что стоит знать об алгоритме Панда от Google: развенчиваем мифы
Привет, Друзья! Сегодня поговорим о таком страшном «звере», как Панда. «Панда» – это не только красивая и милая зверюшка, у многих seo-специалистов это слово вызывает совсем другую ассоциацию. Речь идет об Google-алгоритме, который был создан для контроля качества контента на веб-ресурсах.
Алгоритм панда от Google
Работает алгоритм Панда следующим образом. Если наполнение веб-ресурса не соответствует требованиям «Панды», его рейтинг в поисковой выдаче будет существенно снижен. Впервые об этом алгоритме узнали в 2011, после его запуска сео-специалисты полностью переоценили свои приоритеты в SEO-продвижении.
На протяжении пяти лет «Панду» совершенствовали 28 раз. Летом 2015 года специалисты компании заговорили о том, что фильтр могут внедрить в основной алгоритм Гугл. И судя по заявлениям, это уже произошло, как теперь работает алгоритм не совсем понятно. Но, изучив разные источники, мы можем прояснить ситуацию и рассказать, что теперь нужно ожидать от «Панды».
Новый алгоритм работы Панды от Гугл
Итак, обновленная версия теперь может:
- Работать автоматически, но не в онлайн (как многие предполагали). Обновляться фильтр будет периодически, с той же частотой, что и главный алгоритм.
- Апгрейды будут проводиться чаще, чем раньше.
- Гугл больше не будет, как раньше, сообщать относительно обновления этого отдельного алгоритма. Поэтому станет труднее определить, по какой причине понизили позицию сайта.
- Теперь можно не вспоминать о «Панде», как об отдельном алгоритме. Ведь нужно улучшать сайт не под этот конкретный фильтр, а под общие требования и критерии Гугл.
Что алгоритм «Панда» не любит
А вернее, за что наказывает владельцев сайтов?
Первое – это копипаст, если вы просто копируете информацию с других ресурсов, то позиции ваши понизятся, рано или поздно, как только это будет замечено программой.
Второе – ваша информация не имеет никакой ценности. Страницы могут быть SEO-оптимизированными, с оригинальным контентом, но при этом не соответствовать запросу пользователя.
Третье – система наказывает за большое количество рекламы, а также за множество исходящих ссылок, которые превратились в спам.
Что стоит знать об алгоритме Панда от Google: развенчиваем мифы
Алгоритм «Панда» не понижает позиции сайта из-за дублей, это задача других фильтров. Ошибка 404 тоже не является причиной попадания в поле зрения алгоритма. Но большое количество таких страниц может повлиять на рейтинг ресурса.
Если фильтр нашел на сайте плохие страницы, то он будет снижать ранжирование
Страницы, которые заблокировал фильтр Панда, практически выпадут из поисковой выдачи. Да, по уточненным запросам, если вариантов практически не будет, пользователь увидит страницу. Но такое положение не принесет никаких результатов.
Стоит ли удалять страницы, которые попали в бан, улучшит ли это ситуацию?
Нет, после этого ничего не поменяется и, кроме того, можно по ошибке удалить хорошую информацию. Единственный выход – улучшать качество контента и работать над устранением ошибок.
Нужно ли закрывать комментирование, чтобы не испортить контент?
Нет, обсуждения материала – это хорошо, значит, ваш ресурс интересен людям. И поисковые роботы воспринимают комментирование, как дополнительный плюс к репутации ресурса. Но следует модерировать все это. Ведь могут оставлять рекламные ссылки или нецензурно выражаться. А вот этого поисковые роботы Гугл не любят.
Можно узнать находится сайт под «Пандой» или нет?
Да, но для этого придется проверять все вручную. Скопируйте небольшой текстовый отрывок и проверьте появится ли ресурс в выдаче? Теперь поставьте кавычки и сделайте тоже самое. Если первый раз вы не увидели в поисковом рейтинге свой ресурс, а во второй — он появился, тогда, скорее всего, есть угроза «Панды».
Обучение SEO
Более подробно о том как не попасть в Бан поисковиков и как эффективно выводить сайты в ТОП 10 Яндекс и Google, я рассказываю на своих онлайн-уроках по SEO-оптимизации WEB-проектов. Все свои сайты я вывел на посещаемость более 1000 человек в сутки и могу этому научить и Вас. Обращайтесь кому интересно!
На этом всё, всем удачи и до новых встреч!
Факторы пессимизации Google. Алгоритм Panda
Пессимизация сайта — это понижение поисковыми системами позиций сайта в результатах выдачи. Происходит она на основании анализа веб-ресурса специальными алгоритмами, а также проверки вручную экспертами — асессорами.
Labrika подготовила большую подборку факторов алгоритма Google Panda, дополненных показателями, которые учитываются при оценке качества сайта вручную — многие из таких критериев впоследствии становятся частью алгоритмов.
Здесь Вы найдёте как готовые списки факторов, так и ссылки на ресурсы с информацией по данному вопросу. Мы не брали в расчет сомнительные источники, которые могут содержать домыслы. Многие ссылки указывают на первоисточники (официальные публикации Google) и на зарубежные источники на языке оригинала, поскольку технологии Google были разработаны и исследовались в США.
Google Panda — это алгоритм ранжирования результатов поиска Google, который был впервые выпущен в феврале 2011 года. Он предназначен для снижения позиций сайтов с низкокачественным контентом, чтобы сайты, имеющие содержимое более высокого качества, находились в верхней части результатов поиска.
Известные обновления алгоритма Panda
- Panda – 24.02.2011
- Panda 2.0 – 11.04.2011
- Panda 2.1 – 10.05.2011
- Panda 2.2 – 16.06.2011
- Panda 2.3 – 23.07.2011
- Panda 2.4 – 12.08.2011
- Panda 2.5 – 28.09.2011
- Panda 3.0 – 19.10.2011
- Panda 3.1 – 18.11.2011
- Panda 3.2 – 18.01.2012
- Panda 3.3 – 27.02.2012
- Panda 3.4 – 23.03.2012
- Panda 3.5 – 19.04.2012
- Panda 3.6 – 27.04.2012
- Panda 3.7 – 08.05.2012
- Panda 3.8 – 25.05.2012
- Panda 3.9 – 24.07.2012
- Panda 3.9.1 – 22.08.2012
- Panda 3.9.2 – 18.09.2012
- Panda 20 – 27.09. 2012
- Panda 21 – 06.11.2012
- Panda 22 – 21.11.2012
- Panda 23 – 21.12.2012
- Panda 24 – 22.01.2013
- Panda 25 – 15.03.2013
- Panda 26 – 18.07.2013
- Panda 4.0 – 20.05.2014
- Panda 4.1 – 23.09.2014
- Panda 4.2 – 28.07.2015 – последнее обновление
В январе 2016 года Google подтвердил, что Panda включен в основной алгоритм ранжирования.
Список причин пессимизации из официальных источников Google
Качество основного контента
- Автоматически сгенерированное содержимое — это контент, подготовленный с помощью программных средств и предназначенный не для помощи пользователям, а для манипуляцией позицией ресурса в результатах поиска.
Первоисточник: [1, 2, 3] - Страницы с бессмысленным контентом (лишенным смыслом набором слов).
Первоисточник: [4] - Маскировка — предоставление неодинакового контента или разных URL пользователям и поисковым системам. Первоисточник: [2, 5]
- Скрытый текст и ссылки. Наиболее популярные способы:
- Использовать текст того же цвета, что и фон.
- Перекрывать текст поверх изображениями.
- Поместить текст за пределами экрана с помощью CSS.
- Установить для размера шрифта значение 0.
- Скрыть ссылку, используя в качестве текста ссылки один незаметный символ (например, символ точки или изображения, размером в 1×1 пиксель и т.д.).
Первоисточник: [2, 6].
- Повторяющийся контент — как правило, таковым считаются большие блоки информации в рамках одного или нескольких доменов, содержание которых либо полностью совпадает, либо почти не отличается. Иногда контент намеренно дублируется с целью манипулирования рейтингом в поисковой системе или увеличения объема трафика. В таких случаях Google может понизить рейтинг сайта или вообще удалить ресурс из индекса. Первоисточник: [7, 8, 9] .
Примеры повторяющегося контента:
а. Страницы скопированы с сайта продавца, и при этом отсутствует какой-либо уникальный контент. Если содержимое с партнерских ресурсов не является оригинальным, его должно быть намного меньше по сравнению с оригинальными материалами. Первоисточник: [2, 10].
b. Тексты, скопированные с других сайтов без дополнительной обработки или с незначительными изменениями (например, слова заменели синонимами, слова или предложения поменяли местами). Первоисточник: [2, 3, 11].
с. Дублирующие или избыточные статьи на похожие темы. Первоисточник: [9, 12].
d. Видео, изображения и прочие мультимедийные материалы взяты с других сайтов без дополнительной значимой информации. Первоисточник: [11].
- В тексте описываются слишком очевидные вещи, отсутствует глубокий анализ или интересная информация. Первоисточник: [3, 12].
- Неудовлетворительное для назначения страницы количество основного контента. Первоисточник: [4, 13].
- Использование изображений и видео для передачи текстового контента. Пользователи не смогут скопировать такой текст, а поисковые системы – прочитать его.Первоисточник: [3].
- Большое количество орфографических и стилистических ошибок. Первоисточник: [9].
- Страницы выглядят неряшливо, сделаны «на скорую руку». Первоисточник: [9, 14, 15].
- Избыток ключевых слов на странице — ключевые слова или фразы повторяются много раз, часто вне контекста или в виде списка, из-за чего текст теряет свою естественность. Первоисточник: [2, 16].
- Список телефонных номеров без дополнительной информации. Первоисточник: [16].
- Текстовые блоки с перечнем городов и областей, по запросам которых веб-мастер пытается повысить рейтинг страницы. Первоисточник: [16].
- Спам, созданный посетителями в сообщениях форума, блога, в отзывах или комментариях, может снизить уровень доверия к сайту и привести к наложению санкций со стороны Google. Первоисточник: [2, 3, 17].
- Страницы с нерелевантными ключевыми словами. Первоисточник: [3].
- Очень низкий уровень экспернтости, авторитетности или надежности контента (показатель EAT — expertise, authoritativeness, trustworthiness). Особенно важен данный фактор для так называемых YMYL-страниц (YMYL означает англ. «Your Money or Your Life» — «кошелек или жизнь»), то есть таких ресурсов, от которых зависят жизнь, здоровье и доходы пользователей (к ним относятся прежде всего сайты, посвященные правовой, финансовой, медицинской, научной и новостной тематике, а также ресурсы, через которые осуществляются онлайн-покупки и платежи).
Первоисточник: [13]. - Для страниц YMYL и других страниц, которые требуют высокого уровня доверия пользователей, отсутствие или недостаточное количество информации об обслуживании клиентов, контактах, о том, кто несет ответственность за сайт, и о создателе основного контента будет причиной присвоения странице низкого рейтинга в поиске.
Первоисточник: [4, 13]. - На канонической и AMP-страницах (Accelerated Mobile Pages — страницах мобильной версии с ускоренной загрузкой) размещены разные материалы. На AMP-странице должен быть представлен тот же контент, что и на канонической. Допускаются различия в тексте, однако темы страниц должны быть идентичны. Также на обеих версиях страниц пользователям должны быть доступны одинаковые функции. Первоисточник: [2] .
Ссылки
- Неработающие внутренние ссылки являются контрольным признаком некачественного веб-ресурса, поскольку они усложняют индексацию сайта поисковыми системами и затрудняют навигацию пользователей. Первоисточник: [13, 18].
- Избыток на странице партнерских ссылок (за размещение которых выплачивается вознаграждение, если перешедший по такой ссылке посетитель совершил целевое действие на сайте-партнере) особенно в сочетании с некачественным неуникальным контентом может привести к пессимизации.
Дополнительный контент и реклама
- Страницы с затрудненным доступом к основному контенту — например, отсутствие основного контента в верхней половине видимой части сайта. В этом случае пользователи не могут сразу найти основное содержимое ресурса, а вынуждены сначала прокручивать массу рекламных объявлений. Первоисточник: [12, 13, 19].
- Отсутствие полезного для посетителей дополнительного контента станет причиной снижения рейтинга для сайтов крупных компаний и организаций. Первоисточник: [4].
- Очень назойливая реклама, без учета интересов пользователей. К снижению рейтинга может привести наличие на странице полноэкранных баннеров и всплывающих окон, которые затрудняют доступ пользователей к основному контенту. Первоисточник: [3, 20].
- Чрезмерное количество рекламы, не только баннерной, но и в содержании. Первоисточник: [3, 14].
Мошеннические и вредоносные сайты
- Скрытая переадресация — перенаправление пользователя на другой URL вместо запрошенного, которое применяется для обмана поисковой системы или для предоставления посетителям страниц, отличных от тех, которые анализирует робот. Первоисточник: [2, 3, 4, 21].
- Дорвеи — они представляют собой веб-страницы, которые оптимизированы под определенные поисковые запросы и перенаправляют пользователей на другие сайты. Первоисточник: [2, 3, 22].
- Сайты, предназначенные для фишинга и др. видов мошенничества, то есть созданные для извлечения выгоды за счет обмана пользователей, которые обманным путем заставляют выполнять опасные действия, например разглашать конфиденциальную информацию или скачивать вредоносные программы. Первоисточник: [4, 23].
- Вирусы и вредоносные программы. Первоисточник: [3, 24, 25].
- Ссылки на вредоносные сайты. Первоисточник: [24].
- Изменение домашней страницы в браузере или настроек поиска без ведома и согласия пользователя.
Первоисточник: [24]. - Подмена действия таким образом, что при нажатии пользователем на конкретную ссылку или кнопку фактически происходит нажатие на другой элемент. Первоисточник: [24].
- Ресурсы, распространяющие ненависть и склоняющие к причинению вреда самому себе или другим, должны получить самый низкий рейтинг. Первоисточник: [13].
- Ресурсам, которые могут дезинформировать или обманывать пользователей, также присваивается самый низкий рейтинг. Это страницы, распространяющие ложную или недостоверную информацию, противоречащую мнению экспертов по данной тематике. Особенно важен данный фактор для YMYL-страниц, посвященных медицинской, финансовой информации, историческим или текущим событиям. Первоисточник: [13].
- Спам на вашем сервере бесплатного хостинга. Первоисточник: [2, 13].
Технические ошибки
- Закрытые от индексации JS или CSS сайта. Если в файле robots.txt закрыт доступ к этим ресурсам, то Google не удастся правильно проанализировать и проиндексировать содержание. Это может ухудшить позиции вашего сайта в Поиске. Первоисточник: [26].
- Некорректное использование разметки для расширенных описаний веб-страниц, нарушающее правила Google в отношении структурированных данных. Примеры: структурированные данные добавлены для контента, который не виден пользователям или вводит их в заблуждение, не относится к теме сайта и т.д. Первоисточник: [2, 3].
Качество работы сайта
- Необслуживаемые, взломанные или поврежденные веб-сайты. Первоисточник: [4, 13].
- Медленные сайты не будут ранжироваться так же высоко, как быстрые. Показатель скорости отражает, насколько быстро сайт реагирует на запросы пользователей. Google сделал скорость страницы фактором ранжирования еще в 2010 году. Первоисточник: [15, 27].
Отношение пользователей
- Жалобы, поступавшие в Google на содержание сайта. Первоисточник: [3].
- Отрицательная репутация сайта — по результатам анализа рейтингов, отзывов и комментариев пользователей. Это прежде всего важно для ресурсов с тематикой YMYL. Первоисточник: [4].
- Большой процент возвратов в поиск после перехода на сайт (процент отказов) и короткое время пребывания на сайте. Первоисточник: [12].
Список менее достоверных причин пессимизации из вопросов-ответов и видео от Google, а также авторитетных SEO-компаний в США
Качество основного контента
- Меньше 200-250 слов на странице. Хотя представители Google утверждают, что при определении качества контента не устанавливается необходимое минимальное количество слов. Первоисточник: [15, 28].
- Агрессивное использование ключевых слов, в том числе в URL, содержании страницы, TITLE или ALT.
Первоисточник: [12, 16, 26]. - Устаревшие или неверные факты. Первоисточник: [12, 26].
- Слова «для взрослых» и картинки «для взрослых» на сайте. Такой контент имеет соответствующую пометку и не будет доступен, если включена функция безопасного поиска, которая является состоянием Google по умолчанию. Первоисточник: [29, 30].
- Выделение слишком большой части текстового контента метками заголовков (h2, h3 и т.д.), маркерами списков, тегами жирного шрифта, курсива и другими акцентами, поскольку это не соответствует естественной форме написания. Первоисточник: [26, 30].
- Много потерянных изображений.
- Дубликаты TITLE и DESCRIPTION. Заголовок страницы может состоять из нескольких слов или фразы, а в метатег описания можно добавить несколько предложений или даже небольшой абзац. Первоисточник: [15, 26, 28].
Ссылки
- Много очень похожих анкоров внутри сайта на разные, но похожие страницы.
- Очень большое количество внутренних ссылок на странице. Первоисточник: [26].
- Много ссылок на несуществующие страницы, в том числе и на других сайтах. Первоисточник: [12].
Технические ошибки
- Грубые ошибки в разметке HTML или SCHEMA.
- Ошибки 500 на сайте, выбросы ошибок программного кода ( PHP, MySQL ). Несмотря на то, что алгоритм Panda создан для анализа в первую очередь качества контента, некоторые технические проблемы заложены в обычном алгоритме ранжирования ядра Google, и если страница заполнена ошибками, сгенерированными PHP, Java или другим серверным языком, она соответствует определениям Google о плохом пользовательском интерфейсе и некачественном сайте. Как минимум, ошибки на странице могут помешать общему анализу контента. Первоисточник: [15, 30].
Качество работы сайта
- Загрузка страниц больше 20 секунд. Первоисточник: [12].
- IP-адрес сайта находится в черном списке – по спам-рассылкам или фермам контента. Первоисточник: [12].
- На сайте есть фразы, которые могут указывать на продажу домена: «domain is for sale», «buy this domain», «this page is parked», “домен продается”, “купите этот домен”, “этот домен забронирован” и др. Первоисточник: [12]
Официальные публикации Google о показателях качества сайтов
Дополнительно могут быть полезными:
Публикации о Google Panda
Использованные источники:
- Автоматически созданный контент
- Отчет о мерах, принятых вручную
- Рекомендации для веб-мастеров
- Google Quality Rating Guidelines. Version 5.0.pdf
- Маскировка
- Скрытый текст и ссылки
- Повторяющийся контент
- Повторяющийся контент
- More guidance on building high-quality sites
- Партнерские программы
- Скопированное содержание
- Content Quality Score: Google’s Best Kept Secret For Rankings
- Search quality evaluator guidelines.pdf
- Схемы обмена ссылками
- Understanding Google Panda: Definitive Algo Guide for SEOs
- Наполнение ключевыми словами
- Рекомендации в отношении спама, созданного пользователями
- Patent Application Publication US20080097977A1.pdf
- Page layout algorithm improvement
- Helping users easily access content on mobile
- Скрытая переадресация
- Дорвеи
- Социальная инженерия (сайты для фишинга и обмана пользователей)
- Создание страниц для злонамеренных действий
- Подробно о проблемах с безопасностью
- Руководство по поисковой оптимизации для начинающих
- Using site speed in web search ranking
- A Complete Guide to the Google Panda Update
- Using data to fight webspam
- Google Ranking Factors
Алгоритм Google панда — принцип работы алгоритма
Google панда – алгоритм, разработанный и запущенный в 2011 году компанией Google, который используется для качественного анализа сайтов в выдаче поисковой системы.
Он способен находить и исключать из ранжирования (или понижать позиции документов) те страницы, которые имеют большое количество неуникального контента, не содержат какой-либо полезной информации и предназначены исключительно для заработка.
В первую очередь Google панда учитывает, насколько тот или иной ресурс ориентирован на пользователя, однако для определения качества сайта этот алгоритм использует не только этот критерий, но и целый ряд других, не менее важных критериев, что обязательно нужно учитывать при поисковом продвижении.
Критерии оценки сайтов, которые учитывает алгоритм Google панда
- Поведенческий фактор. Алгоритм Панда учитывает время, которое проводят пользователи на сайте, процент возвратов на сайт, процент отказов, количество возвратов по отношению к общему числу переходов, количество переходов внутри сайта и некоторые другие факторы. Для того, чтобы обеспечить сайту хорошие позиции в поисковой выдаче, веб-мастер должен создать привлекательный для пользователей ресурс, наполнить его уникальными статьями, качественными внутренними ссылками, реализовать понятную навигацию, обеспечить быстрый поиск нужной информации и подумать над тем, что еще заставит пользователя задержаться на сайте как можно дольше.
- Уникальность контента. Даже при условии одновременного использования разных методов продвижения сайта особое внимание следует уделять качеству размещаемого на страницах сайта контента. Алгоритм Panda анализирует уникальность представленной на сайте информации по процентному соотношению контента, заимствованного с других ресурсов к общему количеству контента на сайте и на каждой странице в отдельности. Нужно понимать, что информация низкого качества, размещенная всего лишь на одной странице, может ухудшить позиции в поисковой выдаче не только этой страницы, но и всего ресурса. Аналогичное негативное воздействие на SEO сайта оказывает чрезмерное количество однотипных по содержанию текстов с разными ключевыми запросами (высокой шаблонностью), а также текстов с большой плотностью ключевых слов и фраз (большой тошнотою).
- Релевантность ссылочной массы и рекламы. Алгоритм Google панда устанавливает степень соответствия тематики размещенных на ресурсе объявлений тематике сайта-донора. Например, если продвижение медицинского сайта осуществляется с помощью рекламной кампании, развернутой на туристическом ресурсе, поисковая система отреагирует на подобное решение крайне болезненно, вплоть до помещения продвигаемого сайта под фильтр.
Наши услуги по выводу из-под санкций алгоритма Google Panda.
Читайте также:
Loading…Подписка на новости
Мы делимся полезными статьями о поисковом продвижении сайтов и интернет-маркетинге.
Подпишитесь сейчас и получайте уникальную информацию и скидки, недоступные читателям блога!
Спасибо за подписку!
Обновление алгоритма Панды. Google Panda 4.1: как дальше жить?
26 сентября Google подтвердил обновление алгоритма Panda.
Google Panda (Гугл Панда) был запущен в 2011 году и направлен против борьбы с некачественным контентом на сайтах.
Как сказал сам Мэтт Каттс, руководитель отдела поискового спама Google: «Если вы заметили, что трафик из Google упал. И в поисковой выдаче ваш сайт уже не так высоко, как был – в первую очередь стоит обратить внимание на качество вашего контента и улучшить именно его».
Гугл заявил, что, основываясь на обратной связи от пользователей и вебмастеров, им «удалось обнаружить и внедрить еще несколько сигналов, чтобы помочь фильтру определять некачественный контент более точно. Обновленный алгоритм должен помочь небольшим сайтам с хорошим контентом потеснить гигантов в выдаче. Обновление затронет около 3-5% запросов».
В зоне особого риска оказались сайты игр, стихов и песен, музыки, фильмов, нелицензионного ПО, на которых, как правило, размещен неуникальный контент.
Если Вы заметили, что позиции сайта в Google просели, как раз во время обновления данного алгоритма, вполне возможно, что причиной этому – ваш контент, и пора воспользоваться советом Мэтта Каттса и улучшить основные тексты.
Предыдущее обновление Панды было в мае 2014 года. С сентября этого года Google обещает приложить больше усилий по усовершенствованию алгоритма и обновлять его буквально ежемесячно.
Радует, что алгоритм теперь больше ориентирован на улучшение видимости небольших сайтов с хорошим контентом. Однако пока сильных изменений в выдаче нами не замечено. Google обещает завершить отладку алгоритма до конца недели. Что ж, как говорится, поживем – увидим…
Наши рекомендации, чтобы не попасть под данный алгоритм
Никакая техническая оптимизация сайта, увеличение ссылочной массы и другие методы так хорошо не помогают продвинуться в выдаче, как постоянная работа с контентом.
Поэтому регулярно добавляйте полезные статьи на сайт (от 10 в месяц), давайте хорошее уникальное описание к товарам (не менее 1000-1500 знаков) – и никакая панда вам не будет страшна.
P.S. Подробнее о том, почему не стоит бояться вносить изменения в тексты, читайте в статье «Как меняются поведенческие факторы на сайте при замене текста».
Алгоритм Google Panda
Панда — это один из алгоритмов ранжирования поисковой системы Google, который впервые был выпущен в феврале 2011 года. Разработка алгоритма была направлена на борьбу с некачественными сайтами и возвратом в ТОП более качественных сайтов. Название “Панда” произошло от фамилии одного из инженеров компании Google Навнита Панда, который и разработал технологию алгоритма.
Выпуск «Панды» произвел всплеск поднятия в выдачи новостных сайтов и сайтов социальных сетей, и наоборот снижение позиций для сайтов, содержащих большое количество рекламы. Изменение сказалось на выдачи почти 12% всех результатов поиска. Но алгоритм оказался не доработанным что привело до таких ошибок, когда сайты с оригинальным контентом оказались ниже в выдаче чем сайты копипастеры. Тематические форумы, в том числе и форум Google веб-мастеров, просто переполнился жалобами от сайтов первоисточников о праве заполучить более высокие позиции, чем сайты с не оригинальным контентом.
Обновления алгоритма
Google Панде пришлось претерпеть изменения и уже через несколько месяцев были выпущены еще несколько обновлений. В течение первых двух лет работы Google панды обновления алгоритма выходили примерно раз в месяц, но в марте 2013 года представители Google заявили, что будущие обновления будут интегрированы в сам алгоритм и, следовательно обновления будут менее заметными и постоянным.
Факторы ранжирования
Гугл Панда-это фильтр, который направлен на понижение в результатах выдачи сайтов или отдельных страниц с контентом низкого качества.
Никаких сведений об алгоритмах работы фильтра «Панда», а также о методах выхода из-под него, Google не распространяется. Но через некоторое время представители Google выложили список основных факторов, приводящих к наложению фильтра среди которых:
- большое количество рекламы. Реклама на сайтах должна дополнять контент, а не заменять его;
- высокий процент отказов;
- очень короткие тексты
- дублирующий контент (дубликаты страниц сайта)
- плохие исходящие ссылки;
- плохие входящие ссылки.
- копированный не уникальный контент
Мэтт Каттс, глава отдела по борьбе с веб-спамом в Google, предупреждает при этом, что если вы делаете рерайтинг контента, то делать это нужно на очень высоком качестве и добавлять «дополнительную ценность» к уже существующей информации. Просто рерайтинг от Панды не спасет так ничего нового в интернет вы не привносите.
Важно! Гугл Панда влияет на ранжирование всего сайта или конкретного раздела, а не на отдельные страницы.
Ну и в конце милое видео, которое вкратце показывает методы работы алгоритма:
Алгоритм Google Panda | Блог SEO in Site
Запуск 12 августа нового алгоритма выдачи от компании Google под названием Panda, стало главной новостью для всех вебмастеров и оптимизаторов. Как заявляет Google, этот шаг был необходим для более качественной для пользователя выдачи. То есть, сайты с нужным для пользователя контентом, а не «линко-помойки», где кроме информации релевантной определённому поисковому запросу, нет полезной для посетителя информации.
Как пишет кампания Google, 12 августа 2011 года алгоритм Panda был запущен для всех языков, кроме японского, китайского и корейского. До этого, а именно 24 февраля 2011, началось тестирование алгоритма, а 11 апреля 2011 алгоритм был введен в действие для англоязычного сегмента интернета.
После запуска алгоритма Google Panda появились разные отзывы как положительные, так и отрицательные. Некоторые сайты просели в выдачи, другие поднялись. По моим скромным наблюдениям просели молодые сайты возрастом до года, а их места заняли другие сайты, кто-то потерял, кто-то приобрел.
Судя по заявлениям кампании Google, алгоритм Panda затронет не более 9% поисковой выдачи в Рунете, против 12% англоязычного сегмента.
Поисковой алгоритм Google Panda представляет собой сложную модель, направленную на определение качества сайта и его весомости для посетителя. Принципы, которые легли в основу алгоритма Google Panda, очень схожи на АГС-17 и АГС-30 от Яндекс вот основные из них.
1. Процент неуникального контента который нарушает авторские права, иными словами копипаст (copy-paste). Причем, как к конкретной странице, так и по отношению ко всему сайту. Уникальность текста проверяется как на странице, так и по отношению к сайту в целом.
2. Переизбыток рекламы или ее несоответствие тематике сайта
3. Соответствие заголовка страницы и её содержанию.
4. Перенасыщение страницы ключевыми словами.
5. Много шаблонного контента на страницах сайта.
6. Наличие ошибок в текстах (орфографических, грамматических, стилистических).
7. Низкое качество размещенных ссылок
8. Низкое качество обратных ссылок
9. Большое количество отказов от страницы или сайта
10. Короткое время, проведенное посетителем на сайте.
11. Процент возвратов на сайт очень мал.
Из пунктов 9-11 видно, что поведение посетителя все больше влияет на выдачу, поэтому будущие за хорошими качественными и интересными сайтами, которые приятно посещать.
При попадании в ТОП выдачи качественных сайтов довольны будут и посетители, и оптимизаторы. Но как всегда и везде будут исключения. Однако доскональных алгоритмов не существует и алгоритм Google Panda не исключение, поэтому могут быть и неприятные ситуации, которые я надеюсь, с усовершенствованием алгоритма будут устранены.