Почему гугл не индексирует сайт: Почему сайт не индексирует гугл поиском ? — Google – Почему сайт не индексируется в гугле? — Хабр Q&A

9 причин от Ahrefs — Блог Миралинкс

Почему Google не ранжирует сайт: 9 причин от Ahrefs

Вы сделали все возможное, но сайт так и не появляется в результатах Google.

Плохие новости: причин масса.

Хорошие новости: практически все поправимо.

В этом материале рассматриваем 9 основных причин, почему сайт не ранжируется в Google и даем пошаговые руководства, как это исправить.

Но сначала…

Важно понять одну вещь. Когда вы вводите запрос в Google в надежде увидеть свой сайт в результатах, вы ищете не сам сайт, а одну из страниц. Это важное отличие. 

Если Google не знает о существовании запрашиваемой страницы или считает ее недостойной, то не покажет среди доступных результатов.

Чтобы ранжироваться в Google, необходимо соблюсти три основные фактора:

1. Поисковая система знает о существовании вашего сайта, а все важные страницы доступны поисковым ботам и проиндексированы.

2. На сайте есть страница, релевантная запросу, по которому вы хотите увидеть сайт в результатах поиска.

3. Страница соответствует критериям качества поисковой системы.

Основные причины неранжирования и что с этим делать

1. Сайт слишком новый

Самая очевидная причина отсутствия сайта в результатах поиска — Google о нем еще не знает. Чтобы проверить, есть ли сайт в индексе поисковой системы, вводим:

site:yourwebsite.com

Если по этому запросу находится хоть один результат, значит поисковая система уже нашла и проиндексировала сайт.

Но даже если поисковая система уже знакома с сайтом, это не значит, что она проиндексировала ту страницу, которую вы ожидаете увидеть в результатах. Чтобы проверить наличие продвигаемой страницы в выдаче, вводим:

site:yourwebsite.com/a-page-you-want-to-show-up-in-google/


Такой запрос должен получить один ответ.

Если поисковая система не видит нужную вам страницу, то создайте sitemap и отправьте файл в Google:

Search Console >Файлы Sitemap > Добавить файл Sitemap > Отправить

Карта сайта указывает поисковой системе, какие страницы важны и где их найти.

2. На сайте заблокирован доступ поисковым роботам

Если вы указываете Гуглу не показывать определенные страницы в поиске, он и не будет.  Запрет на индексацию устанавливается при помощи метатега noindex:

<meta name=»robots» content=»noindex»/>

Страницы, закрытые таким метатегом, не индексируются поисковой системой, даже если они находятся в карте сайта, и файл Sitemap добавлен в Search Console. Вы можете и не помнить, что применили метатег, но это не значит, что его нет в коде.

К примеру, WordPress закрывает от индексации все страницы, если вы ошибочно отметите соответствующий чек-бокс.

Эту функцию часто используют разработчики в ходе создания сайта, чтобы предотвратить индексацию неготовых страниц, а потом просто забывают ее отключить.

Если Google уже обработал файл Sitemap, то о наличии страниц, закрытых от индексации, он укажет в разделе Покрытие в Search Console.

3. Сайт блокирует доступ поисковым роботам на уровне robots.txt

Файл robots.txt указывает поисковым роботам, как себя вести на сайте. Поисковые роботы не смогут обойти страницы, запрещенные файлом. А это значит, что эти страницы не появятся в результатах выдачи. 

Аналогично Search Console сообщает о таких страницах в отчете Покрытие:

Отчет появится только в том случае, если Google уже обработал файл. 

Также запреты можно проверить вручную собственно в файле robots.txt. Найти его можно так:

yourdomain.com/robots.txt.

Вы увидите приблизительно следующее:

Если же возвращается ошибка 404, значит, у вас нет файла robots.txt.

Чего не должно быть в файле категорически:

Disallow: /

под одним из:

User-agent: *

User-agent: Googlebot

Эта команда запрещает роботам Google обходить страницы сайта.

Важно, чтобы disallow не стояла для важных разделов сайта. К примеру, такая запись в файле robots.txt:

Disallow: /blog/

Запретит Google обходить все публикации в разделе Блог.

Уберите все директивы, запрещающие Google обрабатывать контент, если вы хотите, чтобы страницы появлялись в результатах поиска.

4. Сайту не хватает качественных ссылок

Даже если Google знает о существовании вашей страницы, это не значит, что поиск будет отображать ее в результатах. Надо показать поисковой системе авторитет страницы. 

И хотя на ранжирование влияют сотни факторов, входящие ссылки с уникальных доменов остаются наиболее сильным сигналом. Это доказывают многочисленные исследования Ahrefs:

Если страницы в топе выдачи имеют намного больше входящих ссылок, это становится фактически первостепенной причиной низкого ранжирования вашего сайта. 

Отметим, Google ранжирует страницы, а не сайты. Поэтому важно учитывать количество уникальных качественных ссылок на конкретную страницу, а не на сайт в целом.

5. Странице не хватает авторитета

В основе алгоритма Google лежит PageRank — это метрика авторитетности, которая учитывает факторы внешних и внутренних ссылок как голосов. И хотя PageRank больше не доступен для отслеживания, в 2017 году Google подтверждал, что PageRank все еще остается сильным фактором ранжирования.

Узнать, какой PageRank присвоен сайту, невозможно. Но это не значит, что на эту метрику никак нельзя повлиять.

В инструментах Ahrefs есть метрика, которая вычисляется по формуле, близкой к оригинальному PR. 

От авторитетности зависит объем поискового трафика на сайте: чем выше авторитетность, тем больше поискового трафика получает сайт.

Проверить авторитетность сайта можно в бесплатном инструменте Backlink Checker:

Чтобы понять, почему сайт не появляется в результатах поиска либо на высоких позициях, надо проанализировать сайты из топа и сравнить их UR. В данном отчете сразу же содержится и ответ на вопрос, что делать. Вместе с UR отображается и количество ссылок в профиле, и количество уникальных ссылающихся доменов. Если разница глобальна, то стоит заняться наращиванием ссылочной массы.

Также для повышения авторитетность продвигаемой страницы важны внутренние ссылки. Здесь также важно соблюсти релевантность.

6. Сайту не хватает авторитета

Google не дает точного ответа, есть ли такой сигнал ранжирования как авторитет сайта. Представители поиска то намекают на авторитет, то утверждают, что такой метрики нет в формуле ранжирования. 

В Ahrefs есть метрика, отражающая авторитетность домена. Исследование показывает, что чем выше авторитетность (по Ahrefs), тем выше позиции сайта.

График показывает весьма слабую корреляцию, от чего напрашивается вывод, что авторитетность домена оказывает разный эффект для разных ключевых слов.

Если же посмотреть, какие сайты Google показывает в топе:

То мы увидим, что средний рейтинг домена в топ-5 — 82, самый низкий — 77. Это очень высоки показатели. Поэтому сайту с низким рейтингом будет весьма сложно попасть в топ выдачи.

Другой пример показывает, что в топ наравне с авторитетными сайтами могут попадать и сайты со средним рейтингом:

Узнать DR можно в том же бесплатном инструменте Backlink Checker. 

7. Страница не соответствует поисковому интенту (намерению) пользователя

Основная задача алгоритма — показать пользователю выше те результаты, которые наиболее полно удовлетворяют его намерение. Именно поэтому безумно важно сделать страницу такой, какой ожидает ее увидеть пользователь.

Если страница не соответствует поисковому интенту, то даже при высоких метриках авторитетности, она не появится в результатах поиска. Рассмотрим пример.

Страница  American Express оптимизирована под запрос best credit card. Средние метрики сайтов в топе поиска по данному запросу такие:

  • DR — 86
  • URL Rating — 49
  • Количество уникальных ссылающихся доменов — 466.

Параметры страницы American Express значительно выше страниц из топа поиска, но она не ранжируется даже в пределах топ-100. Почему?

Если проанализировать выдачу по запросу, то станет ясно, что пользователи предпочитают увидеть лучшие кредитные карты из разных банков, тогда как страница American Express предлагает разные карты одного банка.

8. На сайте есть дублированный контент

Дублированный контент — похожий контент, размещенный на разных URL-адресах. Поисковые системы стараются не индексировать дублированный контент, чтобы не занимать место в индексе. Вместо этого в индекс попадает страница, отмеченная атрибутом canonical.

Если ни одна страниц не получила атрибут canonical, тогда Google постарается сам определить, какая из версий более релевантная, актуальная и заслуживающая места в индексе.

Алгоритм Google работает далеко не идеально, а так, в индекс могут попасть обе страницы.

9. Сайт находится под санкциями Google

Это наименее вероятная причина неранжирования в Google, однако она тоже имеет место быть.

Санкции могут быть ручными и алгоритмическими. О ручных санкциях Google сообщает в Search Console.

С алгоритмическими санкциями все несколько сложнее, так как поиск не уведомляет вебмастера о снижении позиций или поисковой видимости. Предположить алгоритмические санкции можно по просадке поискового трафика.

Если вы отмечаете просадку органического трафика, то в первую очередь необходимо проверить, не было ли в недалеком прошлом обновлений основного алгоритма. Если вы видите, что трафик просел после обновления, то единственное решение — работа с качеством контента и авторитетностью сайта (у нас есть чек-лист).

Источник

Google объяснит владельцам сайта, почему не индексируются страницы — Лидзавод

Новый инструмент проверки URL от Google Search Console поможет владельцам сайтов узнать проиндексирована страница и если нет, то почему. Это поможет пользователям исправить недочеты на своих ресурсах и не тратить время на самостоятельный поиск ошибок.

Кроме того сервис поможет:

  • выяснить, когда была произведена последняя индексация;
  • укажет канонический URL;
  • проверит наличие AMP-версии страницы и разметки для расширенного сниппета;
  • выявит ошибки, связанные с индексированием.

Google объяснит владельцам сайта, почему не индексируются страницы

Чтобы воспользоваться функцией, нужно ввести полный URL в поисковой строке Google Search Console, после чего вы получите один из результатов:

  • URL есть в индексе Google — это значит, что страница отображается в результатах поиска и никаких ошибок не обнаружено;
  • URL есть в индексе Google, но на странице наблюдаются проблемы — страница индексируется, но существует риск некорректного отображения данных или другие проблемы, касающиеся пользовательских свойств, в любом случае это требует решения;
  • URL нет в индексе Google: ошибки индексирования — существует критическая ошибка, которая не позволяет индексировать страницу, ее нужно исправить;
  • URL нет в индексе Google — страница не индексируется и на то есть причины, возможно вызванные вашими действиями. Сервис скажет, в чем проблема, и вы сможете устранить ее;
  • Этот URL – альтернативная версия — это значит, что по данному адресу числится альтернативная версия страницы и правок не требуется.

Предполагается, что инструмент станет доступен пользователям в ближайшие пару недель, сейчас завершается закрытое тестирование.

Индексация гуглом. Почему сайт не индексируется?

Почему ядекс проиндексировал сайт быстро, а гугл уже месяц ничего не проиндексировал?


Может не хочет, может что-то не так, может вовсе не проиндексирует. А может и Яндекс в скором времени выкинет.

У меня в последнее время, Гугл тоже долго стал индексировать. Тупит он что то

Аналогично. Раньше хавал пачками, теперь хуже Яндекса.

Возможно это связано с тестированием и переходом на новую search console

Да да видел, такое там. Может действительно из за этого.

Гугл ссылок на сайт хочет, а может и домен забанен

Всему свое время, проиндексирует, не переживайте.

ждите, если с сайтом все в порядке, то обязательно проиндексирует) можете поспособствовать ускорению процесса прогнав сайт по социальным закладкам

Я уже год жду. В яндексе 290к страниц, а в гугле 2к. Санкции похоже наложили на российский бизнес.

Эт Вам порядок в Гугл метрики навести нужно) так будете и всю жизнь дать своих 290к в гугле!

Аналогичная фигня, в яшке 17500 страниц, в гугле 3000.(

Эт Вам порядок в Гугл метрики навести нужно) так будете и всю жизнь дать своих 290к в гугле!

Вы имели в виду Search Console? Если честно, то я вообще не понимаю чего там можно настраивать?
Sitemap загружен, robots.txt добавлен, ошибок нет, предупреждений тоже.
Что там ещё делать я не знаю.

Вот в Яндекс Вебмастер всё понятно и доступно. Пользуюсь только этим инструментом.

для Гугл нужны пинг сервисы у меня новостные на wp с пингами всегда быстрее в гугл заходят чем в Яндекс обычно через 2 дня они уже в индексе

Я уже как то ранее задавал вопрос знатокам здесь на форуме про свою проблему с Гуглом, но ответа так и не получил.

Короче я грешу на свой же косяк. Купил прогу для автоматической рассылки инфы на 3500 досок объявлений. Ну и жахнул с десяток рассылок сгоряча, естественно с описанием и ссылкой на свой сайт. Вот после этого и пропал Гугл.


Google: что делать при массовой ошибке «Обнаружена, не проиндексирована»

Во время последней видеовстречи для вебмастеров сотрудник Google Джон Мюллер рассказал, почему может возникать массовая ошибка «Обнаружена, не проиндексирована» для URL в Search Console, и какие действия следует предпринять в такой ситуации.

В Справке Search Console приводятся следующие причины появления этой ошибки:

«Страница была найдена Google, но пока не просканирована. Обычно это объясняется тем, что робот Google не смог просканировать сайт, поскольку тот оказался перегружен, и был вынужден перенести сканирование на более поздний срок. Именно поэтому в отчёте не указывается дата последнего сканирования».

При этом Джон Мюллер назвал другие причины. По его словам, массовое появление такой ошибки может быть связано с непреднамеренным генерированием слишком большого количества URL, проблемами в работе внутренней перелинковки или же с необходимостью сократить общее количество страниц.

Вопрос к Мюллеру звучал так:

«В Search Console 99% наших страниц исключены с указанием статуса «Обнаружена, не проиндексирована». Это происходит уже несколько лет, несмотря на наличие ссылок из авторитетных изданий и сайтов. Что может вызывать эту ситуацию, и что мы можем сделать, чтобы эти страницы индексировались? Может ли быть проблемой то, что Google неспособен индексировать большое количество страниц?».

Мюллер порекомендовал вебмастеру выполнить следующие шаги:

  • Проверить, действительно ли этот статус выводится для 99% страниц. Проверить технические моменты – не генерируется ли непреднамеренно большое количество URL, в которых Google может попросту потеряться. В частности, не создаются ли однотипные URL с небольшим количество отличий. Использование параметров, верхнего/нижнего регистра и подобных вещей может привести к созданию дублированных URL.
  • Проанализировать внутреннюю ссылочную структуру. Может ли Google проходить по всем этим ссылкам? Для этого можно использовать инструменты сканирования, такие как Screaming Frog или DeepCrawl. Если с внутренней перелинковкой всё в порядке, то можно переходить к следующему пункту.
  • Повысить качество страниц. Например, если на сайте содержится 20 млн страниц и 99% из них не индексируются, то, возможно, имеет смысл сократить их количество – скажем, наполовину или даже до 10% от исходного количества. Тогда Google сможет сканировать и индексировать сайт в большем объёме и чаще. Сократив общее число страниц и объединив материалы по одной теме, можно будет повысить качество контента.

Прослушать вопрос к Мюллеру и его ответ на него можно, начиная с отметки 11:17 на видео ниже:

Напомним, ранее Джон Мюллер рассказал, как объединять страницы, чтобы улучшить ранжирование.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *