Файл robots txt не найден: Проверка robots.txt. Как найти и исправить ошибки с помощью Labrika

Содержание

Возможные проблемы — Вебмастер. Справка

Раздел содержит решения часто встречающихся проблем категории «Возможные», выявленных при диагностике сайта в Вебмастере. Проблемы этой группы могут влиять на качество и скорость индексирования страниц сайта.

Совет. Настройте уведомления о результатах проверки сайта.

  1. Не найден файл robots.txt
  2. Обнаружены ошибки в файле robots.txt
  3. Нет используемых роботом файлов Sitemap
  4. Обнаружены ошибки в файлах Sitemap
  5. Некорректно настроено отображение несуществующих или удаленных файлов и страниц
  6. Отсутствуют элемент title и метатег description
  7. На страницах есть одинаковые заголовки и описания
  8. Файл favicon недоступен для робота

Несколько раз в сутки индексирующий робот запрашивает файл robots.txt и обновляет информацию о нем в своей базе. Если при очередном обращении робот не может загрузить файл, в Вебмастере появляется соответствующее предупреждение.

В сервисе проверьте доступность файла robots.txt. Если файл по-прежнему недоступен, добавьте его. Если вы не можете сделать это самостоятельно, обратитесь к хостинг-провайдеру или регистратору доменного имени. После добавления файла данные в Вебмастере обновляются в течение нескольких дней.

Проверьте файл robots.txt вашего сайта. Чтобы исправить ошибки, посмотрите описания директив.

Файл Sitemap является вспомогательным инструментом при индексировании сайта, он позволяет регулярно сообщать роботу о появлении новых страниц на сайте. Данное предупреждение появляется, если робот не использует ни одного файла Sitemap для сайта.

Чтобы робот начал использовать созданный файл, добавьте его в Вебмастер и дождитесь обработки файла роботом. Обычно на это требуется до двух недель. После этого предупреждение пропадет.

Проверьте файл Sitemap вашего сайта. Проверка может выявить ошибку «Неизвестный тег». Она сообщает, что файл содержит неподдерживаемые Яндексом элементы.

Такие элементы игнорируются роботом при обработке Sitemap, но данные из поддерживаемых элементов учитываются. Поэтому менять содержимое файла необязательно. Подробнее о поддерживаемых элементах Sitemap.

Вероятно, на сайте некорректно настроен возврат HTTP-кода 404 (ресурс не найден/Not Found). В таком случае поисковый робот может при переходе на сайт по любой ссылке получить ответ 200 ОК и проиндексировать несуществующую страницу. Это приведет к большому количеству дублированных страниц, что усложнит и замедлит индексирование сайта и увеличит нагрузку на сервер.

Чтобы проверить ответ сервера, воспользуйтесь инструментом Проверка состояния страницы. Введите адрес несуществующей на вашем сайте страницы. Можно использовать произвольный набор букв и цифр, например https://example.com/kugbkkrfck.

Если настроить рекомендуемый код ответа 404 нет возможности:

  • Настройте любой другой код 4xx, кроме 429.

    Не рекомендуем использовать коды ответа 429 и 5xx, так как они сообщают роботу, что сервер испытывает затруднения. Это может привести к замедлению индексирования сайта.

  • Используйте директиву noindex или настройте редирект 301.

    При использовании noindex и редиректа 301 уведомления об ошибке могут появляться в Вебмастере, но страницы в поиск не попадут и на позиции сайта это не повлияет. Эти способы наименее предпочтительны, так как увеличивают нагрузку на сервер и замедляют индексирование сайта.

Элемент title и метатег description помогают сформировать корректное описание сайта в результатах поиска. Подробно см. раздел Отображение заголовка и описания сайта в результатах поиска.

Если элементы или один из них отсутствуют на вашем сайте, добавьте их в HTML-код страниц и сохраните изменения. Если элементы уже размещены, дождитесь, пока робот переобойдет страницы. После этого сообщение об ошибке исчезнет.

Подробно

Эта проблема отображается, если заголовок или описание повторяется на значительной доле страниц сайта. Когда title и description отражают контент страницы, информативны и привлекательны, пользователям удобнее находить ответы в поисковой выдаче.

Посмотрите примеры страниц с повторяющимися заголовками или описаниями, которые обнаружил Вебмастер при обходе сайта роботом. Чтобы исправить их, следуйте рекомендациям по:

  • написанию title;

  • составлению description.

Проблема перестанет отображаться, когда робот узнает об изменениях на сайте. Чтобы это произошло быстрее, отправьте наиболее важные страницы на переобход или настройте обход страниц со счетчиком Метрики.

Если эта проблема отображается для вашего сайта, значит Небольшая картинка, которая отображается в сниппете в результатах поиска Яндекса, рядом с адресом сайта в адресной строке браузера, около названия сайта в Избранном или в Закладках браузера. «}}»> не отображается в результатах поиска. В Вебмастере на странице Диагностика → Диагностика сайта (блок Возможные проблемы) посмотрите причину, по которой робот не смог загрузить файл и следуйте указаниям:

ОшибкаРешение
Файл отвечает HTTP-кодом, отличным от 200 OKПроверьте ответ сервера. Ответ должен соответствовать 200 OK. Другие статусы ответа см. в разделе Проверка ответа сервера.
Файл перенаправляет на другой адрес
Неправильный тип данныхПроверьте значение параметра type в ссылке на файл. Он должен соответствовать формату файла.

Как установить фавиконку

Чтобы ваш вопрос быстрее попал к нужному специалисту, уточните тему:

Посмотрите рекомендации. Если файл доступен для робота и загружается в Вебмастере, но проблема продолжает отображаться, заполните форму:

Посмотрите рекомендации выше. Если файл добавлен больше 2 недель назад, но сообщение не пропадает, заполните форму:

Посмотрите рекомендации выше. Если ошибок в файле нет, но сообщение продолжает отображаться, заполните форму:

Посмотрите рекомендации выше. Если ответ сервера соответствует 200 ОК и значение параметра type соответствует формату файла, но сообщение продолжает отображаться, заполните форму:

настройка, статусы, ошибки индексации и способы их исправления — Топвизор–Журнал

  • Как проходит индексация в Google
  • Обнаружение
  • Сканирование
  • Индексация
  • Ранжирование
  • Как пользоваться Отчётом об индексировании в Google Search Console
  • Фильтры «Все обработанные страницы» vs «Все отправленные страницы»
  • Проверка статусов URL
  • Что учесть при использовании отчёта
  • Как часто смотреть Отчёт
  • Дополнительно: инструмент проверки URL
  • Статус «Ошибка»
  • Ошибка сервера (5xx)
  • Ошибка переадресации
  • Доступ к отправленному URL заблокирован в файле robots. txt
  • Страница, связанная с отправленным URL, содержит тег noindex
  • Отправленный URL возвращает ложную ошибку 404
  • Отправленный URL возвращает ошибку 401 (неавторизованный запрос)
  • Отправленный URL не найден (ошибка 404)
  • При отправке URL произошла ошибка 403
  • URL заблокирован из-за ошибки 4xx (ошибка клиента)
  • Статус «Без ошибок, есть предупреждения»
  • Проиндексировано, несмотря на блокировку в файле robots.txt
  • Страница проиндексирована без контента
  • Статус «Страница без ошибок»
  • Страница была отправлена в Google и проиндексирована
  • Страница проиндексирована, но её нет в файле Sitemap 
  • Статус «Исключено»
  • Индексирование страницы запрещено тегом noindex
  • Индексирование страницы запрещено с помощью инструмента удаления страниц
  • Заблокировано в файле robots.txt 
  • Страница не проиндексирована вследствие ошибки 401 (неавторизованный запрос)
  • Страница просканирована, но пока не проиндексирована
  • Обнаружена, не проиндексирована
  • Вариант страницы с тегом canonical
  • Страница является копией, канонический вариант не выбран пользователем
  • Страница является копией, канонические версии страницы, выбранные Google и пользователем, не совпадают
  • Не найдено (404)
  • Страница с переадресацией
  • Ложная ошибка 404
  • Страница является копией, отправленный URL не выбран в качестве канонического
  • Страница заблокирована из-за ошибки 403 (доступ запрещён)
  • URL заблокирован из-за ошибки 4xx (ошибка клиента)
  • Ключевые выводы
  • Подробный SEO-гайд по Отчёту об индексировании Google Search Console. Разберёмся, как проверить индексацию сайта с его помощью, как «читать» статусы URL, какие ошибки можно обнаружить и как их исправить.

    Перевод с сайта onely.com.

    В Отчёте вы можете получить данные о сканировании и индексации всех URL-адресов, которые Google смог обнаружить на вашем сайте. Он поможет отследить, добавлен ли сайт в индекс, и проинформирует о технических проблемах со сканированием и индексацией.

    Но перед тем, как говорить об Отчёте, вспомним все этапы индексации страницы в Google.

    Как проходит индексация в Google

    Чтобы страница ранжировалась в поиске и показывалась пользователям, она должна быть обнаружена, просканирована и проиндексирована.

    Обнаружение

    Перед тем, как просканировать страницу, Google должен её обнаружить. Он может сделать это несколькими способами. 

    Наиболее распространённые — с помощью внутренних или внешних ссылок или через карту сайта (файл Sitemap.xml).

    Сканирование

    Суть сканирования состоит и том, что поисковые системы изучают страницу и анализируют её содержимое.  

    Главный аспект в этом вопросе — краулинговый бюджет, который представляет собой лимит времени и ресурсов, который поисковая система готова «потратить» на сканирование вашего сайта. 

    Что такое «краулинговый бюджет, как его проверить и оптимизировать

    Индексация

    В процессе индексации Google оценивает качество страницы и добавляет её в индекс — базу данных, где собраны все страницы, о которых «знает» Google.

    В этот этап включается и рендеринг, который помогает Google видеть макет и содержимое страницы. Собранная информация даёт поисковой системе понимание, как показывать страницу в результатах поиска.

    Некоторые страницы могут содержать контент низкого качества или быть дублями. Если поисковые системы их увидят, это может негативно отразится на всём сайте. 

    Поэтому важно в процессе создания стратегии индексации решить, какие страницы должны и не должны быть проиндексированы. 

    Ранжирование

    Только проиндексированные страницы могут появиться в результатах поиска и ранжироваться.

    Google определяет, как ранжировать страницу, основываясь на множестве факторов, таких как количество и качество ссылок, скорость страницы, удобство мобильной версии, релевантность контента и др.

    Теперь перейдём к Отчёту.

    Как пользоваться Отчётом об индексировании в Google Search Console

    Чтобы просмотреть Отчёт, авторизуйтесь в своём аккаунте Google Search Console. Затем в меню слева выберите «Покрытие» в секции «Индекс»:

    Как найти Отчёт об индексировании в Google Search Console

    Перед вами Отчёт. Отметив галочками любой из статусов или все сразу, вы сможете выбрать то, что хотите визуализировать на графике:

    Статусы URL на странице Отчёта

    Вы увидите четыре статуса URL-адресов:

    • Ошибка — критическая проблема сканирования или индексации.
    • Без ошибок, есть предупреждения — URL-адреса проиндексированы, но содержат некоторые некритичные ошибки. 
    • Страница без ошибок — страницы проиндексированы корректно.
    • Исключено — страницы, которые не были проиндексированы из-за проблем (это самый важный раздел, на котором нужно сфокусироваться).

    Фильтры «Все обработанные страницы» vs «Все отправленные страницы»

    В верхнем углу вы можете отфильтровать, какие страницы хотите видеть:

    Фильтр отображаемых страниц

    «Все обработанные страницы» показываются по умолчанию. В этот фильтр включены все URL-адреса, которые Google смог обнаружить любым способом.

    Фильтр «Все отправленные страницы» включает только URL-адреса, добавленные с помощью файла Sitemap.

    Так что когда открываете Отчёт, убедитесь, что смотрите нужные данные.

    Проверка статусов URL

    Чтобы увидеть подробную информацию о проблемах, обнаруженных для каждого статуса, посмотрите «Сведения» под графиком:

    Раздел «Сведения»

    Тут показан статус, тип проблемы и количество затронутых страниц. Обратите внимание на столбец «Проверка» — после исправления ошибки, вы можете попросить Google проверить URL повторно.

    Например, если кликнуть на первую строку со статусом «Предупреждение», то вверху появится кнопка «Проверить исправление»:

    Проверка исправлений

    Вы также можете увидеть динамику каждого статуса: увеличилось, уменьшилось или осталось на том же уровне количество URL-адресов в этом статусе.

    Если в «Сведениях» кликнуть на любой статус, вы увидите количество адресов, связанных с ним. Кроме того, вы сможете посмотреть, когда каждая страница была просканирована (но помните, что эта информация может быть неактуальна из-за задержек в обновлении отчётов). 

    Подробная информация о сканировании в Сведениях

    Что учесть при использовании отчёта

    • Всегда проверяйте, смотрите ли вы отчёт по всем обработанным или по всем отправленным страницам. Разница может быть очень существенной.
    • Отчёт может показывать изменения с задержкой. После публикации контента подождите несколько дней, пока страницы просканируются и проиндексируются.
    • Google пришлёт уведомления на электронную почту, если увидит какие-то критичные проблемы с сайтом.  
    • Стремитесь к индексации канонической версии страницы, которую вы хотите показывать пользователям и поисковым ботам. 
    • В процессе развития сайта, на нём будет появляться больше контента, так что ожидайте увеличения количества проиндексированных страниц в Отчёте.

    Как часто смотреть Отчёт

    Обычно достаточно делать это раз в месяц.

    Но если вы внесли значимые изменения на сайте, например, изменили макет страницы, структуру URL или сделали перенос сайта, мониторьте Отчёт чаще, чтобы вовремя поймать негативное влияние изменений.

    Рекомендую делать это хотя бы раз в неделю и обращать особое внимание на статус «Исключено». 

    Дополнительно: инструмент проверки URL

    В Search Console есть ещё один инструмент, который даст ценную информацию о сканировании и индексации страниц вашего сайта — Инструмент проверки URL.

    Он находится в самом верху страницы в GSC:

    Инструмент проверки URL

    Просто вставьте URL, который вы хотите проверить, в эту строку и увидите данные по нему. Например:

    Результат проверки URL

    Инструментом можно пользоваться для того, чтобы:

    • проверить статус индексирования URL, и обнаружить возможные проблемы;
    • узнать, индексируется ли URL;
    • просмотреть проиндексированную версию URL;
    • запросить индексацию, например, если страница изменилась;
    • посмотреть загруженные ресурсы, например, такие как JavaScript;
    • посмотреть, какие улучшения доступны для URL, например, реализация структурированных данных или удобство для мобильных. 

    Если в Отчёте об индексировании обнаружены какие-то проблемы со страницами, используйте Инструмент, чтобы тщательнее проверить их и понять, что именно нужно исправить. 

    Статус «Ошибка»

    Под этим статусом собраны URL, которые не были проиндексированы из-за ошибок.

    Если вы видите проблему с пометкой «Отправлено», то это может касаться только URL, которые были отправлены через карту сайту. Убедитесь, что в карте сайте содержатся только те страницы, которые вы действительно хотите проиндексировать.

    Ошибка сервера (5xx)

    Эта проблема говорит об ошибке сервера со статусом 5xx, например, 502 Bad Gateway или 503 Service Unavailable.

    Советую регулярно проверять этот раздел и следить, нет ли у Googlebot проблем с индексацией страниц из-за ошибки сервера. 

    Что делать. Нужно связаться с вашим хостинг-провайдером, чтобы исправить эту проблему или проверить, не вызваны ли эти ошибки недавними обновлениями и изменениями на сайте.

    Как исправить ошибки сервера — рекомендации Google

    Ошибка переадресации

    Редиректы перенаправляют поисковых ботов и пользователей со старого URL на новый. Обычно они применяются, если старый адрес изменился или страницы больше не существует. 

    Ошибки переадресации могут указывать на такие проблемы:

    • цепочка редиректов слишком длинная;
    • обнаружен циклический редирект — страницы переадресуют друг на друга;
    • редирект настроен на страницу, URL которой превышает максимальную длину;
    • в цепочке редиректов найден пустой или ошибочный URL.

    Что делать. Проверьте и исправьте редиректы каждой затронутой страницы. 

    Доступ к отправленному URL заблокирован в файле robots.txt

    Эти страницы есть в файле Sitemap, но заблокированы в файле robots.txt. 

    Robots.txt — это файл, который содержит инструкции для поисковых роботов о том, как сканировать ваш сайт. Чтобы URL был проиндексирован, Google нужно для начала его просканировать. 

    Что делать. Если вы видите такую ошибку, перейдите в файл robots.txt и проверьте настройку директив. Убедитесь, что страницы не закрыты через noindex.

    Страница, связанная с отправленным URL, содержит тег noindex

    По аналогии с предыдущей ошибкой, эта страница была отправлена на индексацию, но она содержит директиву noindex в метатеге или в заголовке ответа HTTP.

    Что делать. Если страница должна быть проиндексирована, уберите noindex.

    Отправленный URL возвращает ложную ошибку 404

    Ложная ошибка 404 означает, что страница возвращает статус 200 OK, но её содержимое может указывать на ошибку. Например, страница пустая или содержит слишком мало контента.

    Что делать. Проверьте страницы с ошибками и посмотрите, есть ли возможность изменить контент или настроить редирект.  

    Отправленный URL возвращает ошибку 401 (неавторизованный запрос)

    Ошибка 401 Unauthorized означает, что запрос не может быть обработан, потому что необходимо залогиниться под правильными user ID и паролем.

    Что делать. Googlebot не может индексировать страницы, скрытые за логинами. Или уберите необходимость авторизации или подтвердите авторизацию Googlebot, чтобы он мог получить доступ к странице.

    Отправленный URL не найден (ошибка 404)

    Ошибка 404 говорит о том, что запрашиваемая страница не найдена, потому что была изменена или удалена. Такие страницы есть на каждом сайте и наличие их в малом количестве обычно ни на что не влияет. Но если пользователи будут находить такие страницы, это может отразиться негативно. 

    Что делать. Если вы увидели эту проблему в отчёте, перейдите на затронутые страницы и проверьте, можете ли вы исправить ошибку. Например, настроить 301-й редирект на рабочую страницу. 

    Дополнительно убедитесь, что файл Sitemap не содержит URL, которые возвращают какой-либо другой код состояния HTTP кроме 200 OK. 

    При отправке URL произошла ошибка 403

    Код состояния 403 Forbidden означает, что сервер понимает запрос, но отказывается авторизовывать его. 

    Что делать. Можно либо предоставить доступ анонимным пользователям, чтобы робот Googlebot мог получить доступ к URL, либо, если это невозможно, удалить URL из карты сайта. 

    URL заблокирован из-за ошибки 4xx (ошибка клиента)

    Страница может быть непроиндексирована из-за других ошибок 4xx, которые не описаны выше. 

    Что делать. Чтобы понять, о какой именно ошибке речь, используйте Инструмент проверки URL. Если устранить ошибку невозможно, уберите URL из карты сайта. 

    Статус «Без ошибок, есть предупреждения»

    URL без ошибок, но с предупреждениями, были проиндексированы, но могут требовать вашего внимания. Тут обычно случается две проблемы.

    Проиндексировано, несмотря на блокировку в файле robots.txt

    Обычно эти страницы не должны быть проиндексированы, но скорее всего Google нашёл ссылки, указывающие на них, и посчитал их важными.

    Что делать. Проверьте эти страницы. Если они всё же должны быть проиндексированы, то обновите файл robots.txt, чтобы Google получил к ним доступ. Если не должны — поищите ссылки, которые на них указывают. Если вы хотите, чтобы URL были просканированы, но не проиндексированы, добавьте директиву noindex.

    Страница проиндексирована без контента

    URL проиндексированы, но Google не смог прочитать их контент. Это может быть из-за таких проблем:

    • Клоакинг — маскировка контента, когда Googlebot и пользователи видят разный контент.
    • Страница пустая.
    • Google не может отобразить страницу.
    • Страница в формате, который Google не может проиндексировать.

    Зайдите на эти страницы сами и проверьте, виден ли на них контент. Также проверьте их через Инструмент проверки URL и посмотрите, как их видит Googlebot. После того, как устраните ошибки, или если не обнаружите каких-либо проблем, вы можете запросить у Google повторное индексирование. 

    Статус «Страница без ошибок»

    Здесь показываются страницы, которые корректно проиндексированы. Но на эту часть Отчёта всё равно нужно обращать внимание, чтобы сюда не попали страницы, которые не должны были оказаться в индексе. Тут тоже есть два статуса.

    Страница была отправлена в Google и проиндексирована

    Это значит, что страницы отправлена через Sitemap и Google её проиндексировал.

    Страница проиндексирована, но её нет в файле Sitemap 

    Это значит, что страница проиндексирована даже несмотря на то, что её нет в Sitemap. Посмотрите, как Google нашёл эту страницу, через Инструмент проверки URL. 

    Чаще всего страницы в этом статусе — это страницы пагинации, что нормально, учитывая, что их и не должно быть в Sitemap. Посмотрите список этих URL, вдруг какие-то из них стоит добавить в карту сайта.

    Статус «Исключено»

    В этом статусе находятся страницы, которые не были проиндексированы. В большинстве случаев это вызвано теми же проблемами, которые мы обсуждали выше. Единственное различие в том, что Google не считает, что исключение этих страниц вызвано какой-либо ошибкой. 

    Вы можете обнаружить, что многие URL здесь исключены по разумным причинам. Но регулярный просмотр Отчёта поможет убедиться, что не исключены важные страницы.

    Индексирование страницы запрещено тегом noindex

    Что делать. Тут то же самое — если страница и не должна быть проиндексирована, то всё в порядке. Если должна — удалите noindex. 

    Индексирование страницы запрещено с помощью инструмента удаления страниц

    У Google есть Инструмент удаления страниц. Как правило с его помощью Google удаляет страницы из индекса не навсегда. Через 90 дней они снова могут быть проиндексированы. 

    Что делать. Если вы хотите заблокировать страницу насовсем, вы можете удалить её, настроит редирект, внедрить авторизацию или закрыть от индексации с помощью тега noindex.

    Заблокировано в файле robots.txt 

    У Google есть Инструмент проверки файла robots.txt, где вы можете в этом убедиться. 

    Что делать. Если эти страницы и не должны быть в индексе, то всё в порядке. Если должны — обновите файл robots.txt.

    Помните, что блокировка в robots.txt — не стопроцентный вариант закрыть страницу от индексации. Google может проиндексировать её, например, если найдёт ссылку на другой странице. Чтобы страница точно не была проиндексирована, используйте директиву noindex. 

    Подробнее о блокировке индексирования при помощи директивы noindex

    Страница не проиндексирована вследствие ошибки 401 (неавторизованный запрос)

    Обычно это происходит на страницах, защищённых паролем. 

    Что делать. Если они и не должны быть проиндексированы, то ничего делать не нужно. Если вы не хотите, чтобы Google обнаруживал эти страницы, уберите существующие внутренние и внешние ссылки на них.

    Страница просканирована, но пока не проиндексирована

    Это значит, что страница «ждёт» решения. Для этого может быть несколько причин. Например, с URL нет проблем и вскоре он будет проиндексирован. 

    Но чаще всего Google не будет торопиться с индексацией, если контент недостаточно качественный или выглядит похожим на остальные страницы сайта. 

    В этом случае он поставит её в очередь с низким приоритетом и сфокусируется на индексации более важных страниц. Google говорит, что отправлять такие страницы на переиндексацию не нужно. 

    Что делать. Для начала убедитесь, что это не ошибка. Проверьте, действительно ли URL не проиндексирован, в Инструменте проверки URL или через инструмент «Индексация» в Анализе сайта в Топвизоре. Они показывают более свежие данные, чем Отчёт. 

    Как исправить ошибку, когда страница просканирована, но не проиндексирована (на английском)

    Обнаружена, не проиндексирована

    Это значит, что Google увидел страницу, например, в карте сайта, но ещё не просканировал её. В скором времени страница может быть просканирована.

    Иногда эта проблема возникает из-за проблем с краулинговым бюджетом. Google может посчитать сайт некачественным, потому что ему не хватает производительности или на нём слишком мало контента.

    Что такое краулинговый бюджет и как его оптимизировать

    Возможно, Google не нашёл каких-либо ссылок на эту страницу или нашёл страницы с большим ссылочным весом и посчитал их более приоритетными для сканирования. 

    Если на сайте есть более качественные и важные страницы, Google может игнорировать менее важные страницы месяцами или даже никогда их не просканировать. 

    Вариант страницы с тегом canonical

    Эти URL — дубли канонической страницы, отмеченные правильным тегом, который указывает на основную страницу.

    Что делать. Ничего, вы всё сделали правильно.

    Страница является копией, канонический вариант не выбран пользователем

    Это значит, что Google не считает эти страницы каноническими. Посмотрите через Инструмент проверки URL какую страницу он считает канонической. 

    Что делать. Выберите страницу, которая по вашему мнению является канонической, и разметьте дубли с помощью rel=”canonical”.

    Страница является копией, канонические версии страницы, выбранные Google и пользователем, не совпадают

    Вы выбрали каноническую страницу, но Google решил по-другому. Возможно, страница, которую вы выбрали, не имеет столько внутреннего ссылочного веса, как неканоническая.

    Что делать. В этом случае может помочь объединение URL повторяющихся страниц.

    Как правильно настроить внутренние ссылки на сайте

    Не найдено (404)

    URL нет в Sitemap, но Google всё равно его обнаружил. Возможно, это произошло с помощью ссылки на другом сайте или ранее страница существовала и была удалена.

    Что делать. Если вы и не хотели, чтобы Google индексировал страницу, то ничего делать не нужно. Другой вариант — поставить 301-й редирект на работающую страницу.  

    Страница с переадресацией

    Эта страница редиректит на другую страницу, поэтому не была проиндексирована. Обычно, такие страницы не требуют внимания.

    Что делать. Эти страницы и не должны быть проиндексированы, так что делать ничего не нужно.

    Ложная ошибка 404

    Обычно это страницы, на которых пользователь видит сообщение «не найдено», но которые не сопровождаются кодом ошибки 404. 

    Что делать. Для исправления проблемы вы можете:

    • Добавить или улучшить контент таких страниц.
    • Настроить 301-й редирект на ближайшую альтернативную страницу.
    • Настроить сервер, чтобы он возвращал правильный код ошибки 404 или 410.

    Страница является копией, отправленный URL не выбран в качестве канонического

    Эти страницы есть в Sitemap, но для них не выбрана каноническая страница. Google считает их дублями и канонизировал их другими страницами, которые определил самостоятельно.  

    Что делать. Выберите и добавьте канонические страницы для этих URL.

    Страница заблокирована из-за ошибки 403 (доступ запрещён)

    Что делать. Если Google не может получить доступ к URL, лучше закрыть их от индексации с помощью метатега noindex или файла robots.txt. 

    URL заблокирован из-за ошибки 4xx (ошибка клиента)

    Сервер столкнулся с ошибкой 4xx, которая не описана выше. 

    Гайд по ошибкам 4xx и способы их устранения (на английском)

    Попробуйте исправить ошибки или оставьте страницы как есть. 

    Ключевые выводы

    1. Проверяя данные в Отчёте помните, что не все страницы сайта должны быть просканированы и проиндексированы. 
    2. Закрыть от индексации некоторые страницы может быть так же важно, как и следить за тем, чтобы нужные страницы сайта индексировались корректно. 
    3. Отчёт об индексировании показывает как критичные ошибки, так и неважные, которые не обязательно требуют действий с вашей стороны.
    4. Регулярно проверяйте Отчёт, но только для того, чтобы убедиться, что всё идёт по плану. Исправляйте только те ошибки, которые не соответствуют вашей стратегии индексации.

    Как исправить ошибку «Веб-сканер не может найти файл robots.txt»

    Robots.txt — важный файл для правильной работы сайта. Именно здесь сканеры поисковых систем находят информацию о страницах веб-ресурса, которые следует сканировать в первую очередь, а на какие вообще не стоит обращать внимание. Файл robots.txt используется, когда необходимо скрыть некоторые части сайта или весь сайт от поисковых систем. Например, место с личной информацией пользователя или зеркало сайта.

    Что делать, если системный аудитор не видит этот файл? Об этом и других проблемах, связанных с файлом robots.txt, читайте в нашей статье.

    Как работает файл robots.txt?

    robots.txt — это текстовый документ в кодировке UTF-8. Этот файл работает для протоколов http, https и FTP. Тип кодировки очень важен: если файл robots. txt закодирован в другом формате, поисковая система не сможет прочитать документ и определить, какие страницы следует распознавать, а какие нет. Другие требования к файлу robots.txt следующие:

    • все настройки в файле актуальны только для сайта, на котором находится robots.txt;
    • расположением файла является корневой каталог; URL-адрес должен выглядеть так: https://site.com.ua/robots.txt;
    • размер файла не должен превышать 500 Кб.

    При сканировании файла robots.txt поисковым роботам предоставляется разрешение на сканирование всех или некоторых веб-страниц; им также может быть запрещено это делать.
    Об этом можно здесь.

    Коды ответов поисковой системы

    Поисковый робот сканирует файл robots.txt и получает следующие ответы:

    • 5XX – разметка временной ошибки сервера, при которой сканирование останавливается;
    • 4XX — разрешение на сканирование каждой страницы сайта;
    • 3XX — перенаправлять до тех пор, пока сканер не получит другой ответ. После 5 попыток исправлена ​​ошибка 404;
    • 2XX – успешное сканирование; все страницы, которые необходимо прочитать, распознаются.

    Если при переходе на https://site.com.ua/robots.txt поисковая система не находит или не видит файл, будет ответ «robots.txt не найден».

    Причины ответа «robots.txt не найден»

    Причины ответа поискового робота «robots.txt не найден» могут быть следующими:

    • текстовый файл расположен по другому URL-адресу;
    • файл robots.txt не найден на сайте.

    Дополнительная информация об этом видео Джона Мюллера из Google.

    Обратите внимание! Файл robots.txt находится в каталоге основного домена, а также в поддоменах. Если вы включили поддомены в аудит сайта, файл должен быть доступен; в противном случае сканер сообщит об ошибке о том, что файл robots. txt не найден.

    Почему это важно?

    Отсутствие исправления ошибки «robots.txt не найден» приведет к некорректной работе поисковых роботов из-за некорректных команд из файла. Это, в свою очередь, может привести к падению рейтинга сайта, некорректным данным о посещаемости сайта. Также, если поисковые системы не увидят robots.txt, будут просканированы все страницы вашего сайта, что нежелательно. В результате вы можете пропустить следующие проблемы:

    1. перегрузка сервера;
    2. бесцельное сканирование страниц с одинаковым содержанием поисковыми системами;
    3. больше времени для обработки запросов посетителей.

    От бесперебойной работы файла robots.txt зависит бесперебойная работа вашего веб-ресурса. Поэтому давайте рассмотрим, как исправить ошибки в работе этого тестового документа.

    Как исправить файл robots.txt?

    Чтобы поисковые роботы правильно реагировали на ваш файл robots.txt, он должен быть правильно отлажен. Проверьте текстовый документ безопасности на наличие следующих ошибок:

    1. Значения директив перепутаны. Запретить или разрешить должны быть в конце фразы.
    2. URL-адреса нескольких страниц в одной директиве.
    3. Опечатки в имени файла robots.txt или прописные буквы, используемые в файле.
    4. User-agent не указан.
    5. Отсутствие директивы во фразе: запретить или разрешить.
    6. Неточный URL: используйте символы $ и /, чтобы указать пробел.

    Вы можете проверить файл robots.txt с помощью инструментов проверки поисковых систем. Например, используйте инструмент тестирования Google robots.txt.

    Определите, не найден ли Robots.txt, и приступайте к анализу других проблем с ним!

    Проверьте не только проблему, но и проведите полный аудит, чтобы выяснить и исправить ваше техническое SEO.

    Иван Палий

    Эксперт по маркетингу

    Иван работает специалистом по продуктовому маркетингу в Sitechecker. Увлекается аналитикой и созданием бизнес-стратегии для продуктов SaaS.

    Фейсбук Линкедин

    seo — Что произойдет, если на веб-сайте нет файла robots.txt?

    спросил

    Изменено 7 месяцев назад

    Просмотрено 25 тысяч раз

    Если файл robots.txt отсутствует в корневом каталоге веб-сайта, как обстоят дела:

    1. сайт вообще не индексируется
    2. сайт индексируется без ограничений

    По логике вещей должен быть вторым. Спрашиваю в связи с этим вопросом.

    • поисковая оптимизация
    • индексирование
    • robots.txt
    • поисковая система

    Целью файла robots.txt является защита сканеров от определенных частей веб-сайта . Его отсутствие должно привести к тому, что весь ваш контент будет проиндексирован.

    Из первого комментария к этому мета-вопросу следует, что файл robots.txt существовал, но был недоступен (по какой-либо причине), а не отсутствовал вообще. Этот может вызвать некоторые проблемы у поисковых роботов, но это предположение.

    У меня нет файла robots.txt в моем блоге (самостоятельная установка WordPress), и он проиндексирован.

    Robots.txt является строго добровольным соглашением среди поисковых систем; они свободны игнорировать его или реализовать любым удобным для себя способом. Тем не менее, за исключением случайных пауков, ищущих адреса электронной почты или тому подобное, они почти все уважают это. Его формат и логика очень, очень просты, а правило по умолчанию — разрешать (поскольку вы можете только или позволяют). Сайт без robots.txt будет полностью проиндексирован.

    У меня не было robots.txt на десятках доменов, которые я зарегистрировал, некоторые еще в 1994 году, и у меня никогда не было проблем с их размещением в google/yahoo и т. д.

    Даже на моем личном веб-сайте получает 150-200 пользователей в день от Google и не имеет файла robots.txt.

    (Мне нравится трехминутная пауза между ответами на вопросы. Затем я получу робот-капчу. Иногда просто не стоит пытаться быть полезным.)

    2

    robots.txt является необязательным. Если он у вас есть, поисковые роботы, соответствующие стандартам, будут его уважать, если у вас его нет, все, что не запрещено в элементах HTML-META (Википедия), будет доступно для сканирования.

    Сайт будет индексироваться без ограничений. пауки будут следовать за всем, что найдут.

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *