Почему битрикс не индексируется – 1С-Битрикс Разработчикам — SEO и robots.txt в 14 версии 1С-Битрикс Управления Сайтом

Переиндексация

Перегенерация поискового индекса может потребоваться в самых различных ситуациях, например, после импорта товаров в каталог или после загрузки файлов по FTP. Пока индекс поиска не создан заново после подобных операций, новые страницы не будут выводиться в результатах поиска.

Форма Переиндексация (Настройки > Поиск > Переиндексация) позволяет пересоздать поисковый индекс, задав требуемые параметры и ограничения.

Закладка «Переиндексация»

Закладка предназначена для ручной переиндексации сайта.

ПолеОписание
Переиндексировать только измененныеЕсли эта опция включена, при создании индекса будет обновляться/добавляться информация о модифицированных/созданных с момента последней индексации документах и страницах. 
Если вы хотите переиндексировать сайт полностью, отключите эту опцию.
ШагИнтервал между шагами индексации, в секундах. Если поле оставлено пустым или указано значение
0
, то индексация будет совершена за один шаг. Такие значения, как правило, не используются, так как современные сайты имеют большие объёмы контента. Конкретное значение подбирается экспериментально, начинать советуем с шага в 5-10. Для большинства сайтов шаг 20 будет оптимальным.
СайтСайт, документы которого требуется переиндексировать.
МодульСписок позволяет выбрать, какую информацию следует переиндексировать:
  • все;
  • Статические файлы;
  • [blog] Блоги;
  • [forum] Форум;
  • [iblock] Информационные блоки;
  • [intranet] Интранет;
  • [learning] Обучение;
  • [socialnetwork] Социальная сеть.

Примечание: Переиндексацию Социальной сети необходимо производить только из публичной части сайта с помощью соответствующей кнопки на панели инструментов (см. ниже). Опция
[socialnetwork] Социальная сеть
в данном случае не даст нужного эффекта.
Удалить поисковые фразы для подсказкиПри отмеченной опции будут удалены все фразы, отображающиеся в виде интерактивных подсказок при поиске.

Для того чтобы начать переиндексацию, нажмите кнопку Переиндексировать. Для остановки переиндексации — кнопку Остановить, а для продолжения Продолжить.

Внимание! После выполнения переиндексации модуль Социальная сеть должен быть переиндексирован отдельно из публичного раздела.

Для этого:

  • Перейдите в разделы социальной сети (где установлены компоненты socialnetwork, socialnetwork_group, socialnetwork_user).
  • Нажмите кнопку Индексация на панели управления:

Смотрите также:

© «Битрикс», 2001-2019, «1С-Битрикс», 2019

Наверх

dev.1c-bitrix.ru

1С-Битрикс Разработчикам — SEO и robots.txt в 14 версии 1С-Битрикс Управления Сайтом

Разбирать принципы работы мы будем на работающем проекте, на который были установлены последние обновления: http://teatome.ru

Модуль: Поисковая оптимизация (SEO) – версия 14.0.2

В разделе «Сервисы» появился новый пункт «Поисковая оптимизация», в котором собраны возможности по SEO, влияющие на весь сайт:

01.jpg

Разберем раздел «Настройка robots.txt». В данном разделе вы можете управлять, создавать и следить за файлом robots.txt вашего сайта:

02.jpg

Мы продолжаем применять новый функционал на работающем магазине, видим в правой части скриншота содержимое файла robots.txt, который используется в данный момент. Подведя курсор к строке, вы увидите крестик и сможете удалить строку.

Удаляем файл robots.txt, который используется в данный момент, и входим в настройку заново:

03.jpg

У нас нет файла, 1С-Битрикс предлагает нам его создать. Справа у нас есть кнопочки с действиями, которые нам помогут. Давайте разберём их:

04.jpg

«Стартовый набор» — создаст рекомендованный набор от Битрикса для вашего сайта. Во время создания система запросит у вас главное зеркало, для текущего сайта мы будем пользоваться главным зеркалом http://teatome.ru, стартовый набор создался и отобразился в окне:

05.jpg
 
«Запретить файл/папку (Disallow)» — если вы хотите дополнить рекомендованный список и точно знаете те файлы и папки, которые нужно закрыть на вашем проекте, вы сможете это сделать через эту кнопку.

Добавим несколько папок и файлов в исключения, для поисковых роботов:

06.jpg

Сохраняем и видим, что в конце списка добавились новые записи:

07.jpg
 

«Разрешить файл/папку (Allow)» — данная кнопка может добавить определённые файлы или целые папки в индексацию, чтобы робот не забыл туда зайти.

«Главное зеркало (Host)» — нажатие данной кнопки инициирует появление диалога, в котором вы можете гибко указывать главное зеркало вашего сайта. При создании рекомендованного набора, система предлагает указать главное зеркало, но если у вас уже был файл, в котором не было указано главное зеркало сайта, вы сможете его добавить:

08.jpg

«Интервал между запросами (Crawl-delay)» — настройка для слабых хостингов или для магазинов с сотнями тысяч страниц, задаёт интервалы обработки между страницами.

Подробнее можно почитать по ссылке на Яндекс: http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml#crawl-delay

«Карта сайта (sitemap)» — вы можете указать путь к файлу карты сайта:

09.jpg

Нажатие на «Сохранить» добавляет запись в файл robots.txt:

10.jpg

Настройки, сделанные на вкладке «Общие правила», действуют для всех поисковых систем (ботов).

11.jpg

Но вы можете задать определённые правила для определённых поисковых систем и их ботов, например Яндекса:

12.jpg

На скриншоте показан список ботов, для которых вы можете задавать специальные правила, разбирать подробно этот момент мы не будем, можно почитать документацию, указанную внизу страницы:

13.jpg

Вы можете дописать нужные команды и строки вручную, перейдя на вкладку «Редактировать»:

14.jpg

Все изменения или настройки, которые мы осуществляли, делались только на экране и не были записаны в файл. Мы внесли все нужные изменения, жмём на «

Сохранить», и у нас создаётся файл со всеми настройками:

15.jpg

Набрав в браузере:  http://www.teatome.ru/robots.txt вы должны увидеть файл, который вы сохранили:

16.jpg
На момент публикации данной статьи обновление находится в статусе beta. Отследить статус обновления можете на странице истории версий.

Спасибо, ждём вопросов и замечаний по новому функционалу.

dev.1c-bitrix.ru

16 причин почему сайт не индексируется в Яндекс и Google

Почему сайт не индексируется поисковыми роботами?

Многие вебмастера сталкиваются с проблемами индексации сайта, которые негативно влияют на его SEO-продвижение, трафик. Они постоянно совершенствуют сайт, оптимизируют, добавляют новый контент, а число страниц в индексе не растет, либо и вовсе весь ресурса там отсутствует.

Чтобы предпринять соответствующие меры по предотвращению данной проблемы, нужно выяснить, почему сайт не индексируется поисковыми роботами. Сегодня мы и поговорим об основных причинах, которые приводят к тому, что материалы с ресурса не вносятся в базу данных поисковиков.

1. Яндекс и Google еще не заметили ваш ресурс

Это одна из самых возможных причин. Вы недавно создали свой сайт и выложили его в интернет, но не предприняли никаких мер, чтобы поисковики побыстрее нашли его. Тогда индексацию и вправду можно ждать очень долго.

Чтобы этого не допустить, обязательно добавьте проект в Addurl (Аддурилку), а также в панель вебмастера Google и Яндекс. Проделав эти несложные шаги, можно ожидать попадания сайта в индекс уже через пару часов, но бывает, что приходится ждать и несколько дней.

2. Настройки приватности в WordPress

Настройки приватности в WordPress
Если вы используете готовую CMS, обязательно проверьте приватные настройки, которые нередко установлены по умолчанию, и именно из-за них сайт может не индексироваться.

Например, если у вас WordPress зайдите в «Настройки», а затем в «Чтение». Там вы найдете опцию «Видимость для поисковиков», напротив которого нужно убрать галочку возле «Попросить поисковые машины не индексировать сайт».

Если вы используете другую CMS, то обязательно проверьте стоит ли у вас в настройках подобная опция. Как ни странно, но ситуации, когда сайтостроители элементарно забывают снять эту галочку, случаются довольно регулярно.

3. Веб-ресурс или отдельные его файлы заблокированы в robots.txt

Еще одна распространенная причина, которая остается без внимания вебмастеров. Но и эту проблему легко исправить. Если на сайте нет мусорных страниц и технических разделов, то достаточно создать файл robots с таким правилом, которое разрешает индексировать весь ваш сайт:

User-agent: *
Disallow:

Что такое robots.txt и как правильно его настроить читайте в этой статье.

4. На сайте много повторяющихся материалов

Как правило, зачастую дублируются страницы и мета-теги. Это грозит не только непопаданием вашего сайта в индекс, но и применением по отношению к нему санкций от Google Panda (алгоритм, который борется с некачественным контентом). Узнать, какие основные проблемы существенно снижают качество и эффективность проекта, вы можете в разделе «Вид в поиске» –> «Оптимизация HTML» в Google Вебмастере.

Сегодня это одна из распространенных причин, по которой сайты попадают под санкции, и разработчикам становится сложнее их продвигать.

5. Мета-тег name, content

Скрыть веб-ресурс от поисковиков можно и мета-тегом:

<meta name=”robots” content=”noindex, nofollow”>

Иногда это правило может быть прописано и для определенных роботов:

<meta name="googlebot" content="noindex" />

Чтобы проверить его наличие, откройте исходный код сайта и проверьте содержимое. Если найдете вышеупомянутую строку, просто удалите ее, или «nofollow» и «noindex» замените на «follow» и «index» соответственно.

Да, бывали и такие случаи, когда данный мета-тег присутствовал в коде, а вебмастера даже не догадывались об этом и искали совершенно другие проблемы.

6. Мета-тег noindex

Заодно проверьте в коде тег <noindex></noindex>, не обрамлен ли им ваш контент. Этот тег служит для поисковой системы Яндекс, который указывает, что этот контент не следует индексировать. То есть если у вас часть текста закрыта этим тегом, то у вас страница будет индексироваться, а сам контент который им обрамлен не будет.

7. Использование HTTP-заголовка X-Robots-Tag

Этот способ закрывает от индексации страницы только для Google. В коде этот метатег не найти, так как он работает на уровне заголовков сервера. Проверить его можно с помощью плагина для браузера Web Developer: Chrome, FireFox

x-robots-tag проверка web developer

Или с помощью онлайн инструмента http://tools.seobook.com/server-header-checker/

8. Перебои в работе хостинга или сервера

Если робот посетил ваш сайт, чтобы проиндексировать его содержимое, а в это время он оказался недоступным, то страницы так и не будут внесены в базу данных поисковых систем. Поэтому очень важно выбрать надежный хостинг и сервер с хорошим up time.

Чтобы всегда быть в курсе доступности ресурса, созданы самые разные сервисы. Найти их можно, введя в поиск запрос «uptime checker». Рекомендуем Яндекс.Метрика – он совершенно бесплатный.
Сервис Яндекс.Метрика

9. Ошибки при сканировании

Если их возникает в изобилии, то боты не имеют возможности полноценно обойти сайт и добраться до необходимых страниц. Проверить наличие ошибок можно в Google Webmaster Tools. Зайдите в раздел «Сканирование» и выберите «Ошибки сканирования». Если они будут обнаружены, сервис предложит их исправить.

10. Ранее используемый домен

Если вы зарегистрировали сайт на старое доменное имя, потому что оно легко читается и хорошо звучит, будьте готовы к тому, что его предыдущий владелец занимался черными методами SEO-продвижения, и теперь вам придется «разгребать» все те проблемы, к которым привела его деятельность.

Поправить ситуацию можно:

  1. Отправив в Яндекс и Google запрос на пересмотр и узнав, почему страницы не индексируются.
  2. Продолжая продвигать проект и работать над

webmasterie.ru

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *