Почему битрикс не индексируется: Битрикс не индексирует статические страницы

Содержание

Встроенная поисковая система — Битрикс — Управление сайтом — ООО Автоматизация

Внешний полнотекстовый поиск

Внешняя система с поддержкой морфологии и релевантности 

Посетители будут находить информацию на вашем сайте быстро и качественно. Продукт интегрирован с внешней поисковой системой, основанной на Sphinx. Это система полнотекстового поиска с поддержкой морфологии и релевантности, распространяемая по лицензии GNU GPL.
Внешний полнотекстовый поиск Sphinx:

  • подключается к любому сайту без его доработки
  • совместим с текущими сайтами
  • обеспечивает значительное снижение нагрузки на ваш сервер
  • прозрачно интегрируется с интернет-магазином
  • ускоряет процесс индексации на несколько порядков
  • соблюдает (наследует) права доступа
  • полностью совместим с поисковым API «1С-Битрикс»
  • поддерживает все поисковые функции
 
Быстрый поиск для интернет-магазина
Зачем нужен внешний полнотекстовый поиск? 

Поиск должен быть качественным и быстрым, и это особенно актуально для интернет-магазинов.

К тому же, индексация данных большого интернет-магазина — довольно ресурсоемкая операция, которую лучше переложить на внешнюю систему. 

Поиск обеспечивает:

  • релевантность — ваш посетитель получает список страниц, наиболее соответствующий его запросу. Если у вас интернет-магазин, покупатель получает список продуктов, которые он ищет
  • конверсию — чем проще клиенту найти нужный товар, тем больше вероятность покупки. Система теперь помогает покупателю сделать выбор из большого числа вариантов
  • снижение нагрузки на ваш сервер — все операции выполняются на сервисе внешнего поиска
  • экономию — вам не придется нанимать программиста для разработки собственного поиска — это дорого
Мощный, быстрый, открытый движок 

Sphinx — один из самых мощных и быстрых из всех открытых поисковых движков. Среди его достоинств эксперты выделяют прямую интеграцию с популярными базами данных и поддержку развитых возможностей поиска, включая ранжирование и стемминг для русского и английского языка.

Отличную поддержку русского языка проект получил из-за того, что автор — наш соотечественник, Андрей Аксенов. Поддерживаются и нетривиальные возможности вроде распределенного поиска и кластеризации, однако фирменной фичей является очень и очень высокая скорость индексации и поиска…

Cкорость индексации выше в 1000 раз! 

Поисковый движок Sphinx хранит таблицу индексов, быстрее и детальнее индексирует сайт, позволяет посетителям комфортней и быстрее находить информацию, в том числе и товары в вашем интернет-магазине. 

Интеграция со Sphinx включена в стандартное веб-окружение «1С-Битрикс» 

Достаточно установить бесплатный продукт «1С-Битрикс: Веб-окружение» или «накатить» его последнее последнее обновление, — и на вашем сервере автоматически появится Sphinx.

«1С-Битрикс»: Веб-окружение» — бесплатный продукт, который позволяет быстро и с минимальными затратами развернуть оптимальное окружение для работы продуктов и решений «1С-Битрикс» на платформе Windows или Linux.

Как стать счастливым обладателем быстрого поиска:
  • установить поисковый индекс:
  1. обновить «1С-Битрикс: Веб-окружение» до последней версии
  2. или обратиться к своему провайдеру и получить адрес поисковой машины
  • в настройках модуля «Поиск» указать адрес поискового индекса
  • переиндексировать сайт
  • Sphinx появится на сервере
  •  
    Настройка модуля Поиск и переиндексация
    Sphinx автоматически разворачивается и интегрируется с компонентами поиска «1С-Битрикс». В настройках компонентов появляется возможность выбора поиска на основе Sphinx. 

     

    Встроенный фасетный индекс

    В разы ускоряет умный фильтр!

    В функционал «Умного фильтра» встроен фасетный индекс. Использование «фасеты» на порядок ускоряет поиск внутри магазина. Фасетный поиск работает практически мгновенно, выполняет запросы по многим параметрам и не нагружает при этом систему. 

     
    «Умный» фильтр 2.0 со встроенной «фасетой»

    Ваши клиенты не будут нервничать в ожидании результатов поиска. Встроенный фасетный поиск позволяет последовательно выбрать товары с нужными свойствами, отсеяв все лишнее. Система моментально выдает по любому запросу заранее подготовленные списки товаров. С фасетной навигацией покупателям легче и проще выбрать товар даже в огромном каталоге. 

     

    Настройка поиска Битрикс

    Поисковая система битрикса представлена модулем «поиск». При этом настройка поиска в битрикс производится в нескольких местах: это настройка самого модуля, настройка компонента, отвечающего за вывод результатов, настройка индексации инфоблоков и их свойств, настройка форумов и социальных сетей. Рассмотрим подробнее каждую из этих настроек.

    Проверим настройки поиска в битриксе.

    Для этого перейдем в раздел админки настройки — настройки модулей — поиск. Настройка использовать морфологию: позволяет вести поиск по различным измененным формам слов, например, компьютер – компьютера – компьютры. Поиск будет осуществляться по всем вариантам слова.

    Настройка: “Символы, по которым не производится разделение документов на слова”

    К примеру, если вы хотите вести поиск по артикулам, вроде “а-102”, необходимо удалить тире из этого поля. По значению поля поисковик склеивает слова

    Также в настройках поиска битрикс есть поле для включения/исключения файлов по маске. Позволяет не индексировать определенные файлы.

     Настройка поиска по инфоблокам

    А вдминке, по адресу Контент – Типы инфоблоков – <Тип> — <Инфоблок> есть 2 галочки: индексировать разделы и галочка индексировать элементы для модуля поиска. По умолчанию они установлены. Они отвечают соответственно за индексацию разделов и элементов инфоблока. При необходимости можно отключить.


    Также необходимо настроить поиск битрикс по свойствам инфоблоков, напротив каждого свойства имеется галочка «участвует в поиске», настройка поиска по значениям также предусмотрено.

    Настройка поиска по файлам

    Также битрикс умеет вести поиск по статичным текстовым файлам, расположенным в корне вашего сайта. Для того, чтобы исключить определенные файлы, в настройках поиска битрикс есть маска исключения.

    Индексация блогов, форумов

    При создании блога или форума необходимо выставить галочку «индексировать модулем поиска».

     

     

    Настройка поиска в Битриксе

    Обухов Константин

    16.02.2012


    В связи с выходом в Маркетплейс Битрикса нашего нового модуля «Удобный поиск», мы решили дополнительно осветить вопрос настройки поиска, который, как оказалось, для многих владельцев сайтов остаётся тредноразрешимым.

    Итак, приступим!

    Для начала ознакомтесь с документацией нашего модуля. В документации по шагам описывается процесс установки модуля и его базовые настройки. В этой же статье хочется обратить внимание на несколько важных моментов, которые необходимо понимать владельцам и редакторам сайтов для правильной настройки работы поиска.

    Перед началом работы, необходимо проверить настройки модуля «Поиск» (Администрирование — Настройка — Настройки модулей — Поиск).

    Включении морфологии
    Морфология — это различные словоизмениния при склонении именных частей речи. Например, диван — дивана — дивану и т.п. Опция важна, потому что не все пользователи вводят в поиск фразы в именительном падеже, а также без ошибок. Найдутся все варианты слова в разных его формах.

    Cимволы, по которым не производится разделение документа на слова
    Чтобы при индексации контента сайта два разных слова не склеились в одно и поиск был корректным, эта опция должна быть отмечена. Тогда такие слова как, финансово-экономический, сине-зеленый и т.п. будут индексировать и выдаваться в поиске.

    В этом поле можно указать такие специальные символы, как: тире, % и т.п. Обычные символы пунктуации (запятая, точка с запятой и др.) — учитываются автоматически.

    Особено важен этот параметр в том случае, когда на сайте используются артикулы с тире например, VS-1002.

    Чтобы искались слова с тире (1с-битрикс), необходимо удалить знак тире из этой настройки.

    Если тире используется между буквой и числом, необходимо сделать наоборот — указать в этом поле знак тире.

    Исключение папок и файлов
    Если необходимо исключит из поиска какие-то файлы или целые разделы, необходимо прописать эти папки в настройках модуля Поиск:


    Обратите внимание, что в этих же настройках указывается тип файлов, которые подвергаются индексированию.

    ———————————
    Теперь перейдём к настройкам Информационных Блоков, которые будут участвовать в поиске.

    Включение инфоблоков в поиск
    Чтобы содержимое инфоблоков (Новости, товары, статьи и прочее) были в поисковых результатах сайта, необходимо в настройках этих инфоблоков (Администрирование — Контент — Типы информационных блоков — Выбрать нужный тип — Выбрать инфоблок) поставить 2 галочки:

    После чего, надо произвести переиндексацию (полную) сайта (Администрирование — Настройки — Поиск — Переиндексация — Снять галочку «Только изменения»).

    И не забывайте после этого сбрасывать кэш (Администрирование — Настройки — Настройки продукта — Автокеширование — Сбросить кэш).

    —————————
    Мы рассмотрели основные настройки модуля. Теперь рассмотрим настройки самой компоненты поиска.

    Настройка компоненты поиска
    1. Если у Вас стоит готовый сайт (типовое решение), то скорее всего, поисковая страница уже существует. Как правило, она находится в папке /search/. Если нет, то создайте такую страницу. Затем в визуальном редакторе перетащите на неё компоненты «Стандартная страница поиска» и «Удобный поиск» (если у Вас установлен модуль, то вы увидете синенькую иконку нашей компененты).

    Из всех настроек компоненты подробно рассмотрим следующие:

    1) Показывать подсказку с поисковыми фразами — если у Вас есть такая настройка модуля, то опция полезная для быстрого выбора поисковой фразы. Работает хорошо в Интернет-Магазинах. Вообще, мы рекомендуем устанавливать, в качестве поисковой строки, компонент «Поиск по заголовкам» на всех страницах сайта. За исключением случаев, когда львиная доля поискового контента находится не в заголовках товаров, новостей и т.п., а в свойствах и блоках элементов.

    2)

    Автоопределение раскладки — должна быть включена. Люди привыкли, что Яндекс разбирает запросы независимо от раскладки.

    3) Искать без учета морфологии (при отсутствии результатов) — спасение для тех случаев, когда морфологический поиск не помогает. Обязательно включите!  

    4) Ранжировать по заголовкам — см. п.1

    5) Ограничение области поиска — еще одна настройка, позволяющая не показывать в результатах ненужные Вам инфоблоки и другие части сайта.

    ——————————
    Ещё некоторые особенности поиска.

    Поиск по свойствам
    Если Вы хотите, чтобы поиск производился не только по описанию товара и его названию, а еще и по значению его свойств, то у каждого такого свойства надо включить опцию «Значение участвует в поиске». Находится она в Рабочий стол — Контент — Информ. блоки — Типы информ. блоков — [нужный Вам инфоблок] — вкладка Свойства — кнопка с тремя точками напротив нужного свойства. Открывается окно редактирования свойства:

    Переиндексация сайта
    Если Вы включаете какой-то инфоблок или его свойство для поиска, Вам необходимо провести полную переиндексацию поиска: Настройки — Поиск — Переиндексация.

    Ещё раз обращаим внимание, что галочка «Переиндексировать только измененные» должна быть снята.

    Социальный поиск
    Если Вы уже используете на сайте замечательные возможности рейтингования материалов (Рейтинг, кнопка «Мне нравится»), то поиск можно настроить так, чтобы сначала выводились результаты с наивысшим значением рейтинга. Эта опция включается в настройках модуля «Поиск».

    Индексация социальной сети, форумов и блогов.
    Модули форумов, социальной сети и блогов имеют свои настройки для индексации. В каждом блоге или форуме необходимо проставить галочку «Индексировать модулем поиска», а после этого провести полную переиндексацию. Иначе обновления не появлятся в результатах.

    —————————
    Поиск по категориям
    Итак, модуль и компонент поиска настроены, индексация произведена, результаты выводятся, а найти нужный — трудно, так как результатов слишком много или в одном списке идут и товары, и новости.

    Хорошо, если на сайте мало контента. А если у Вас Интернет-Магазин с сотнями товаров, статьями, акциями, новостями и прочим, что делать?.. Можно ли выводить результаты поиска не одним списком, а с разбивкой по категориям. И, желательно, чтобы товары шли первыми?

    Да, теперь это возможно. Новый модуль «Удобный поиск» позволяет выводить результаты поиска с разбивкой по категориям. Об этом Вы можете прочитать в следующем посте.

    Просмотров: 38312

    Robots.txt для сайтов на Битрикс

    В интернете можно найти много вариантов файла robots.txt. для сайтов на 1С-Битрикс, но некоторые уже устарели, а другие имеют ошибки. Предлагаем актуальный в 2019 году правильный вариант robots.txt, который учитывает особенности Битрикс последних версий, а также особенности robots.txt для популярных решений Aspro Next, Deluxe, Nextype Magnit и решений корпоративных сайтов Aspro. При подготовке помимо рекомендаций поисковых сиcтем и анализа демо сайтов на решениях мы изучили индексацию реальных сайтов и попадание страниц в исключенные.

    Особенности предлагаемого robots для сайтов Битрикс

    • Учет сортировки
    • Фильтрация
    • Учет пагинации
    • Очистка от get параметров
    • Закрытие служебных страниц
    • Закрытие личного кабинета
    • Работа с папкой local
    • Открытие для индексации необходимых поисковикам файлов стилей
    • Закрытие доступа наиболее активным и бесполезным ботам и ограничение скорости обхода всем кроме Яндекс и Google для снижения нагрузки

    Robots.txt — это текстовый файл, который содержит указания — параметры индексирования сайта для роботов поисковых систем. Поисковики поддерживают стандарт исключений для роботов (Robots Exclusion Protocol) с расширенными возможностями.

    Назначение файла robots.txt

    Как подсказывает Яндекс файл robots.txt необходим для того, чтобы запретить индексирование разделов сайта или отдельных страниц. Например, закрыть от индексации:

    • страницы с конфиденциальными данными;
    • страницы с результатами поиска по сайту;
    • статистика посещаемости сайта;
    • дубликаты страниц;
    • разнообразные логи;
    • сервисные служебные страницы.

    Но. Не стоит забывать, что Google указывает на несколько иное назначение файла robots.txt, указывая основное назначение не запрет индексации, а снижение нагрузки на переобход сайта.

    «Файл robots.txt не предназначен для блокировки показа веб-страниц в результатах поиска Google. Если на других сайтах есть ссылки на вашу страницу, содержащие ее описание, то она все равно может быть проиндексирована, даже если роботу Googlebot запрещено ее посещать. Чтобы исключить страницу из результатов поиска, следует использовать другой метод, например защиту паролем или директиву noindex. Если файл robots.txt запрещает роботу Googlebot обрабатывать веб-страницу, она все равно может показываться в Google. Чтобы полностью исключить страницу из Google Поиска, следует использовать другие методы.»

    Пример robots.txt для Битрикс

    User-Agent: *
    Disallow: */index.php$
    Disallow: /bitrix/
    Disallow: /personal/
    Disallow: */cgi-bin/
    Disallow: /local/
    Disallow: /test/
    Disallow: /*show_include_exec_time=
    Disallow: /*show_page_exec_time=
    Disallow: /*show_sql_stat=
    Disallow: /*bitrix_include_areas=
    Disallow: /*clear_cache=
    Disallow: /*clear_cache_session=
    Disallow: /*ADD_TO_COMPARE_LIST
    Disallow: /*ORDER_BY
    Disallow: /*?print=
    Disallow: /*?list_style=
    Disallow: /*?sort=
    Disallow: /*?sort_by=
    Disallow: /*?set_filter=
    Disallow: /*?arrFilter=
    Disallow: /*?order=
    Disallow: /*&print=
    Disallow: /*print_course=
    Disallow: /*?action=
    Disallow: /*&action=
    Disallow: /*register=
    Disallow: /*forgot_password=
    Disallow: /*change_password=
    Disallow: /*login=
    Disallow: /*logout=
    Disallow: /*auth=
    Disallow: */auth/
    Disallow: /*backurl=
    Disallow: /*back_url=
    Disallow: /*BACKURL=
    Disallow: /*BACK_URL=
    Disallow: /*back_url_admin=
    Disallow: /*?utm_source=
    Disallow: */order/
    Disallow: /*download
    Disallow: /test.php
    Disallow: */filter/*/apply/
    Disallow: /*setreg=
    Disallow: /*logout
    Disallow: */filter/
    Disallow: /*back_url_admin
    Disallow: /*sphrase_id
    Disallow: */search/
    Disallow: /*type=
    Disallow: /*?product_id=
    Disallow: /*?display=
    Disallow: /*?view_mode=
    Disallow: /*min_price=
    Disallow: /*max_price=
    Disallow: /*&page=
    Disallow: /*?path=
    Disallow: /*?route=
    Disallow: /*?products_on_page=
    Disallow: /*back_url_admin=
    Disallow: /*?PAGEN_1=1$
    Disallow: /*?PAGEN_1=1/$
    Disallow: /*?new=Y
    Disallow: /*?edit=
    Disallow: /*?preview=
    Disallow: /*SHOWALL=
    Disallow: /*SHOW_ALL=
    Disallow: /*SHOWBY=
    Disallow: /*SPHRASE_ID=
    Disallow: /*TYPE=
    Disallow: /*?utm*=
    Disallow: /*&utm*=
    Disallow: /*?ei=
    Disallow: /*?p=
    Disallow: /*?q=
    Disallow: /*?VIEW=
    Disallow: /*?SORT_TO=
    Disallow: /*?SORT_FIELD=
    Disallow: /*set_filter=
    Disallow: */auth.php
    Disallow: /*?alfaction=
    Disallow: /*?oid=
    Disallow: /*?name=
    Disallow: /*?form_id=
    Disallow: /*&form_id=
    Disallow: /*?bxajaxid=
    Disallow: /*&bxajaxid=
    Disallow: /*?view_result=
    Disallow: /*&view_result=
    Disallow: */resize_cache/
    Allow: /bitrix/components/
    Allow: /bitrix/cache/
    Allow: /bitrix/js/
    Allow: /bitrix/templates/
    Disallow: /bitrix/panel/
    Allow: /local/components/
    Allow: /local/cache/
    Allow: /local/js/
    Allow: /local/templates/
    Crawl-delay: 30
    Sitemap: https://XXXXCC/sitemap.xml

    User-Agent: Yandex
    Disallow: */index.php$
    Disallow: /bitrix/
    Disallow: /personal/
    Disallow: */cgi-bin/
    Disallow: /local/
    Disallow: /test/
    Disallow: /*show_include_exec_time=
    Disallow: /*show_page_exec_time=
    Disallow: /*show_sql_stat=
    Disallow: /*bitrix_include_areas=
    Disallow: /*clear_cache=
    Disallow: /*clear_cache_session=
    Disallow: /*ADD_TO_COMPARE_LIST
    Disallow: /*ORDER_BY
    Disallow: /*?print=
    Disallow: /*?list_style=
    Disallow: /*?sort=
    Disallow: /*?sort_by=
    Disallow: /*?set_filter=
    Disallow: /*?arrFilter=
    Disallow: /*?order=
    Disallow: /*&print=
    Disallow: /*print_course=
    Disallow: /*?action=
    Disallow: /*&action=
    Disallow: /*register=
    Disallow: /*forgot_password=
    Disallow: /*change_password=
    Disallow: /*login=
    Disallow: /*logout=
    Disallow: /*auth=
    Disallow: */auth/
    Disallow: /*backurl=
    Disallow: /*back_url=
    Disallow: /*BACKURL=
    Disallow: /*BACK_URL=
    Disallow: /*back_url_admin=
    Disallow: /*?utm_source=
    Disallow: */order/
    Disallow: /*download
    Disallow: /test.php
    Disallow: */filter/*/apply/
    Disallow: /*setreg=
    Disallow: /*logout
    Disallow: */filter/
    Disallow: /*back_url_admin
    Disallow: /*sphrase_id
    Disallow: */search/
    Disallow: /*type=
    Disallow: /*?product_id=
    Disallow: /*?display=
    Disallow: /*?view_mode=
    Disallow: /*min_price=
    Disallow: /*max_price=
    Disallow: /*&page=
    Disallow: /*?path=
    Disallow: /*?route=
    Disallow: /*?products_on_page=
    Disallow: /*back_url_admin=
    Disallow: /*?PAGEN_1=1$
    Disallow: /*?PAGEN_1=1/$
    Disallow: /*?new=Y
    Disallow: /*?edit=
    Disallow: /*?preview=
    Disallow: /*SHOWALL=
    Disallow: /*SHOW_ALL=
    Disallow: /*SHOWBY=
    Disallow: /*SPHRASE_ID=
    Disallow: /*TYPE=
    Disallow: /*?utm*=
    Disallow: /*&utm*=
    Disallow: /*?ei=
    Disallow: /*?p=
    Disallow: /*?q=
    Disallow: /*?VIEW=
    Disallow: /*?SORT_TO=
    Disallow: /*?SORT_FIELD=
    Disallow: /*set_filter=
    Disallow: */auth.php
    Disallow: /*?alfaction=
    Disallow: /*?oid=
    Disallow: /*?name=
    Disallow: /*?form_id=
    Disallow: /*&form_id=
    Disallow: /*?bxajaxid=
    Disallow: /*&bxajaxid=
    Disallow: /*?view_result=
    Disallow: /*&view_result=
    Disallow: */resize_cache/
    Allow: /bitrix/components/
    Allow: /bitrix/cache/
    Allow: /bitrix/js/
    Allow: /bitrix/templates/
    Disallow: /bitrix/panel/
    Allow: /local/components/
    Allow: /local/cache/
    Allow: /local/js/
    Allow: /local/templates/
    Host: https://XXXXXC
    Clean-param: setreg&back_url_admin&logout&sphrase_id&action&utm_source&openstat&sort&sort_by&arrFilter&display&bxajaxid&view_mode&set_filter&alfaction&SORT_TO&SORT_FIELD&VIEW&bitrix_include_areas&clear_cache

    User-Agent: Googlebot
    Disallow: */index.php$
    Disallow: /bitrix/
    Disallow: /personal/
    Disallow: */cgi-bin/
    Disallow: /local/
    Disallow: /test/
    Disallow: /*show_include_exec_time=
    Disallow: /*show_page_exec_time=
    Disallow: /*show_sql_stat=
    Disallow: /*bitrix_include_areas=
    Disallow: /*clear_cache=
    Disallow: /*clear_cache_session=
    Disallow: /*ADD_TO_COMPARE_LIST
    Disallow: /*ORDER_BY
    Disallow: /*?print=
    Disallow: /*?list_style=
    Disallow: /*?sort=
    Disallow: /*?sort_by=
    Disallow: /*?set_filter=
    Disallow: /*?arrFilter=
    Disallow: /*?order=
    Disallow: /*&print=
    Disallow: /*print_course=
    Disallow: /*?action=
    Disallow: /*&action=
    Disallow: /*register=
    Disallow: /*forgot_password=
    Disallow: /*change_password=
    Disallow: /*login=
    Disallow: /*logout=
    Disallow: /*auth=
    Disallow: */auth/
    Disallow: /*backurl=
    Disallow: /*back_url=
    Disallow: /*BACKURL=
    Disallow: /*BACK_URL=
    Disallow: /*back_url_admin=
    Disallow: /*?utm_source=
    Disallow: */order/
    Disallow: /*download
    Disallow: /test.php
    Disallow: */filter/*/apply/
    Disallow: /*setreg=
    Disallow: /*logout
    Disallow: */filter/
    Disallow: /*back_url_admin
    Disallow: /*sphrase_id
    Disallow: */search/
    Disallow: /*type=
    Disallow: /*?product_id=
    Disallow: /*?display=
    Disallow: /*?view_mode=
    Disallow: /*min_price=
    Disallow: /*max_price=
    Disallow: /*&page=
    Disallow: /*?path=
    Disallow: /*?route=
    Disallow: /*?products_on_page=
    Disallow: /*back_url_admin=
    Disallow: /*?PAGEN_1=1$
    Disallow: /*?PAGEN_1=1/$
    Disallow: /*?new=Y
    Disallow: /*?edit=
    Disallow: /*?preview=
    Disallow: /*SHOWALL=
    Disallow: /*SHOW_ALL=
    Disallow: /*SHOWBY=
    Disallow: /*SPHRASE_ID=
    Disallow: /*TYPE=
    Disallow: /*?utm*=
    Disallow: /*&utm*=
    Disallow: /*?ei=
    Disallow: /*?p=
    Disallow: /*?q=
    Disallow: /*?VIEW=
    Disallow: /*?SORT_TO=
    Disallow: /*?SORT_FIELD=
    Disallow: /*set_filter=
    Disallow: */auth.php
    Disallow: /*?alfaction=
    Disallow: /*?oid=
    Disallow: /*?name=
    Disallow: /*?form_id=
    Disallow: /*&form_id=
    Disallow: /*?bxajaxid=
    Disallow: /*&bxajaxid=
    Disallow: /*?view_result=
    Disallow: /*&view_result=
    Disallow: */resize_cache/
    Allow: /bitrix/components/
    Allow: /bitrix/cache/
    Allow: /bitrix/js/
    Allow: /bitrix/templates/
    Disallow: /bitrix/panel/
    Allow: /local/components/
    Allow: /local/cache/
    Allow: /local/js/
    Allow: /local/templates/

    User-Agent: SemrushBot
    Disallow: /
    User-Agent: MJ12bot
    Disallow: /
    User-Agent: AhrefsBot
    Disallow: /
    User-agent: gigabot
    Disallow: /
    User-agent: Gigabot/2.0
    Disallow: /
    User-agent: msnbot
    Disallow: /
    User-agent: msnbot/1.0
    Disallow: /
    User-agent: ia_archiver
    Disallow: /
    User-agent: libwww-perl
    Disallow: /
    User-agent: NetStat.Ru Agent
    Disallow: /
    User-agent: WebAlta Crawler/1.3.25
    Disallow: /
    User-agent: Yahoo!-MMCrawler/3.x
    Disallow: /
    User-agent: MMCrawler/3.x
    Disallow: /
    User-agent: NG/2.0
    Disallow: /
    User-agent: slurp
    Disallow: /
    User-agent: aipbot
    Disallow: /
    User-agent: Alexibot
    Disallow: /
    User-agent: GameSpyHTTP/1.0
    Disallow: /
    User-agent: Aqua_Products
    Disallow: /
    User-agent: asterias
    Disallow: /
    User-agent: b2w/0.1
    Disallow: /
    User-agent: BackDoorBot/1.0
    Disallow: /
    User-agent: becomebot
    Disallow: /
    User-agent: BlowFish/1.0
    Disallow: /
    User-agent: Bookmark search tool
    Disallow: /
    User-agent: BotALot
    Disallow: /
    User-agent: BotRightHere
    Disallow: /
    User-agent: BuiltBotTough
    Disallow: /
    User-agent: Bullseye/1.0
    Disallow: /
    User-agent: BunnySlippers
    Disallow: /
    User-agent: CheeseBot
    Disallow: /
    User-agent: CherryPicker
    Disallow: /
    User-agent: CherryPickerElite/1.0
    Disallow: /
    User-agent: CherryPickerSE/1.0
    Disallow: /
    User-agent: Copernic
    Disallow: /
    User-agent: CopyRightCheck
    Disallow: /
    User-agent: cosmos
    Disallow: /
    User-agent: Crescent
    Disallow: /
    User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0
    Disallow: /
    User-agent: DittoSpyder
    Disallow: /
    User-agent: EmailCollector
    Disallow: /
    User-agent: EmailSiphon
    Disallow: /
    User-agent: EmailWolf
    Disallow: /
    User-agent: EroCrawler
    Disallow: /
    User-agent: ExtractorPro
    Disallow: /
    User-agent: FairAd Client
    Disallow: /
    User-agent: Fasterfox
    Disallow: /
    User-agent: Flaming AttackBot
    Disallow: /
    User-agent: Foobot
    Disallow: /
    User-agent: Gaisbot
    Disallow: /
    User-agent: GetRight/4.2
    Disallow: /
    User-agent: Harvest/1.5
    Disallow: /
    User-agent: hloader
    Disallow: /
    User-agent: httplib
    Disallow: /
    User-agent: HTTrack 3.0
    Disallow: /
    User-agent: humanlinks
    Disallow: /
    User-agent: IconSurf
    Disallow: /
    User-agent: InfoNaviRobot
    Disallow: /
    User-agent: Iron33/1.0.2
    Disallow: /
    User-agent: JennyBot
    Disallow: /
    User-agent: Kenjin Spider
    Disallow: /
    User-agent: Keyword Density/0.9
    Disallow: /
    User-agent: larbin
    Disallow: /
    User-agent: LexiBot
    Disallow: /
    User-agent: libWeb/clsHTTP
    Disallow: /
    User-agent: LinkextractorPro
    Disallow: /
    User-agent: LinkScan/8.1a Unix
    Disallow: /
    User-agent: LinkWalker
    Disallow: /
    User-agent: LNSpiderguy
    Disallow: /
    User-agent: lwp-trivial
    Disallow: /
    User-agent: lwp-trivial/1.34
    Disallow: /
    User-agent: Mata Hari
    Disallow: /
    User-agent: Microsoft URL Control
    Disallow: /
    User-agent: Microsoft URL Control - 5.01.4511
    Disallow: /
    User-agent: Microsoft URL Control - 6.00.8169
    Disallow: /
    User-agent: MIIxpc
    Disallow: /
    User-agent: MIIxpc/4.2
    Disallow: /
    User-agent: Mister PiX
    Disallow: /
    User-agent: moget
    Disallow: /
    User-agent: moget/2.1
    Disallow: /
    User-agent: MSIECrawler
    Disallow: /
    User-agent: NetAnts
    Disallow: /
    User-agent: NICErsPRO
    Disallow: /
    User-agent: Offline Explorer
    Disallow: /
    User-agent: Openbot
    Disallow: /
    User-agent: Openfind
    Disallow: /
    User-agent: Openfind data gatherer
    Disallow: /
    User-agent: Oracle Ultra Search
    Disallow: /
    User-agent: PerMan
    Disallow: /
    User-agent: ProPowerBot/2.14
    Disallow: /
    User-agent: ProWebWalker
    Disallow: /
    User-agent: psbot
    Disallow: /
    User-agent: Python-urllib
    Disallow: /
    User-agent: QueryN Metasearch
    Disallow: /
    User-agent: Radiation Retriever 1.1
    Disallow: /
    User-agent: RepoMonkey
    Disallow: /
    User-agent: RepoMonkey Bait & Tackle/v1.01
    Disallow: /
    User-agent: RMA
    Disallow: /
    User-agent: searchpreview
    Disallow: /
    User-agent: SiteSnagger
    Disallow: /
    User-agent: SpankBot
    Disallow: /
    User-agent: spanner
    Disallow: /
    User-agent: SurveyBot
    Disallow: /
    User-agent: suzuran
    Disallow: /
    User-agent: Szukacz/1.4
    Disallow: /
    User-agent: Teleport
    Disallow: /
    User-agent: TeleportPro
    Disallow: /
    User-agent: Telesoft
    Disallow: /
    User-agent: The Intraformant
    Disallow: /
    User-agent: TheNomad
    Disallow: /
    User-agent: TightTwatBot
    Disallow: /
    User-agent: toCrawl/UrlDispatcher
    Disallow: /
    User-agent: True_Robot
    Disallow: /
    User-agent: True_Robot/1.0
    Disallow: /
    User-agent: turingos
    Disallow: /
    User-agent: TurnitinBot
    Disallow: /
    User-agent: TurnitinBot/1.5
    Disallow: /
    User-agent: URL Control
    Disallow: /
    User-agent: URL_Spider_Pro
    Disallow: /
    User-agent: URLy Warning
    Disallow: /
    User-agent: VCI
    Disallow: /
    User-agent: VCI WebViewer VCI WebViewer Win32
    Disallow: /
    User-agent: Web Image Collector
    Disallow: /
    User-agent: WebAuto
    Disallow: /
    User-agent: WebBandit
    Disallow: /
    User-agent: WebBandit/3.50
    Disallow: /
    User-agent: WebCapture 2.0
    Disallow: /
    User-agent: WebCopier
    Disallow: /
    User-agent: WebCopier v.2.2
    Disallow: /
    User-agent: WebCopier v3.2a
    Disallow: /
    User-agent: WebEnhancer
    Disallow: /
    User-agent: WebSauger
    Disallow: /
    User-agent: Website Quester
    Disallow: /
    User-agent: Webster Pro
    Disallow: /
    User-agent: WebStripper
    Disallow: /
    User-agent: WebZip
    Disallow: /
    User-agent: WebZip
    Disallow: /
    User-agent: WebZip/4.0
    Disallow: /
    User-agent: WebZIP/4.21
    Disallow: /
    User-agent: WebZIP/5.0
    Disallow: /
    User-agent: Wget
    Disallow: /
    User-agent: wget
    Disallow: /
    User-agent: Wget/1.5.3
    Disallow: /
    User-agent: Wget/1.6
    Disallow: /
    User-agent: WWW-Collector-E
    Disallow: /
    User-agent: Xenu's
    Disallow: /
    User-agent: Xenu's Link Sleuth 1.1c
    Disallow: /
    User-agent: Zeus
    Disallow: /
    User-agent: Zeus 32297 Webster Pro V2.9 Win32
    Disallow: /
    User-agent: Zeus Link Scout
    Disallow: /
    User-agent: EmailSiphon
    Disallow: /
    User-agent: EmailCollector
    Disallow: /

    Настройка robots.txt

    Начиная с версии 14 модуля Поисковая оптимизация больше не требуется создавать вручную файл robots.txt для сайта. Теперь его создание можно выполнять с помощью специального генератора, который доступен на странице Управление robots.txt (Маркетинг > Поисковая оптимизация > Настройка robots.txt). Форма, представленная на данной странице, позволяет создать, управлять и следить за файлом robots.txt вашего сайта. В админпанели Битрикс robots.txt можно сформировать в автоматическом режиме или исправить вручную. Настройки в админпанели Битрикса доступны по адресу /bitrix/admin/seo_robots.php?lang=ru

    Если в системе несколько сайтов, то с помощью кнопки контекстной панели не забывайте переключаться к нужному сайту, для которого необходимо просмотреть/создать файл robots.txt.

    На закладке «Общие правила» создаются инструкции, которые действуют для всех поисковых систем (ботов). Генерация необходимых правил осуществляется с помощью кнопок:

    На закладках «Яндекс и Google» настраиваются правила для ботов Яндекса и Google соответственно. Специальные правила для конкретных ботов настраиваются аналогично общим правилам, для них не задается только базовый набор правил и путь к файлу карты сайта. Кроме того, с помощью ссылок, доступных внизу формы, вы можете ознакомиться с документацией Яндекса и Google по использованию файла robots.txt.

    Частые ошибки в robots.txt

    Закрытие страниц пагинации.

    • В предлагаемом варианте файла страницы открыты, исключен только дубль первой страницы, которая часто открывается как с параметром PAGEN так и без него. Все остальные страницы пагинации не имеют запрета на индексацию.

    Леонтьева Ольга, специалист по маркетингу APRIORUM GROUP
    Страницы пагинации стоит оставлять открытыми для индексирования, но закрывать их дубли. Дубли части создаются при использовании на сайте выбора «Показывать по» или сортировок. Также необходимо правильно организовать закрытие дублей при наличии выборки постранично и «показать все» одновременно. Дополнительно желательно убрать дублирование описания категории на страницах пагинации кроме первой, а также добавить уникализирующее дополнение с номером страниц в мета-теги (это может быть например «Стр. 2 из 100» или «25 запчастей из 1000» или «Страница 2 каталога»).

    Пропуски строк

    • Недопустимо наличие пустых переводов строки между директивами User-agent, Disallow и Allow.

    Неправильный регистр имени файла

    • Название файла пишется без использования верхнего регистра.

    Неправильный регистр путей в файле

    • Робот учитывает регистр в написании подстрок (имя или путь до файла, имя робота) и не учитывает регистр в названиях директив.

    Закрытие от индексации самого файла robots

    • В этом случае поисковые роботы не учитывают директивы файла.

    Использование кириллицы

    • Использование кириллицы запрещено в файле robots.txt и HTTP-заголовках сервера.

    Для указания имен доменов используйте Punycode.

    Неверный протокол

    • Протокол, указываемый для sitemap, необходимо обновлять после перевода сайта с http на https.

    Дополнительные особенности

    Crawl-Delay

    • Вместо Crawl-Delay Яндекс рекомендует вместо директивы использовать настройку скорости обхода в Яндекс.Вебмастере.

    Директивы для Google с 2019 года

    • С 1 сентября 2019г. Google прекратил следовать директивам, которые не поддерживаются и не опубликованы в robots exclusion protocol. Изменения были анонсированы в блоге компании.

    Динамический роботс для мультирегиональности или мультисайтовости

    • Инструкции по настройке robots для сайтов с мультисайтовостью на поддоменах (в том числе многогородовости) можно найти в уроках 1С-Битрикс и, например, инструкциях к решениям Aspro.

    Проверка robots.txt

    • После размещения файла желательно выполнить проверку robots.txt (например, проверить robots.txt онлайн можно инструментом Яндекс Вебмастер).

    Частый вопрос про директиву Disallow

    Часто задают вопрос равнозначны ли директивы:

    Disallow: /auth/
    Disallow: */auth/
    Disallow: /auth
    Disallow: /auth/*

    Директивы не совсем равнозначны. Например, Disallow: /auth/ запрещает именно раздел http://site.ru/auth/ (начиная от первого уровня чпу), при этом страницы вида https://site.ru/info/auth/help/page останутся доступны при использовании такой директивы. Disallow: /auth/* — альтернативная запись директивы. Директива Disallow: /auth запретит все ссылки, которые начинаются с адреса http://site.ru/auth, например, страница http://site.ru/authentication тоже попадет под запрет. Директива Disallow: */auth/ корректно запретит страницу к индексированию на любом уровне.

    Запрет поисковой индексации через файл robots.txt

    Приветствую, Друзья!

    Сегодня я начинаю серию уроков по новинкам в только что вышедшей 14 версии 1С-Битрикс: Управление сайтом. И в первых уроках мы поговорим о множестве новинок в части SEO оптимизации сайта.

    Из этого видеоурока Вы узнаете, как можно сделать файл robots.txt в полуавтоматическом режиме на 1С-Битрикс 14.

    Я уже показывал, как в ручном режиме писать файл robots.txt, который отвечает за настройки индексации разных разделов и страниц сайта, показывает поисковым роботам, где лежит карта сайта и какой адрес является основным зеркалом.

    Все это можно делать и сейчас «по старинке», а можно воспользоваться конструктором файла robots.txt от разработчиков Битрикса, который немного облегчает нам жизнь, тем более, что конструктор сам может создать стартовый набор правил, который подходит для всех сайтов на Битриксе и который сразу запретит индексацию кучи служебных ссылок.

    Если Вы уже обломали зубы на файле robots.txt, что-то не получилось, то сейчас самое время посмотреть новый урок и не напрягаясь создать этот файл:

    В следующих уроках я покажу как сейчас можно удобно и гибко создавать автоматически обновляемую карту сайта (а не зависимую от индексации сайта в поиске, как раньше), как легко зарегистрировать сайт в инструментах для веб-мастеров Google и Яндекс, как не терять авторство над своими текстами на сайте и какой классный сделал механизм Битрикс для автоматической генерации мета-данных страниц и разделов.

    Ждите следующие посты на блоге!

    На этом сегодня все! Не забываем жать на социальные кнопки слева и задавать свои вопросы чуть ниже в комментариях!

    Запрет индексации системных разделов для сайта на 1С-Битрикс

    С ребятами работаем уже 2 года. Отличная команда, отличный подбор программистов.
    Практически в любое время суток есть связь с руководителями. Критичные вопросы можно решить даже в 2 часа ночи (для нас как интернет-проекта это очень важно).

    Время, когда начинали сотрудничество с Атлантом сейчас вспоминается с легкой ухмылкой. А тогда - все было очень плохо.
    Решили кардинально изменить сайт — старый «снести» и перейти на 1С-Битрикс.

    Разработку сайта поручили фрилансеру. Он все сделал, сверстал сайт. Но прямо перед запуском у него случились какие-то трудности, 2 недели мы без связи. О нем ничего плохого сказать не могу, но — факт на лицо. Мы остались с недоработанной копией сайта (более 30 критичных доработок).

    Как быть в такой ситуации — понятия не имели. Стали искать среди Золотых партнеров Битрикса, которые могли бы нам помочь в сложившейся ситуации.
    Написали порядка сотни запросов.
    Ответ от Атланта выделялся среди всех! Стоимость за работы оказалась одной из самых низких. Уверенность придавала пошаговая инструкция, что ребята собираются сделать с сайтом.

    В итоге, запустили сайт, работаем с ними и ни разу не пожалели!
    В первые 6 месяцев после начала сотрудничества — у нас рост продаж в 2 раза. Ставим любые, даже самые сложные задачи. Все выполняется.
    Удобно, что все в одном месте: работы по сайту, 1С, хостинг, seo, дизайн и т.д.
    Рекомендуем!

    Андрей Рудый ( Директор — LEDPremium )

    Правильный файл robots.txt для сайта на 1С-Битрикс в 2021

    Файл robots.txt — это текстовый файл, в котором содержаться инструкции для поисковых роботов, в частности каким роботам и какие страницы допускается сканировать, а какие нет.

    Пример правильного файла robots.txt для сайта на 1С-Битрикс

    • User-agent: *
    • Disallow: /auth*
    • Disallow: /basket*
    • Disallow: /order*
    • Disallow: /personal/
    • Disallow: /search/
    • Disallow: /test/
    • Disallow: /ajax/
    • Disallow: *index.php*
    • Disallow: /*show_include_exec_time=
    • Disallow: /*show_page_exec_time=
    • Disallow: /*show_sql_stat=
    • Disallow: *bitrix*
    • Disallow: /*clear_cache=
    • Disallow: /*clear_cache_session=
    • Disallow: /*ADD_TO_COMPARE_LIST
    • Disallow: /*ORDER_BY
    • Disallow: /*print*
    • Disallow: /*action*
    • Disallow: /*register=
    • Disallow: /*password*
    • Disallow: /*login=
    • Disallow: /*type=
    • Disallow: /*sort=
    • Disallow: /*order=
    • Disallow: /*logout=
    • Disallow: /*auth=
    • Disallow: /*backurl=
    • Disallow: /*back_url=
    • Disallow: /*BACKURL=
    • Disallow: /*BACK_URL=
    • Disallow: /*back_url_admin=
    • Disallow: /*?utm_source=
    • Disallow: *?arrFilter*
    • Host: https://seopulses.ru
    • Sitemap: https://seopulses.ru/sitemap_index.xml

    Где можно найти файл robots.txt и как его создать или редактировать

    Чтобы проверить файл robots.txt сайта, следует добавить к домену «/robots.txt», примеры:

    https://seopulses.ru/robots.txt

    https://serpstat.com/robots.txt

    https://netpeak.net/robots.txt

    Как создать и редактировать robots.txt

    Вручную

    Данный файл всегда можно найти, подключившись к FTP сайта или в файлом редакторе хостинг-провайдера в корневой папке сайта (как правило, public_html):

    Далее открываем сам файл и можно его редактировать.

    Если его нет, то достаточно создать новый файл.

    После вводим название документа и сохраняем.

    Через модули/дополнения/плагины

    Чтобы управлять данный файлом прямо в административной панели сайта следует установить дополнительный модуль:

    • Для 1С-Битрикс;

    https://dev.1c-bitrix.ru/learning/course/?COURSE_ID=139&LESSON_ID=5814

    Virtual Robots.txt

    https://opencartforum.com/files/file/5141-edit-robotstxt/

    https://support.webasyst.ru/shop-script/149/shop-script-robots-txt/

    Инструкция по работе с robots.txt

    В первую очередь записывается User-Agent, указывая на то, к какому роботу идет обращение, например:

    • User-agent: Yandex — для обращения к поисковому роботу Яндекса;
    • User-agent: Googlebot — в случае с краулером Google;
    • User-agent: YandexImages — при работе с ботом Яндекс.Картинок.

    Полный список роботов Яндекс:

    https://yandex.ru/support/webmaster/robot-workings/check-yandex-robots.html#check-yandex-robots

    И Google:

    https://support.google.com/webmasters/answer/1061943?hl=ru

    Синтаксис в robots.txt

    • # — отвечает за комментирование;
    • * — указывает на любую последовательность символов после этого знака. По умолчанию указывается при любого правила в файле;
    • $ — отменяет действие *, указывая на то что на этом элементе необходимо остановиться.

    Директивы в Robots.txt

    Disallow

    Disallow запрещает индексацию отдельной страницы или группы (в том числе всего сайта). Чаще всего используется для того, чтобы скрыть технические страницы, динамические или временные страницы.

    Пример #1

    # Полностью закрывает весь сайт от индексации

    User-agent: *

    Disallow: /

    Пример #2

    # Блокирует для скачивания все страницы раздела /category1/, например, /category1/page1/ или caterogy1/page2/

    Disallow: /category1/

    Пример #3

    # Блокирует для скачивания страницу раздела /category2/

    User-agent: *

    Disallow: /category1/$

    Пример #4

    # Дает возможность сканировать весь сайт просто оставив поле пустым

    User-agent: *

    Disallow:

    Важно! Следует понимать, что регистр при использовании правил имеет значение, например, Disallow: /Category1/ не запрещает посещение страницы /category1/.

    Allow

    Директива Allow указывает на то, что роботу можно сканировать содержимое страницы/раздела, как правило, используется, когда в полностью закрытом разделе, нужно дать доступ к определенному документу.

    Пример #1

    # Дает возможность роботу скачать файл site.ru//feed/turbo/ несмотря на то, что скрыт раздел site.ru/feed/.

    Disallow: */feed/*

    Allow: /feed/turbo/

    Пример #2

    # разрешает скачивание файла doc.xml

    # разрешает скачивание файла doc.xml

    Allow: /doc.xml

    Sitemap

    Директива Sitemap указывает на карту сайта, которая используется в SEO для вывода списка URL, которые нужно проиндексировать в первую очередь.

    Важно понимать, что в отличие от стандартных директив у нее есть особенности в записи:

    • Следует указывать полный URL, когда относительный адрес использовать запрещено;
    • На нее не распространяются остальные правила в файле robots.txt;
    • XML-карта сайта должна иметь в URL-адресе домен сайта.
    Пример

    # Указывает карту сайта

    Sitemap: https://serpstat.com/sitemap.xml

    Clean-param

    Используется когда нужно указать Яндексу (в Google она не работает), что страница с GET-параметрами (например, site.ru?param1=2&param2=3) и метками (в том числе utm) не влияющие на содержимое сайта, не должна быть проиндексирована.

    Пример #1

    #для адресов вида:

    www.example1.com/forum/showthread.php?s=681498b9648949605&t=8243

    www.example1.com/forum/showthread.php?s=1e71c4427317a117a&t=8243

    #robots.txt будет содержать:

    User-agent: Yandex

    Disallow:

    Clean-param: s /forum/showthread.php

    Пример #2

    #для адресов вида:

    www.example2.com/index.php?page=1&sid=2564126ebdec301c607e5df

    www.example2.com/index.php?page=1&sid=974017dcd170d6c4a5d76ae

    #robots.txt будет содержать:

    User-agent: Yandex

    Disallow:

    Clean-param: sid /index.php

    Подробнее о данной директиве можно прочитать здесь:

    https://serpstat.com/ru/blog/obrabotka-get-parametrov-v-robotstxt-s-pomoshhju-direktivy-clean-param/

    Crawl-delay

    Важно! Данная директива не поддерживается в Яндексе с 22 февраля 2019 года и в Google 1 сентября 2019 года, но работает с другими роботами. Настройки скорости скачивания можно найти в Яндекс.Вебмастер и Google Search Console.

    Crawl-delay указывает временной интервал в секундах, в течение которого роботу разрешается делать только 1 сканирование. Как правило, необходима лишь в случаях, когда у сайта наблюдается большая нагрузка из-за сканирования.

    Пример

    # Допускает скачивание страницы лишь раз в 3 секунды

    Crawl-delay: 3

    Как проверить работу файла robots.txt

    В Яндекс.Вебмастер

    В Яндекс.Вебмастер в разделе «Инструменты→ Анализ robots.txt» можно увидеть используемый поисковиком свод правил и наличие ошибок в нем.

    Также можно скачать другие версии файла или просто ознакомиться с ними.

    Чуть ниже имеется инструмент, который дает возможно проверить сразу до 100 URL на возможность сканирования.

    В нашем случае мы проверяем эти правила.

    Как видим из примера все работает нормально.

    Также если воспользоваться сервисом «Проверка ответа сервера» от Яндекса также будет указано, запрещен ли для сканирования документ при попытке обратиться к нему.

    В Google Search Console

    В случае с Google можно воспользоваться инструментом проверки Robots.txt, где потребуется в первую очередь выбрать нужный сайт.

    Важно! Ресурсы-домены в этом случае выбирать нельзя.

    Теперь мы видим:

    • Сам файл;
    • Кнопку, открывающую его;
    • Симулятор для проверки сканирования.

    Если в симуляторе ввести заблокированный URL, то можно увидеть правило, запрещающее сделать это и уведомление «Недоступен».

    Однако, если ввести заблокированный URL в страницу поиска в новой Google Search Console (или запросить ее индексирование), то можно увидеть, что страница заблокирована в файле robots.txt.

    Добавьте свой сайт в Google

    Когда вы создали свой веб-сайт, самое время рассказать о нем вашим клиентам. Как правило, люди находят информацию через поисковые системы, такие как Google.

    Используйте Google Search Console для индексации вашего сайта.

    Преимущества Google Search Console

    Следите за эффективностью своего сайта в результатах поиска Google:

    • Убедитесь, что у Google есть доступ к вашему контенту;
    • Отправьте новое содержимое для сканирования и удалите содержимое, которое не должно отображаться в результатах поиска;
    • Создавать и отслеживать контент, обеспечивающий визуально привлекательные результаты поиска;
    • Поддерживайте свой сайт с минимальным перерывом в работе поиска;
    • Отслеживайте и устраняйте проблемы, связанные с вредоносным ПО или спамом, чтобы ваш сайт оставался чистым.

    Как использовать Google Search Console

    У вас должна быть учетная запись Google, чтобы использовать Google Search Console.

    Перейдите в консоль поиска Google и нажмите Начать сейчас .

    Выберите вариант префикса URL-адреса > введите URL-адрес вашего веб-сайта (например,

     https://b24-4tzc7y.bitrix24.site 
    )> щелкните Продолжить .

    Теперь вам нужно подтвердить, что вы являетесь владельцем этого сайта.Это можно сделать четырьмя способами:

    • HTML-тег — добавьте метатег на главную страницу вашего сайта.
    • Провайдер доменного имени — войдите в систему своего провайдера доменного имени.
    • Google Analytics — используйте свою учетную запись Google Analytics.
    • Google Tag Manager — используйте свою учетную запись Google Tag Manager.

    В этом примере мы будем использовать первый метод — добавить метатег на главную страницу нашего сайта.Выберите вариант HTML-тега > скопируйте метатег.

    Зайдите в свой Битрикс24> Сайты > нажмите Действия > Настроить сайт .

    Включите параметр Google Search Console в разделе Проверка прав собственности > вставьте метатег в поле> щелкните Сохранить .

    Затем щелкните Действия > Просмотреть страницы> выберите домашнюю страницу> щелкните Действия > Изменить настройки> включите параметр Получить страницу, проиндексированную поисковыми системами в разделе Добавить в индекс поисковой системы .Нажмите Сохранить .

    Затем Опубликуйте на своем веб-сайте.

    Проверьте, появился ли метатег в коде страницы. Откройте свой веб-сайт> щелкните правой кнопкой мыши> Просмотреть исходный код страницы . Используйте функцию поиска, чтобы найти метатег.

    Перейдите на платформу поиска Google и нажмите Проверить .

    Выполнено! Ваше право собственности подтверждено, и ваш сайт проиндексирован Google.

    Инструменты Google Search Console теперь доступны для вашего веб-сайта.

    Используйте файл robots.txt, чтобы определить, какие страницы вашего сайта должны индексироваться поисковыми системами, а какие нет.

    Рекомендованных статей:

    Добавить получателей электронной почты в сообщения ленты


    Создание сообщения ленты новостей и добавление адресов электронной почты получателей

    Теперь вы можете добавлять внешних пользователей в обсуждения ленты новостей так же просто, как вводить их адреса электронной почты в поле «Кому» получателей сообщения.Эта функция абсолютно бесплатна и доступна во всех тарифах Битрикс24:

    Рекомендуется добавить имя и фамилию человека, чтобы все ваши коллеги знали, кто участвует в обсуждении:

    В то время как все пользователи Битрикс24, участвующие в обсуждении, будут получать регулярные уведомления, внешние пользователи, приглашенные по электронной почте, получат электронное сообщение. Содержание сообщения будет отображаться в тексте сообщения электронной почты.


    Внешние получатели фактически увидят все содержимое сообщения Feed — автора сообщения, текст.получатели, ссылки, вложения. Когда пользователи электронной почты нажимают «Добавить комментарий», они попадают на специальную защищенную веб-страницу, которая похожа на публикацию в ленте активности Битрикс24, а не на вашу учетную запись Битрикс24 — это сделано в целях безопасности. Здесь ваши клиенты, партнеры и другие внешние пользователи могут добавлять свои комментарии в ваше обсуждение, отправлять ссылки, обмениваться файлами и т. Д. Вы увидите это внутри ВАШЕЙ учетной записи Битрикс24.

    Внешний комментарий попадает в вашу ленту Битрикс24 как обычный комментарий:

    Внешний получатель будет уведомлен обо всех новых комментариях к этому сообщению по электронной почте.Если тема требует дальнейшего обсуждения, внешний пользователь может оставаться на веб-странице и общаться в режиме реального времени с вами и вашими коллегами.

    Ссылка на публикацию в ленте общего доступа надежно защищена и не индексируется роботами поисковых систем.

    Добавить новых получателей в обсуждение сообщения

    Другой сценарий — это когда вы уже находитесь в середине обсуждения в своей ленте Битрикс24 и вам нужно пригласить нового внешнего пользователя для публикации.


    Теперь вы можете добавлять в пост новых внешних пользователей на любом уровне обсуждения.

    Пользователь получит электронное письмо с вашим комментарием и сможет получить доступ к полной истории сообщений на новой веб-странице.

    Битрикс24 Что нового. Как добавить получателей электронной почты

    Вышло обновление Битрикс24, часть II: добавлена ​​возможность добавлять получателей писем в сообщения Activity Stream.

    Просто и удобно:

    • Вовлечь клиентов и деловых партнеров в обсуждение несложно.
    • Внешние пользователи в вашем аккаунте Битрикс24
    • Реакция в реальном времени
    • У всех есть электронная почта
    • Bitrix24 — инструменты для совместной работы мощнее электронной почты.
    • История взаимодействий хранится в вашем аккаунте Битрикс24.
    • 100% бесплатно

    Создать запись в ленте активности и добавить адреса электронной почты получателей


    Теперь вы можете добавлять внешних пользователей в обсуждения в ленте активности, просто вводя их адреса электронной почты в поле «Кому» получателей сообщений. В отличие от опции «Экстранет», эта функция абсолютно бесплатна и доступна во всех тарифах Битрикс24:

    Желательно добавить имя и фамилию человека, чтобы все ваши коллеги знали, кто участвует в обсуждении:

    В то время как все пользователи Битрикс24, участвующие в обсуждении, будут получать регулярные уведомления, внешние пользователи, приглашенные по электронной почте, получат электронное сообщение.Содержание сообщения будет отображаться в тексте сообщения электронной почты.

    Внешние получатели фактически увидят все содержимое сообщения Ленты активности — автор сообщения, текст. получатели, ссылки, вложения. Когда пользователи электронной почты нажимают «Добавить комментарий», они попадают на специальную защищенную веб-страницу, которая похожа на публикацию в ленте активности Битрикс24, а не на вашу учетную запись Битрикс24 — это сделано в целях безопасности. Здесь ваши клиенты, партнеры и другие внешние пользователи могут добавлять свои комментарии в ваше обсуждение, отправлять ссылки, обмениваться файлами и т. Д.Вы увидите их внутри ВАШЕЙ учетной записи Битрикс24.

    Внешний комментарий попадает в вашу Ленту активности Битрикс24 как обычный комментарий:

    Внешний получатель будет уведомлен обо всех новых комментариях к этому сообщению по электронной почте. Если тема требует дальнейшего обсуждения, внешний пользователь может оставаться на веб-странице и общаться в режиме реального времени с вами и вашими коллегами.

    Ссылка на публикацию в общей ленте активности надежно защищена и не индексируется роботами поисковых систем.Срок действия этой веб-страницы автоматически истекает через 7 дней или раньше, в зависимости от того, какой вариант выбрал администратор вашей учетной записи Битрикс24.

    Добавить новых получателей в обсуждение записи


    Другой сценарий — когда вы уже находитесь в середине обсуждения в своей ленте активности Битрикс24 и вам нужно пригласить нового внешнего пользователя для публикации.

    Теперь вы можете добавлять новых внешних пользователей к посту на любом уровне обсуждения.

    Пользователь получит электронное письмо с вашим комментарием и сможет получить доступ к полной истории сообщений на новой веб-странице.

    Интеграция Битрикс24 и Google Analytics

    Интеграция Битрикс24 и Google Analytics

    Смотрите свои самые прибыльные маркетинговые каналы в Битрикс24

    Благодаря GA Connector Битрикс24 и Google Analytics работают вместе, чтобы ответить на один из
    важнейших маркетинговых вопросов: откуда на самом деле исходит мой доход?

    Подключить Битрикс24 + Google Analytics

    Интегрируйте Google Analytics с Битрикс24, чтобы:

    Выйдите за рамки таких показателей, как трафик, количество потенциальных клиентов и конверсии.

    Знайте, какие источники, кампании и ключевые слова увеличивают продажи.

    Легко измеряйте рентабельность инвестиций в маркетинг и удваивайте успешные кампании

    Как это работает

    01.

    Посетитель вашего сайта заходит на ваш сайт и заполняет одну из ваших веб-форм.

    02.

    Этот код интеграции на вашем веб-сайте определяет источник, канал и другую информацию Google Analytics об этом посетителе.

    03.

    Когда форма отправки появляется в вашем Битрикс24, с ней уже связана информация Google Analytics.

    Пример данных Google Analytics в Битрикс24:

    Узнайте, как лидеры находят вас, и
    , что они видят перед покупкой

    Отслеживание кампании, ключевого слова
    и прибыльности канала

    Посмотрите, какие страницы вашего сайта закрывают продажи

    Идентификатор клиента Google Analytics

    /показатель.html
    /contact-us.html
    /buy.html

    Определите местоположение и устройство ваших лучших потенциальных клиентов

    Страна (с IP-адреса)

    Вы можете использовать данные Google Analytics


    в CRM Битрикс24 для создания отчетов, которые отвечают на такие вопросы, как:

    Какие маркетинговые кампании, ключевые слова, объявления и т. Д. Приводят к наиболее квалифицированным лидам в Битрикс24 CRM? Какие источники трафика привлекают больше всего закрытых возможностей?

    Отчет с данными интеграции Битрикс24 + Google Analytics

    Отчет с данными интеграции Битрикс24 + Google Analytics

    О Битрикс24 и Google Рекламе

    О Битрикс24

    Первоначально Битрикс24 был выпущен в апреле 2012 года, но с тех пор претерпел ряд важных обновлений.Битрикс24 — это полностью бесплатная социальная корпоративная платформа для малого бизнеса, которая помогает улучшить взаимодействие с клиентами по ряду каналов.

    О Google Analytics

    Google Analytics — это ведущее программное обеспечение для веб-аналитики, которое позволяет анализировать поведение пользователей на вашем веб-сайте. Это программное обеспечение для веб-аналитики, являющееся отраслевым стандартом, с множеством расширенных функций и интеграций.

    Может ли GA Connector отслеживать Adwords / SEO / Facebook / Organic / Bing / и т. Д.?

    да. GA Connector совместим практически со всеми рекламными сервисами.

    Насколько безопасно / законно отслеживать, откуда приходят мои лиды?

    Абсолютно. GA Connector так же безопасен и законен, как использование Google Analytics или любого другого программного обеспечения для отслеживания.

    Насколько надежны данные, которые я буду получать?

    Все лиды, проходящие через ваш веб-сайт, отслеживаются с использованием параметров UTM, реферальной информации, IP-данных и алгоритмов, проверенных Google, для определения источника для каждого пользователя.Все связано с вашей CRM в режиме реального времени, поэтому потери данных не происходит.

    Оказываете ли вы поддержку?

    Конечно! Наша служба поддержки всегда готова помочь вам интегрировать GA Connector с вашим сайтом и CRM.

    Спросите больше здесь

    © 2021 ООО «Зуев Софтвер». Все права защищены.

    @ 2bad / bitrix NPM | npm.io


    описание: это не отстой

    Bitrix24 REST API client

    • 🔥 Никакой чуши
    • ✨ Выразительный API
    • 💪 Строго типизированные методы и запросы результатов с TypeScript
    • 🚀 Обрабатывает записи пакетирование и ограничение скорости для вас
    • ❤️ На основе обещаний

    Установить

      npm install @ 2bad / bitrix  

    Использование

    Инициализировать клиент с конечной точкой Bitrix API и токеном доступа и использовать клиент для облегчения работы с Битрикс pain:

      импорт Битрикс из '@ 2bad / bitrix'
    
    const bitrix = Bitrix ('https: // PORTAL_NAME.bitrix24.ru/rest ',' ACCESS_TOKEN ')
    
    // Получить сделку
    bitrix.deals.get ('77 ')
      .then (({результат}) => {
        // Получаем типизированную полезную нагрузку
        const {TITLE} = результат // строка
        console.log (НАЗВАНИЕ)
      })
      .catch (console.error)
    
    // Получить все сделки
    bitrix.deals.list ({выберите: ["*", "UF_ *"]})
      .then (({результат}) => {
        const title = result.map ((e) => e.TITLE)
        console.log (заголовки)
      })
      .catch (console.error)  

    Аутентификация

    Прежде чем вы сможете использовать Bitrix REST API, вам необходимо пройти аутентификацию.

    Это можно сделать двумя способами:

    1. Более сложный, но правильный способ — создать приложение Битрикс и затем пройти аутентификацию с помощью OAuth.

      Аутентификация с помощью OAuth требует некоторых дополнительных шагов, и вам решать, как с ними справиться с помощью лямбда-функции, некоторого сервера или почтальона.

      Это даст токен доступа. Используйте его для инициализации клиента:

        const bitrix = Bitrix ('https://PORTAL_NAME.bitrix24.ru/rest', 'ACCESS_TOKEN')  

      Обратите внимание, что токен доступа живет всего 30 минут и должен периодически обновляться с предоставленным токеном обновления OAuth, который, в свою очередь, живет 1 месяц.

    2. Более простой способ — создать входящий веб-перехватчик Битрикс с необходимыми разрешениями.

      Он немедленно предоставит вам конечную точку с токеном внутри нее. Никакой дополнительной аутентификации или токенов доступа для его использования не требуется:

        const bitrix = Bitrix ('https://PORTAL_NAME.bitrix24.ru/rest/1/WEBHOOK_TOKEN')  

      Эта конечная точка существует бесконечно. Радуйтесь и надейтесь, что против вас это не обернется.

    API

    Как это работает

    Клиент изо всех сил старается обеспечить единообразный, строго типизированный и в то же время легкий опыт.

    Он заботится обо всех необходимых пакетах для выполнения «больших» команд, таких как получение всех сделок или потенциальных клиентов с минимально возможным сетевым запросом. Это позволяет добиться чтения 250 000 и обновления 5000 записей в минуту с помощью одной строки кода.

    Все клиентские методы автоматически ограничиваются по скорости и ставятся в очередь, если это необходимо, чтобы справиться с ограничением Bitrix REST API в 2 запроса в секунду, поэтому вы никогда не должны увидеть ошибку Битрикс о превышении ограничений по скорости.

    Необходимые параметры методов и возвращаемые типы полезной нагрузки автоматически разрешаются на основе интерфейса методов, который эффективно описывает все поддерживаемые в настоящее время методы.

    Чтобы облегчить лучшую архитектуру, клиент разделен на уровни:

    1. Методы — в основном общие методы, такие как , вызывают для работы с методами Bitrix API. Они заботятся о рутине и создают основу для более сложных операций.
    2. Клиент — общий клиент, который выполняет некоторые дополнительные рутинные задачи, такие как установка токена доступа для каждого запроса, установка очереди для ограничения скорости и предоставление общих методов.
    3. Сервисы — каждый сервис предоставляет выразительный интерфейс для работы с определенной группой операций Bitrix REST API. По сути, они организуют общие клиентские методы и параметры для получения правильных результатов.
    4. Клиент «Битрикс» — провайдер универсальных сервисов и сервисов высшего уровня. Простой способ справиться с Bitrix REST API с помощью интуитивно понятного API, который берет на себя всю лежащую в основе сложность.

    FAQ

    Готово?

    Ядро готово, стабильно.С его помощью можно произвольно вызывать любые методы Bitrix REST API.

    Однако пока не все методы Bitrix REST API представлены в виде удобных клиентских сервисов (например, bitrix.deals.list () ).

    Если вам нужна конкретная услуга, добавьте ее, сделав запрос на вытягивание, следуя структуре уже существующих услуг и инструкциям «Добавление новых методов».

    Я не использую Typed Language Master Race. Могу ли я использовать его с обычным JavaScript?

    Конечно.Просто установите и импортируйте его, как любой другой модуль NPM. Но Type Police уже в пути.

    Обратите внимание, что эта библиотека не была разработана с учетом обычного JavaScript, поэтому она не выполняет ненужных динамических проверок. Не передавайте неверные параметры слишком настойчиво — это может привести к неожиданным результатам. В конце концов, TypeScript — это рекомендуемый способ его использования.

    Следует ли мне проверять свойства полезной нагрузки error на наличие ошибок?

    Не надо.Вместо этого перехватывайте отклонения, так как библиотека отклонит, если есть какие-либо ошибки в полезной нагрузке.

    Метод списка не возвращает пользовательские поля!

    Битрикс API по умолчанию этого не делает. Используйте подстановочные знаки в выберите параметр , чтобы принудительно включить пользовательские поля:

      bitrix.deals.list ({select: ['*', 'UF_ *']})  

    Пользовательские поля не набраны правильно

    Клиент не может знать о нестандартных свойствах полезных данных. Из-за этого предполагается, что любая полезная нагрузка может иметь любые дополнительные поля типа [ключ: строка]: строка :

      битрикс.lead.get ({ID: '77'})
      .then (({результат}) => {
        // известное свойство типа `строка`
        const title = result.TITLE
    
        // неизвестное свойство типа `строка`
        const someData = результат.UF_23232323
    
        console.log (заголовок, некоторые данные)
      })  

    Мне нужно вызвать метод Bitrix, который еще не поддерживается

    Используйте соответствующие низкоуровневые клиентские методы с приведением, например:

      bitrix.call ('some.new.get' как любое, {ID: '77'} как любое)
      .then ((payload) => payload как GetPayload )
    
    битрикс.list ('some.new.list' как любое, {select: ["TITLE"]})
      .then ((payload) => payload as ListPayload )  

    Мне нужно вызвать определенный набор команд. Как это сделать эффективно?

    Используйте метод партии . Он будет обрабатывать всю рутину:

      bitrix.batch ({
      ведущий: {method: Method.GET_LEAD, params: {ID: '77'}},
      сделок: {method: Method.LIST_DEALS, params: {}}
    })  

    Разработка

    • npm test — запустить все тесты и собрать отчет о полном покрытии
    • npm run test: unit — запустить модульные тесты и собрать отчет о покрытии
    • npm run test: интеграция — запустить интеграционные тесты и сбор отчета о покрытии
    • npm run test: watch — следите за изменениями и запускайте все тесты
    • npm run test: unit: watch — следите за изменениями и запускайте модульные тесты
    • npm run test: интеграция : watch — следите за изменениями и запускайте интеграционные тесты
    • npm run build — создайте библиотеку для выпуска
    Добавление новых методов

    Правильная обработка параметров метода и типов полезной нагрузки требует некоторой рутинной процедуры при добавлении любого нового метода.Надеюсь, в будущем мы сможем сделать это лучше, но пока выполните следующие действия:

    1. Добавьте новый метод в перечисление Method .
    2. Добавьте его в массив LISTABLE_METHODS , если он доступен в списке (разбит на страницы). Не все, что перечислено, можно перечислить, поэтому проверьте это.
    3. Добавьте или обновите связанную службу:
      1. Поместите открытые общедоступные методы службы в файл index.ts . Убедитесь, что вы правильно сопоставляете аргументы метода службы с параметрами вызова или списком параметров.
      2. Добавьте связанные сущности в entity.ts .
      3. Добавить интерфейс, описывающий методы обслуживания, в файл methods.ts . Протестируйте и проверьте тип полезной нагрузки метода, чтобы убедиться, что вы правильно его описали!
      4. Расширение Методы интерфейс с добавленным интерфейсом для конкретной службы. Таким образом, клиент будет знать, как разрешать параметры и типы полезной нагрузки для добавленного метода.
      5. Добавить тесты в индекс index.unit.test.ts .
    4. Служба реэкспорта общедоступных типов вроде Entities в битриксе.ts, чтобы сделать их доступными для конечных пользователей.
    5. Дополнение документа в docs.

    Bitrix Site Manager dbquery_error.php Раскрытие пути

    Новости сетевой безопасности — понедельник, 20 июня 2005 г. События

    Bitrix Site Manager dbquery_error.php Раскрытие пути

    Битрикс: Управление сайтом содержит уязвимость, которая может привести к несанкционированному раскрытию информации. Проблема возникает, когда во время выполнения dbquery_error.php возникают ошибки из-за недопустимого ввода данных пользователем, который раскрывает информацию о пути к веб-серверу, что приводит к потере конфиденциальности.. Подробнее на osvdb.org/17376

    Bitrix Site Manager subscr_form.php Раскрытие пути

    Битрикс: Управление сайтом содержит уязвимость, которая может привести к несанкционированному раскрытию информации. Проблема возникает, когда во время выполнения subscr_form.php возникают ошибки из-за недопустимого ввода данных пользователем, который раскрывает информацию о пути к веб-серверу, что приводит к потере конфиденциальности. Подробнее на osvdb.org/17348

    ProductCart editCategories.asp lid Внедрение переменных SQL

    ProductCart содержит уязвимость, позволяющую злоумышленнику вводить произвольные запросы SQL.Проблема возникает из-за того, что переменная lid в скрипте editCategories.asp не очищена должным образом и может позволить злоумышленнику вводить или манипулировать SQL-запросами. Подробнее на osvdb.org/17330

    ProductCart viewPrd.asp idcategory Внедрение переменной SQL

    ProductCart содержит уязвимость, позволяющую злоумышленнику вводить произвольные запросы SQL. Проблема возникает из-за того, что переменная idcategory в сценарии viewPrd.asp не очищена должным образом и может позволить злоумышленнику вводить или манипулировать SQL-запросами.. Подробнее на osvdb.org/17329

    Bitrix Site Manager index.php _SERVER [DOCUMENT_ROOT] Переменная Удаленное включение файла

    Битрикс содержит уязвимость, позволяющую удаленному злоумышленнику выполнять произвольные команды. Проблема связана с тем, что index.php не очищает должным образом пользовательский ввод, предоставленный переменной _SERVER [DOCUMENT_ROOT]. Это может позволить злоумышленнику включить файл с удаленного хоста, содержащий произвольные команды, которые будут выполняться уязвимым сценарием.. Подробнее на osvdb.org/17341

    .

    Microsoft Outlook Express NNTP LIST Команда Удаленное переполнение

    В Windows существует удаленное переполнение. Outlook Express не может проверить результаты, возвращаемые сервером NNTP команде LIST перед передачей ее в MSOE.DLL, что приводит к переполнению стека. С помощью специально созданного запроса злоумышленник может вызвать выполнение произвольного кода от имени пользователя, что приведет к потере целостности. Подробнее на osvdb.org/17306

    Bitrix — Битрикс24 REST API клиент, который не отстой.Больше не страдай.


    описание: это не отстой

    • 🔥 Никакой ерунды
    • ✨ Экспрессивный API
    • 💪 Строго типизированные методы и запросы результатов с TypeScript
    • 🚀 Обрабатывает пакетирование записей и ограничение скорости для вас
    • ❤️ По обещанию

    Установить

      npm install @ 2bad / bitrix  

    Использование

    Инициируйте клиент с конечной точкой API Битрикс и токеном доступа и используйте его, чтобы облегчить вашу боль с Битрикс:

      импорт Битрикс из '@ 2bad / bitrix'
    
    const bitrix = Bitrix ('https: // PORTAL_NAME.bitrix24.ru/rest ',' ACCESS_TOKEN ')
    
    // Получить сделку
    bitrix.deals.get ('77 ')
      .then (({результат}) => {
        // Получаем типизированную полезную нагрузку
        const {TITLE} = результат // строка
        console.log (НАЗВАНИЕ)
      })
      .catch (console.error)
    
    // Получить все сделки
    bitrix.deals.list ({выберите: ["*", "UF_ *"]})
      .then (({результат}) => {
        const title = result.map ((e) => e.TITLE)
        console.log (заголовки)
      })
      .catch (console.error)  

    Аутентификация

    Прежде чем вы сможете использовать Bitrix REST API, вам необходимо пройти аутентификацию.

    Это можно сделать двумя способами:

    1. Более сложный, но правильный способ — создать приложение Битрикс и затем пройти аутентификацию по OAuth.

      Аутентификация с помощью OAuth требует некоторых дополнительных шагов, и решать вам решать их с помощью лямбда-функции, какого-либо сервера или почтальона.

      Это даст токен доступа. Используйте его для запуска клиента:

        const bitrix = Битрикс ('https://PORTAL_NAME.bitrix24.ru/rest', 'ACCESS_TOKEN')  

      Обратите внимание, что токен доступа живет всего 30 минут и должен периодически обновляться с помощью токена обновления OAuth, который, в свою очередь, живет 1 месяц.

    2. Более простой способ — создать входящий веб-перехватчик Битрикс с необходимыми разрешениями.

      Он мгновенно предоставит вам конечную точку с токеном внутри. Для его использования не требуется дополнительная аутентификация или токены доступа:

        const bitrix = Битрикс ('https://PORTAL_NAME.bitrix24.ru/rest/1/WEBHOOK_TOKEN')  

      Эта конечная точка существует бесконечно. Радуйтесь и надейтесь, что против вас это не обернется.

    API

    Как это работает

    Клиент изо всех сил старается обеспечить единообразный, строго типизированный и в то же время легкий опыт.

    Он заботится обо всех необходимых пакетах для выполнения «больших» команд, таких как получение всех сделок или потенциальных клиентов с минимально возможным сетевым запросом. Это позволяет добиться чтения 250 000 и обновления 5000 записей в минуту с помощью одной строки кода.

    Все клиентские методы автоматически ограничиваются по скорости и при необходимости ставятся в очередь, чтобы справиться с ограничением Битрикс REST API в 2 запроса в секунду, поэтому вы никогда не должны видеть ошибок Битрикс о превышении лимитов скорости.

    Необходимые параметры методов и возвращаемые типы полезной нагрузки автоматически разрешаются на основе интерфейса методов, который эффективно описывает все поддерживаемые в настоящее время методы.

    Чтобы облегчить лучшую архитектуру, клиент разделен на уровни:

    1. Методы — в основном общие методы, такие как , вызывают для работы с методами Bitrix API. Они заботятся о рутине и создают основу для более сложных операций.
    2. Клиент — общий клиент, который выполняет некоторые дополнительные рутинные задачи, такие как установка токена доступа для каждого запроса, установка очереди для ограничения скорости и предоставление общих методов.
    3. Сервисы — каждый сервис предоставляет выразительный интерфейс для работы с определенной группой операций Bitrix REST API. По сути, они организуют общие клиентские методы и параметры для получения правильных результатов.
    4. Клиент «Битрикс» — провайдер универсальных сервисов и сервисов высшего уровня. Простой способ справиться с Bitrix REST API с помощью интуитивно понятного API, который берет на себя всю лежащую в основе сложность.

    FAQ

    Закончено?

    Ядро готово и стабильно.С его помощью можно произвольно вызывать любые методы Bitrix REST API.

    Однако пока не все методы Bitrix REST API представлены в виде удобных клиентских сервисов (например, bitrix.deals.list () ).

    Если вам нужна конкретная услуга, добавьте ее, сделав запрос на вытягивание, следуя структуре уже существующих услуг и инструкциям «Добавление новых методов».

    Я не участвую в гонке мастеров машинописного языка. Могу ли я использовать его с обычным JavaScript?

    Конечно.Просто установите и импортируйте его, как любой другой модуль NPM. Но Type Police уже в пути.

    Обратите внимание, что эта библиотека не была разработана с учетом обычного JavaScript, поэтому она не выполняет ненужных динамических проверок. Не передавайте неверные параметры слишком настойчиво — это может привести к неожиданным результатам. В конце концов, TypeScript — это рекомендуемый способ его использования.

    Следует ли мне проверять свойства полезной нагрузки error на наличие ошибок?

    Не стоит.Вместо этого перехватывайте отклонения, так как библиотека отклонит, если есть какие-либо ошибки в полезной нагрузке.

    Метод списка не возвращает пользовательские поля!

    Bitrix API по умолчанию этого не делает. Используйте подстановочные знаки в , выберите параметр , чтобы принудительно включить пользовательские поля:

      bitrix.deals.list ({выберите: ['*', 'UF_ *']})  

    Пользовательские поля неправильно набраны

    Клиент не может знать о свойствах полезных данных, отличных от значений по умолчанию.Из-за этого предполагается, что любая полезная нагрузка может иметь любые дополнительные поля типа [ключ: строка]: строка :

      bitrix.leads.get ({ID: '77'})
      .then (({результат}) => {
        // известное свойство типа `строка`
        const title = result.TITLE
    
        // неизвестное свойство типа `строка`
        const someData = результат.UF_23232323
    
        console.log (заголовок, некоторые данные)
      })  

    Мне нужно вызвать метод Битрикс, который пока не поддерживается

    Используйте соответствующие низкоуровневые клиентские методы с приведением, например:

      битрикс.call ('some.new.get' как любое, {ID: '77'} как любое)
      .then ((payload) => payload как GetPayload )
    
    bitrix.list ('some.new.list' как любое, {select: ["TITLE"]})
      .then ((payload) => payload как ListPayload )  

    Мне нужно вызвать определенный набор команд. Как это сделать эффективно?

    Используйте метод партии . Он справится со всей рутиной:

      bitrix.batch ({
      ведущий: {method: Method.GET_LEAD, params: {ID: '77'}},
      сделок: {метод: Метод.LIST_DEALS, параметры: {}}
    })  

    Развитие

    • npm test — запустить все тесты и собрать отчет о полном покрытии
    • npm run test: unit — запуск модульных тестов и сбор отчета о покрытии
    • npm run test: интеграция — запустить интеграционные тесты и собрать отчет о покрытии
    • npm run test: смотреть — следить за изменениями и запускать все тесты
    • npm run test: unit: watch — следите за изменениями и запускайте модульные тесты
    • npm run test: интеграция: смотреть — следить за изменениями и запускать интеграционные тесты
    • npm run build — собрать библиотеку для релиза
    Добавление новых методов

    Для правильной обработки параметров метода и типов полезной нагрузки требуется некоторая процедура при добавлении любого нового метода.Надеюсь, в будущем мы сможем сделать это лучше, но пока выполните следующие действия:

    1. Добавить новый метод в перечисление Method .
    2. Добавьте его в массив LISTABLE_METHODS , если он доступен в списке (разбит на страницы). Не все, что перечислено, можно перечислить, поэтому проверьте это.
    3. Добавьте или обновите связанную службу:
      1. Поместите открытые общедоступные методы службы в файл index.ts . Убедитесь, что вы правильно сопоставляете аргументы метода службы с параметрами вызова или списком параметров.
      2. Добавьте связанные сущности в entity.ts .
      3. Добавить интерфейс, описывающий методы обслуживания, в файл methods.ts . Протестируйте и проверьте тип полезной нагрузки метода, чтобы убедиться, что вы правильно его описали!
      4. Extend Methods интерфейс с добавленным интерфейсом для конкретной службы. Таким образом, клиент будет знать, как разрешать параметры и типы полезной нагрузки для добавленного метода.
      5. Добавить тесты в индекс index.unit.test.

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *