Метатег robots и HTTP-заголовок X-Robots-Tag
Статья о том, как управлять показом контента, задавая настройки на уровне страницы и текста с частичным переводом статьи «Robots Meta Tag & X-Robots-Tag: Everything You Need to Know» маркетолога Michal Pecánek.
Хочу начать не с перевода статьи, а с рекомендаций Яндекс, который пишет:
Вы можете указать роботам правила загрузки и индексирования определенных страниц сайта одним из способов:
- прописать метатег robots в HTML-коде страницы в элементе head;
- настроить HTTP-заголовок X-Robots-Tag для определенного URL на сервере вашего сайта.
Примечание. Если страница запрещена в файле robots.txt, то директива метатега или заголовка не действует.
По умолчанию метатег и заголовок учитываются поисковыми роботами. Можно указать директивы для определенных роботов.
Разрешающие директивы используются роботом по умолчанию, поэтому их можно не указывать, если нет других директив. В сочетании с запрещающими директивами разрешающие имеют приоритет.
Роботы других поисковых систем и сервисов могут иначе интерпретировать директивы.
Если для робота Яндекса указаны противоречивые директивы, то он учтет положительное значение.
Указать директиву только для роботов Яндекса можно с помощью метатега robots.
<meta name="yandex" content="noindex" />
Если вы перечислите общие директивы и директивы для роботов Яндекса, то поисковая система учтет все указания.
<meta name="robots" content="noindex" /> <meta name="yandex" content="nofollow" />
Такие директивы робот Яндекса воспримет как noindex, nofollow
.
Рекомендации Google вы можете прочитать здесь: https://developers.google.com/search/reference/robots_meta_tag?hl=ru
И вот только теперь перейдем к переводу статьи. Я не стал брать ее полностью, там есть лишнее и частное.
Направить поисковые системы таким образом, чтобы они сканировали и индексировали ваш сайт именно так, как вы того хотите, порой может быть непросто.
Для этой цели существуют метатеги robots и HTTP-заголовок X-Robots-Tag.
Давайте проясним одну вещь с самого начала: вы не можете управлять индексацией через robots.txt. Распространенное заблуждение — считать иначе.
Правило noindex в robots.txt официально никогда не поддерживалось Google. 2 июля 2019 года Google опубликовал новость, в которой описал нерелевантные и неподдерживаемые директивы файла robots.txt. С 1 сентября 2019 года такие правила, как noindex в robots.txt, официально не поддерживаются.
Из этого руководства вы узнаете:
- что такое метатег robots;
- почему robots важен для поисковой оптимизации;
- каковы значения и атрибуты метатега robots;
- как внедрить robots;
- что такое X-Robots-Tag;
- как внедрить X-Robots-Tag;
- когда нужно использовать метатег robots, а когда — X-Robots-Tag;
- как избежать ошибок индексации и деиндексации.
Что такое метатег robots
Это фрагмент HTML-кода, который указывает поисковым системам, как сканировать и индексировать определенную страницу. Robots помещают в контейнер <head>
кода веб-страницы, и выглядит это следующим образом:
<meta name="robots" content="noindex" />
Почему метатег robots важен для SEO
Метатег robots обычно используется для того, чтобы предотвратить появление страниц в выдаче поисковых систем. Хотя у него есть и другие возможности применения, но об этом позже.
Есть несколько типов контента, который вы, вероятно, хотели бы закрыть от индексации поисковыми системами. В первую очередь это:
- страницы, ценность которых крайне мала для пользователей или отсутствует вовсе;
- страницы на стадии разработки;
- страницы администратора или из серии «спасибо за покупку!»;
- внутренние поисковые результаты;
- лендинги для PPC;
- страницы с информацией о грядущих распродажах, конкурсах или запуске нового продукта;
- дублированный контент.
Не забывайте настраивать тег canonical для того, чтобы предоставить поисковым системам наилучшую версию для индексации.
В общем, чем больше ваш веб-сайт, тем больше вам придется поработать над управлением краулинговой доступностью и индексацией. Еще вы наверняка хотели бы, чтобы Google и другие поисковые системы сканировали и индексировали ваш сайт с максимально возможной эффективностью. Да? Для этого нужно правильно комбинировать директивы со страницы, robots.txt и sitemap.
Какие значения и атрибуты есть у метатега robots
Метатег robots содержит два атрибута: name и content.
Следует указывать значения для каждого из этих атрибутов. Их нельзя оставлять пустыми. Давайте разберемся, что к чему.
Атрибут name и значения user-agent
Атрибут name уточняет, для какого именно бота-краулера предназначены следующие после него инструкции. Это значение также известно как user-agent (UA), или «агент пользователя». Ваш UA отражает то, какой браузер вы используете для просмотра страницы, но вот у Google UA будет, например, Googlebot или Googlebot-image.
Значения user-agent, robots, относится только к ботам поисковых систем. Цитата из официального руководства Google:
Тег
<meta name="robots" content="noindex" />
и соответствующая директива применяются только к роботам поисковых систем. Чтобы заблокировать доступ другим поисковым роботам, включая AdsBot-Google, возможно, потребуется добавить отдельные директивы для каждого из них, например
<meta name="AdsBot-Google" content="noindex" />
Вы можете добавить столько метатегов для различных роботов, сколько вам нужно. Например, если вы не хотите, чтобы картинки с вашего сайта появлялись в поисковой выдаче Google и Bing, то добавьте в шапку следующие метатеги:
<meta name="googlebot-image" content="noindex" /><meta name="MSNBot-Media" content="noindex" />
Примечание: оба атрибута — name и content — нечувствительны к регистру. То есть абсолютно не важно, напишите ли вы их с большой буквы или вообще ЗаБоРчИкОм.
Атрибут content и директивы сканирования и индексирования
Атрибут content содержит инструкции по поводу того, как следует сканировать и индексировать контент вашей страницы. Если никакие метатеги не указаны или указаны с ошибками, и бот их не распознал, то краулеры расценят гнетущую тишину их отсутствия как «да», т. е. index и follow. В таком случае страница будет проиндексирована и попадет в поисковую выдачу, а все исходящие ссылки будут учтены. Если только ссылки непосредственно не завернуты в тег rel=»nofollow» .
Ниже приведены поддерживаемые значения атрибута content.
all
Значение по умолчанию для index, follow. Вы спросите: зачем оно вообще нужно, если без этой директивы будет равным образом то же самое? И будете чертовски правы. Нет абсолютно никакого смысла ее использовать. Вообще.
<meta name="robots" content="all" />
noindex
Указывает ПС на то, что данную страницу индексировать не нужно. Соответственно, в SERP она не попадет.
<meta name="robots" content="noindex" />
nofollow
Краулеры не будут переходить по ссылкам на странице, но следует заметить, что URL страниц все равно могут быть просканированы и проиндексированы, в особенности если на них ведут внешние ссылки.
<meta name="robots" content="nofollow" />
none
Комбинация noindex и nofollow как кофе «два в одном». Google и Yandex поддерживают данную директиву, а вот, например, Bing — нет.
<meta name="robots" content="none" />
noarchive
Предотвращает показ кешированной версии страницы в поисковой выдаче.
<meta name="robots" content="noarchive" />
notranslate
Говорит Google о том, что ему не следует предлагать перевод страницы в SERP. «Яндексом» не поддерживается.
<meta name="robots" content="notranslate" />
noimageindex
Запрещает Google индексировать картинки на странице. «Яндексом» не поддерживается.
<meta name="robots" content="noimageindex" />
Указывает Google на то, что страницу нужно исключить из поисковой выдачи после указанной даты или времени. В целом это отложенная директива noindex с таймером. Бомба деиндексации с часовым механизмом, если изволите. Дата и время должны быть указаны в формате RFC 850. Если время и дата указаны не будут, то директива будет проигнорирована. «Яндекс» ее тоже не знает.
<meta name="robots" content="unavailable_after: Sunday, 01-Sep-19 12:34:56 GMT" />
nosnippet
Отключает все текстовые и видеосниппеты в SERP. Кроме того, работает и как директива noarchive. «Яндексом» не поддерживается.
<meta name="robots" content="nosnippet" />
Важное примечание
С октября 2019 года Google предлагает более гибкие варианты управления отображением сниппетов в поисковой выдаче. Сделано это в рамках модернизации авторского права в Евросоюзе. Франция стала первой страной, которая приняла новые законы вместе со своим обновленным законом об авторском праве.
Новое законодательство хоть и введено только в Евросоюзе, но затрагивает владельцев сайтов повсеместно. Почему? Потому что Google больше не показывает сниппеты вашего сайта во Франции (пока только там), если вы не внедрили на страницы новые robots-метатеги.
Мы описали каждый из нововведенных тегов ниже. Но вкратце: если вы ищете быстрое решение для исправления сложившейся ситуации, то просто добавьте следующий фрагмент HTML-кода на каждую страницу сайта. Код укажет Google на то, что вы не хотите никаких ограничений по отображению сниппетов. Поговорим об этом более подробно далее, а пока вот:
<meta name="robots" content=”max-snippet:-1, max-image-preview:large, max-video-preview:-1" />
Нижеуказанные директивы не поддерживаются ПС «Яндекс»!!!
max-snippet
Уточняет, какое максимальное количество символов Google следует показывать в своих текстовых сниппетах. Значение «0» отключит отображение текстовых сниппетов, а значение «-1» укажет на то, что верхней границы нет.
Вот пример тега, указывающего предел в 160 символов (стандартная длина meta description):
<meta name="robots" content="max-snippet:160" />
max-image-preview
Сообщает Google, какого размера картинку он может использовать при отображении сниппета и может ли вообще. Есть три опции:
- none — картинки в сниппете не будет вовсе;
- standart — в сниппете появится (если появится) картинка обыкновенного размера;
- large — может быть показана картинка максимального разрешения из тех, что могут влезть в сниппет.
<meta name="robots" content="max-image-preview:large" />
max-video-preview
Устанавливает максимальную продолжительность видеосниппета в секундах. Аналогично текстовому сниппету значение «0» выключит опцию показа видео, значение «-1» укажет, что верхней границы по продолжительности видео не существует.
Например, вот этот тег скажет Google, что максимально возможная продолжительность видео в сниппете — 15 секунд:
<meta name="robots" content="max-video-preview:15" />
noyaca
Запрещает «Яндексу» формировать автоматическое описание с использованием данных, взятых из «Яндекс. Каталога». Для Google не поддерживается.
Примечание относительно использования HTML-атрибута data-nosnippet
Вместе с новыми директивами по метатегу robots, представленными в октябре 2019 года, Google также ввел новый HTML-атрибут data-nosnippet. Атрибут можно использовать для того, чтобы «заворачивать» в него фрагменты текста, который вы не хотели бы видеть в качестве сниппета.
Новый атрибут может быть применен для элементов <div>
, <span>
и <section>
. Data-nosnippet — логический атрибут, то есть он корректно функционирует со значениями или без них.
Вот два примера:
<p>Фрагмент этого текста может быть показан в сниппете <span data-nosnippet>за исключением этой части.</span></p><div data-nosnippet>Этот текст не появится в сниппете.</div><div data-nosnippet="true">И этот тоже.</div>
Использование вышеуказанных директив
В большинстве случаев при поисковой оптимизации редко возникает необходимость выходить за рамки использования директив noindex и nofollow, но нелишним будет знать, что есть и другие опции.
Вот таблица для сравнения поддержки различными ПС упомянутых ранее директив.
Вы можете сочетать различные директивы.
Важно!
Если директивы конфликтуют друг с другом (например, noindex и index), то Google отдаст приоритет запрещающей, а «Яндекс» — разрешающей директиве. То есть боты Google истолкуют такой конфликт директив в пользу noindex, а боты «Яндекса» — в пользу index.
Примечание: директивы, касающиеся сниппетов, могут быть переопределены в пользу структурированных данных, позволяющих Google использовать любую информацию в аннотации микроразметки. Если вы хотите, чтобы Google не показывал сниппеты, то измените аннотацию соответствующим образом и убедитесь, что у вас нет никаких лицензионных соглашений с ПС, таких как Google News Publisher Agreement, по которому поисковая система может вытягивать контент с ваших страниц.
Как настроить метатеги robots
Теперь, когда мы разобрались, как выглядят и что делают все директивы этого метатега, настало время приступить к их внедрению на ваш сайт.
Как уже упоминалось выше, метатегам robots самое место в head-секции кода страницы. Все, в принципе, понятно, если вы редактируете код вашего сайта через разные HTML-редакторы или даже блокнот.
Что такое X-Robots-Tag
Метатеги robots замечательно подходят для того, чтобы закрывать ваши HTML-страницы от индексирования, но что делать, если, например, вы хотите закрыть от индексирования файлы типа изображений или PDF-документов? Здесь в игру вступает X-Robots-Tag.
X-Robots-Tag — HTTP-заголовок, но, в отличие от метатега robots, он находится не на странице, а непосредственно в файле конфигурации сервера. Это позволяет ему сообщать ботам поисковых систем инструкции по индексации страницы даже без загрузки содержимого самой страницы. Потенциальная польза состоит в экономии краулингового бюджета, так как боты ПС будут тратить меньше времени на интерпретацию ответа страницы, если она, например, будет закрыта от индексации на уровне ответа веб-сервера.
Чтобы проверить HTTP-заголовок страницы, нужно приложить чуть больше усилий, чем требуется на проверку метатега robots. Например, можно воспользоваться «дедовским» методом и проверить через Developer Tools или же установить расширение на браузер по типу Live HTTP Headers.
Последнее расширение мониторит весь HTTP-трафик, который ваш браузер отправляет (запрашивает) и получает (принимает ответы веб-серверов). Live HTTP Headers работает, так сказать, в прямом эфире, так что его нужно включать до захода на интересующий сайт, а уже потом смотреть составленные логи.
Как правильно внедрить X-Robots-Tag
Конфигурация установки в целом зависит от типа используемого вами сервера и того, какие страницы вы хотите закрыть от индексирования.
Строчка искомого кода для веб-сервера Apache будет выглядеть так:
Для nginx — так:
Наиболее практичным способом управления HTTP-заголовками будет их добавление в главный конфигурационный файл сервера. Для Apache обычно это httpd.
X-Robots-Tag оперирует теми же директивами и значениями атрибутов, что и метатег robots. Это из хороших новостей. Из тех, что не очень: даже малюсенькая ошибочка в синтаксисе может положить ваш сайт, причем целиком. Так что два совета:
- при каких-либо сомнениях в собственных силах, лучше доверьте внедрение X-Robots-Tag тем, кто уже имеет подобный опыт;
- не забывайте про бекапы — они ваши лучшие друзья.
Подсказка: если вы используете CDN (Content Delivery Network), поддерживающий бессерверную архитектуру приложений для Edge SEO, вы можете изменить как метатеги роботов, так и X-Robots-теги на пограничном сервере, не внося изменений в кодовую базу.
Когда использовать метатеги robots, а когда — X-Robots-tag
Да, внедрение метатегов robots хоть и выглядит более простым и понятным, но зачастую их применение ограничено. Рассмотрим три примера.
Файлы, отличные от HTML
Ситуация: нужно впихнуть невпихуемое.
Фишка в том, что у вас не получится внедрить фрагмент HTML-кода в изображения или, например, в PDF-документы. В таком случае X-Robots-Tag — безальтернативное решение.
Вот такой фрагмент кода задаст HTTP-заголовок со значением noindex для всех PDF-документов на сайте для сервера Apache:
А такой — для nginx:
Масштабирование директив
Если есть необходимость закрыть от индексации целый домен (поддомен), директорию (поддиректорию), страницы с определенными параметрами или что-то другое, что требует массового редактирования, ответ будет один: используйте X-Robots-Tag. Можно, конечно, и через метатеги, но так будет проще. Правда.
Изменения заголовка HTTP можно сопоставить с URL-адресами и именами файлов с помощью различных регулярных выражений. Массовое редактирование в HTML с использованием функции поиска и замены, как правило, требует больше времени и вычислительных мощностей.
Трафик с поисковых систем, отличных от Google
Google поддерживает оба способа — и robots, и X-Robots-Tag. «Яндекс» хоть и с отставанием, но в конце концов научился понимать X-Robots-Tag и успешно его поддерживает. Но, например, чешский поисковик Seznam поддерживает только метатеги robots, так что пытаться закрыть сканирование и индексирование через HTTP-заголовок не стоит. Поисковик просто не поймет вас. Придется работать с HTML-версткой.
Как избежать ошибок доступности краулинга и деиндексирования страниц
Вам, естественно, нужно показать пользователям все ваши страницы с полезным контентом, избежать дублированного контента, всевозможных проблем и не допустить попадания определенных страниц в индекс. А если у вас немаленький сайт с тысячами страниц, то приходится переживать еще и за краулинговый бюджет. Это вообще отдельный разговор.
Давайте пробежимся по распространенным ошибкам, которые допускают люди в отношении директив для роботов.
Ошибка 1. Внедрение noindex-директив для страниц, закрытых через robots.txt
Никогда не закрывайте через disallow в robots.txt те страницы, которые вы пытаетесь удалить из индекса. Краулеры поисковых систем просто не будут переобходить такие страницы и, следовательно, не увидят изменения в noindex-директивах.
Если на ваши страницы с директивой noindex идет органический трафик, то очевидно, что они все еще в индексе, и вполне вероятно, что робот их не просканировал из-за запрета в robots.txt. Проверьте и исправьте, если это так.
Ошибка 2. Плохие навыки работы с sitemap.xml
Если вы пытаетесь удалить контент из индекса, используя метатеги robots или X-Robots-Tag, то не стоит удалять их из вашей карты сайта до момента их деиндексации. В противном случае переобход этих страниц может занять у Google больше времени.
— …ускоряет ли процесс деиндексации отправка Sitemap.xml с URL, отмеченным как noindex?
— В принципе все, что вы внесете в sitemap. xml, будет рассмотрено быстрее.
Для того чтобы потенциально ускорить деиндексацию ваших страниц, установите дату последнего изменения вашей карты сайта на дату добавления тега noindex. Это спровоцирует переобход и переиндексацию.
Еще один трюк, который вы можете проделать, — загрузить sitemap.xml с датой последней модификации, совпадающей с датой, когда вы отметили страницу 404, чтобы вызвать переобход.
Джон Мюллер говорит здесь про страницы с ошибкой 404, но можно полагать, что это высказывание справедливо и для директив noindex.
Важное замечание
Не оставляйте страницы, отмеченные директивой noindex, в карте сайта на долгое время. Как только они выпадут из индекса, удаляйте их.
Ошибка 3. Оставлять директивы noindex на страницах, которые уже не находятся на стадии разработки
Закрывать от сканирования и индексации все, что находится на стадии разработки, — это нормальная, хорошая практика. Тем не менее, иногда продукт выходит на следующую стадию с директивами noindex или закрытым через robots. txt доступом к нему. Органического трафика в таком случае вы не дождетесь.
Более того, иногда падение органического трафика может протекать незамеченным на фоне миграции сайта через 301-редиректы. Если новые адреса страниц содержат директивы noindex, или в robots.txt прописано правило disallow, то вы будете получать органический трафик через старые URL, пока они будут в индексе. Их деиндексация поисковой системой может затянуться на несколько недель.
Чтобы предотвратить подобные ошибки в будущем, стоит добавить в чек-лист разработчиков пункт о необходимости удалять правила disallow в robots.txt и директивы noindex перед отправкой в продакшен.
Ошибка 4. Добавление «секретных» URL в robots.txt вместо запрета их индексации
Разработчики часто стараются спрятать страницы о грядущих промоакциях, скидках или запуске нового продукта через правило disallow в файле robots.txt. Работает это так себе, потому что кто угодно может открыть такой файл, и, как следствие, информация зачастую сливается в интернет.
Не запрещайте их в robots.txt, а закрывайте индексацию через метатеги или HTTP-заголовки.
Заключение
Правильное понимание и правильное управление сканированием и индексацией вашего сайта крайне важны для поисковой оптимизации. Техническое SEO может быть довольно запутанным и на первый взгляд сложным, но метатегов robots уж точно бояться не стоит. Надеемся, что теперь вы готовы применять их на практике!
Плагин «Meta Robots Tag» для Shop-Script
Плагин «Meta Robots Tag» проставляет метатег robots, который поможет эффективно удалить не нужные и дублированные страницы из индекса поисковых систем.
Удаление дублей и некачественных страниц из индекса ПС еще никогда не было так просто и эффективно!
Метатег «robots» — позволяет задавать на уровне страницы настройки, которые определяют, как эта страница будет индексироваться поисковыми роботами, например, запретить или разрешить индексирование страницы, переходить по ссылкам, размещенным на данной странице, для последующей их индексации.
По умолчанию тег robots учитывается поисковыми роботами всегда, в отличии от атрибута rel=»canonical», который формирует плагин «Link canonical». Но лучше комбинировать два метода: тег robots и rel=canonical, так как каждый из них будет дополнять друг-друга и компенсировать недостатки.
Возможности плагина:
1. Поддержка 3 директив
Плагин «Meta Robots Tag» поддерживает настройку трёх директив, которые позволяют управлять индексированием страницы:
- noindex — не показывать эту страницу в результатах поиска;
- nofollow — не выполнять переход по ссылкам на странице;
- noarchive — запрещает показывать ссылку на кеш в результатах поиска.
2. Автоматическое размещение тега
Плагин автоматически размещает тег robots на страницах интернет-магазина по хуку frontend_head при активации соответствующей настройки или можно разместить тег вручную хелпером.
3. Поддержка мультивитринности
Настроить правила для вывода тега robots можно для всех витрин сразу или для каждой индивидуально, а также можно полностью отключить плагин на какой-то из витрин.
4. Рекомендуемые настройки
В плагин встроены рекомендуемые настройки, составленные нашими SEO-специалистами. Данная настройка позволяет вам не вникать в суть работы тега robots, а довериться нам.
5. Совместим с плагинами «SEO-фильтр», «Бренды PRO»
Плагин «Meta Robots Tag» полностью совместим с «SEO-фильтр», «Бренды PRO». Он проставляет тег на страницах плагинов согласно настройкам, но можно отключить добавление тега.
6. Настройки по типу страниц
Предусмотрены гибкие настройки и возможность отключение вывода тега robots на определенных страницах. В частности, можно задать разные правила для скрытых категорий и товаров или для страниц с отзывами, на которых нет отзывов.
7. Раздельные настройки для поисковых ботов
Можно настроить директивы, как для всех поисковых роботов сразу, так и индивидуально для Яндекс или Google.
8. Индивидуальная настройка для категорий и товаров
В настройках редактирования категорий и товаров можно индивидуально указать правила вывода тега robots с возможностью выбрать витрину.
Купить плагин →
Покупая плагин, Вы соглашаетесь с условиями оказания технической поддержки.
С лета 2021 года Яндекс.Вебмастер стал информировать вебмастеров о наличии на сайтах страниц-дублей с GET-параметрами, причем помечается эта проблема как критичная, что многих пользователей приводит в ужас. Мы расскажем что это за проблема и как её решить проще всего.
Читайте в блоге bodysite →
Использование метатега Robots | Справочный центр
Метатег robots – это фрагмент HTML-кода, который позволяет вам использовать инструкции (известные как директивы), чтобы сообщать поисковым системам, как взаимодействовать со страницами вашего сайта.
Вы можете использовать метатег robots на отдельной странице вашего сайта или использовать настройки SEO вашего сайта, чтобы настроить метатеги robots для нескольких страниц одного типа одновременно.
Из этой статьи вы узнаете больше о:
Директивах метатегов роботов
Директивы метатегов Robots сообщают поисковым системам, какую информацию о странице отображать в результатах поиска. Вы можете использовать директивы, чтобы получить больше контроля над тем, как поисковые системы индексируют страницу.
Например, вы можете использовать директиву nosnippet, чтобы запретить поисковым системам включать текстовый фрагмент или превью видео для страницы в результаты поиска.
Вы можете выбрать одну из следующих директив:
21Различия между файлом robots.txt и метатегом robots
Файл robots.txt для вашего сайта сообщает поисковым системам, какие страницы сканировать или пропускать для всего вашего сайта. Файл robots.txt отделен от страниц вашего сайта.
Метатег robots, напротив, является частью HTML-кода каждой страницы и содержит конкретные инструкции о том, как сканировать эту страницу.
Например, вы можете использовать robots.txt, чтобы попросить поисковые системы пропустить определенную страницу при сканировании вашего сайта. Однако поисковые системы могут по-прежнему индексировать страницу, если они переходят на нее из внешнего источника, например, по ссылке на вашу страницу на другом сайте.
Использование метатега robots на этой странице означает, что указание пропустить его является частью кода этой страницы и считывается поисковыми системами независимо от того, как они переходят на страницу.
Использование метатегов robots на страницах вашего сайта
Вы можете настроить метатеги robots для страницы вашего сайта на вкладке Advanced SEO панели SEO вашей страницы.
Узнайте, как настроить метатеги robots для:
Страниц вашего сайта в Редакторе
- Нажмите значок Страницы в левой части редактора.
- Нажмите значок Показать больше рядом с нужной страницей.
- Нажмите Advanced SEO .
- Нажмите Метатег роботов .
- Выберите директивы, которые вы хотите использовать.
- Опубликуйте свой сайт.
Страницы вашего сайта в Editor X
- Нажмите значок Страницы на верхней панели.
- Нажмите значок Показать больше рядом с нужной страницей.
- Нажмите Advanced SEO .
- Нажмите Метатег роботов .
- Выберите директивы, которые вы хотите использовать.
- Опубликуйте свой сайт.
Страницы товаров Wix Stores
- Перейдите на вкладку Товары на панели управления вашего сайта.
- Нажмите на продукт, который вы хотите настроить.
- Прокрутите вниз и нажмите Изменить настройки SEO справа.
- Перейдите на вкладку Дополнительно .
- Нажмите Метатег роботов .
- Выберите директивы, которые вы хотите использовать.
- Щелкните Сохранить .
Сообщения в блоге Wix
- Перейдите в свой блог на панели инструментов вашего сайта.
- Выберите запись в блоге, которую хотите отредактировать.
- Нажмите SEO на левой боковой панели.
- Щелкните Дополнительно .
- Нажмите Метатег роботов .
- Выберите директивы, которые вы хотите использовать.
- Нажмите Опубликовать .
Сервисы Wix Bookings
Примечание. Настройки SEO недоступны для страниц Booking, использующих iframe.
- Перейдите в Службы бронирования на панели инструментов вашего сайта.
- Выберите службу, которую хотите изменить.
- Нажмите Изменить настройки SEO .
- Щелкните Дополнительно .
- Нажмите Метатег роботов .
- Выберите директивы, которые вы хотите использовать.
- Щелкните Сохранить .
Онлайн-программы
- Перейдите в Онлайн-программы на панели управления вашего сайта.
- Нажмите значок Показать больше рядом с соответствующей программой на вкладке Опубликовано или на вкладке Черновики .
- Выберите Изменить настройки SEO .
- Щелкните Дополнительно .
- Нажмите Метатег роботов .
- Выберите директивы, которые вы хотите использовать.
- Нажмите Сохранить .
Wix Events
- Перейдите к Events на панели управления вашего сайта.
- Нажмите значок Показать больше рядом с соответствующим событием.
- Выберите Изменить настройки SEO .
- Щелкните Дополнительно .
- Нажмите Метатег роботов .
- Выберите директивы, которые вы хотите использовать.
- Нажмите Сохранить .
Использование метатегов robots в настройках SEO
Вы также можете настроить метатеги robots для нескольких страниц с помощью одного шаблона, используя настройки SEO вашего сайта.
Чтобы использовать метатеги robots в настройках SEO:
- Перейдите к инструментам SEO на панели инструментов вашего сайта.
- Нажмите Настройки SEO .
- Выберите тип страницы, которую вы хотите изменить.
- Нажмите Изменить рядом с метатегом Robots .
- Выберите директивы, которые вы хотите использовать.
- Щелкните Сохранить .
Помогло ли это?
|
Наймите SEO-специалиста Wix, чтобы он помог с вашим сайтом
Начало работыКак контролировать качество тегов Noindex в тестовой среде | по коду | Руководствуясь кодом
Автор: Харрисон ДеСантис
Повышение эффективности сканирования и индексации Google — один из важнейших столпов успешной программы технического SEO, особенно для такого крупного корпоративного сайта, как TrueCar. Одной из основных технических проблем SEO является контроль индексируемых страниц, поскольку мы не хотим отправлять в Google лишние страницы, которые не заслуживают индексации. Однако природа промежуточных сред затрудняет проверку того, будет ли ваша стратегия индексации работать, как запланировано, в реальной среде. В этом посте мы рассмотрим некоторую историю стратегии индексирования TrueCar и подробно расскажем о том, как мы разработали процесс контроля качества для тестирования мета-тегов noindex перед продвижением изменений на работающем сайте.
Метатег robots — это HTML-фрагмент, помещаемый в заголовок URL-адреса. Он контролирует, как поисковые системы обрабатывают эту страницу. Это может выглядеть примерно так:
Одним из наиболее распространенных вариантов использования метатега robots является «noindex. ” Выглядит это так:
A meta robots Тег content=”NOINDEX, NOFOLLOW”
говорит Google не индексировать эту страницу и не переходить ни по одной из закодированных на ней ссылок.
Прежде чем вносить какие-либо изменения в TrueCar.com, наша команда проверяет код в промежуточной среде, чтобы убедиться в отсутствии ошибок. Тем не менее, QA-обработка ошибок мета-роботов была невозможна, потому что наш промежуточный сайт имеет номер уже , используя тег мета-роботов, чтобы сообщить Google: «Не сканируйте и не индексируйте эту промежуточную страницу. Это только для пробы». Поскольку это поле мета-роботов равно уже используется для того, чтобы промежуточный сайт не попадал в индексы Google, он не может отражать то, что будет читать метатеговое поле robots в рабочей среде. Поэтому нам нужно дождаться, пока изменение будет объединено, инициировать сканирование всего сайта с помощью эмулятора бота, сравнить метатеги robots с предыдущим сканированием и надеяться, что ничего неправильного не было объединено. Это рискованный рабочий процесс. Если ошибка индексации будет объединена, Google может обнаружить ее раньше, чем это сделает наша команда, и удалить ценные страницы из результатов поиска.
В промежуточной среде TrueCar мы включаем дополнительный тег заголовка, который очень похож на заголовок мета-роботов, но с небольшим отличием. В то время как обычный заголовок будет читаться как name="ROBOTS"
перед директивой, мы добавляем заголовок, который читается как name="TC-PROD-ROBOTS"
, чтобы отразить, какой будет директива , когда изменение промежуточной обработки будет объединено. Поскольку этот заголовок не читается как name="ROBOTS"
, это не настоящий метатег robots. Поэтому Google не признает это какой-либо инструкцией по индексации. Это совершенно не имеет значения для индексируемости промежуточного сайта.
Тег настоящих метароботов: Тег искусственных метароботов:
Добавив этот тег в HTML, у нас теперь есть поле, которое мы можем извлечь, чтобы увидеть, каким будет статус индексации/подписки для страницы. Но нам по-прежнему нужен способ проверки этого в массовом порядке, поскольку мы не можем проверить все наши URL-адреса один за другим. Именно здесь в игру вступает Botify (платформа для сканирования корпоративных сайтов). Благодаря некоторой пользовательской магии кодирования и одному простому правилу извлечения HTML в Botify теперь есть масштабируемое решение, позволяющее увидеть, какой статус индекса промежуточной версии будет после слияния.
Теперь, когда в промежуточном коде есть фальшивый метатег robots, нам просто нужно запустить сканирование, чтобы извлечь это значение «TC-PROD-ROBOTS»
. Вот как это сделать.
- Соберите список примеров URL-адресов, где, как мы ожидаем, произойдут изменения мета-роботов. Поместите эти URL-адреса в текстовый файл. Назовем его List.txt.
- Возьмите те же URL-адреса, скопируйте их в отдельный файл текстового процессора и найдите/замените их доменное имя на промежуточное доменное имя. Убедитесь, что они разрешаются в браузере Chrome.
Затем добавьте эти промежуточные URL-адреса в тот же текстовый файл. List.txt теперь содержит две версии каждого URL-адреса: рабочую версию и тестовую версию.
- Создайте специальный проект сканирования в Botify.
- В разделе «Настройки» > «Сканер» загрузите наш недавно созданный файл List.txt.
- В разделе «Разрешенные домены» введите два домена: промежуточный и рабочий сайты.
- Создайте еще одно правило регулярного выражения извлечения HTML, которое ищет поле faux meta robots и возвращает строку. Назовите правило как-нибудь запоминающимся (например, «Фальшивые метароботы»).
- Создайте еще одно правило регулярного выражения HTML, которое ищет real meta robots и возвращает строку. Назовите правило как-нибудь запоминающимся (например, «Prod Meta Robots»).
- После проверки правила, чтобы убедиться, что оно извлекает строку, запустите сканирование!
После завершения обхода Botify выберите Site Crawler > URL Explorer (на платформе Botify) и создайте отчет из трех столбцов. Можно выбрать только следующие столбцы:
- URL-карта
- Prod Meta Robots
- Faux Meta Robots
Экспорт этого отчета с тремя столбцами в Excel.
Чтобы не делать этот пост слишком тяжелым для Excel, мы просто опишем желаемый результат этого экспорта. Получите URL-адрес без домена (или «ключ») для функции ВПР в столбцах Prod и Faux Meta Robots. Когда это будет завершено, будет приятное параллельное сравнение состояния тегов как в рабочей, так и в тестовой среде. На выходе должен получиться простой отчет с тремя столбцами, который очень похож на исходный экспорт (но с вдвое меньшим количеством строк и «URL Slug» без домена вместо полной «URL-карты»):
- URL Slug
- Prod Meta Robots
- Faux Meta Robots
Теперь у нас есть список, показывающий значение URL-адреса и сайта prost. Последнее, что нужно сделать, это добавить еще один столбец с простой формулой: ячейка Faux meta robots = ячейка Prod meta robots.
Директива | Инструкция для поисковых систем | |
---|---|---|
noindex | Не показывать эту страницу в результатах поиска. | |
nofollow | Не переходить по ссылкам на этой странице. | |
nosnippet | Не показывать фрагмент текста или превью видео для этой страницы в результатах поиска. | |
без архива | Не показывать кешированную ссылку на эту страницу в результатах поиска. | |
noimageindex | Не индексировать изображения на этой странице. | |
max-snippet | Введите максимальное количество символов, которое поисковые системы будут использовать в фрагменте текста для этой страницы в результатах поиска. Есть два особых случая:
| |
max-image-preview | Установите максимальный размер предварительного просмотра изображения для этой страницы в результатах поиска.
| |
max-video-preview | Установите максимальное количество секунд в качестве фрагмента видео для видео на этой странице в результатах поиска. Есть два особых случая:
| 8 |