Noindex тег google: 404 — Страница не найдена

Содержание

Noindex — что это? | Media Sova — поддержка и продвижение сайтов

Noindex – существует несколько принципиально разных понятий:

  • тег <noindex>,
  • мета-тег <meta name ”robots” content=”noindex, nofollow” />
  • атрибут rel=”nofollow” (иногда его путают с noindex)

1. Тег <noindex>

Noindex – тег, с помощью которого можно управлять функцией индексации поискового робота. Если выделить отдельный фрагмент текста и закрыть его тегом noindex, он не будет проиндексирован поисковой системой и, соответственно, не попадет в ее кэш. Впервые данный инструмент был предложен специалистами Яндекса, чтобы у веб-мастеров появился простой способ отделения части текстового контента, которая не несет смысловой нагрузки и не должна учитываться при оценке страницы.

В исходном коде сайта тег noindex выглядит так:
<noindex>Здесь находится закрытый для индексации контент</noindex>

Тег noindex учитывает только Яндекс. Google игнорирует его присутствие и проводит полную индексацию текстового содержания страницы. Для задействования блокировки индексации, актуальной для всех поисковиков, следует прописывать соответствующий метатег для отдельных страниц или всего сайта в файле robots.txt. Недостаток данного способа очевиден: запрет на индексацию возможен только по отношению ко всей странице, но не отдельному текстовому фрагменту.

Преимущества тега noindex
  • Сокрытие второстепенной информации позволяет повысить релевантность индексируемой страницы за счет возрастания относительной плотности ключевых фраз.
  • С помощью noindex можно спрятать содержимое сквозных блоков, информация в которых будет дублироваться на нескольких страницах, что отразится на пессимизации сайта в поисковой выдаче Yandex.
  • В некоторых случаях в сниппет может попасть нежелательная или служебная информация, которую проще всего скрыть тегом noindex.
Принцип действия noindex

Noindex может находиться в любом месте HTML-кода вне зависимости от уровня вложенности.

Несмотря на тот факт, что noindex был изначально предложен разработчиками Yandex, использование данного инструмента может быть расценено в качестве серого метода оптимизации. Это связано с тем, что некоторые веб-мастера применяют его не по прямому назначению. В частности, от робота прячется неуникальный контент или качественный текст, не содержащий ключевых слов, рассчитанный на прочтение посетителем сайта. Одновременно поисковику предлагается насыщенный ключевыми фразами текст, тяжелый для восприятия человека.

Для борьбы с подобными методами оптимизации Yandex анализирует текст, закрытый тегом noindex, проводя его индексацию, но впоследствии отфильтровывая скрытое содержимое. В результате изучения контента страницы поисковик может принять решение о наложении санкций на сайт, если сочтет, что его владелец использует неправомерные способы влияния на результаты поисковой выдачи.

2. <meta name ”robots” content=”noindex” />

Этот мета-тег устанавливается в секцию <head> на той странице, которая не должна индексироваться и в исходном коде выглядит так:

<head>
...
<meta name ”robots” content=”noindex” />
...
</head>

В примере выше метатег запрещает индексацию на уровне страницы (весь контент, который на ней есть), но не запрещает поисковым роботам посещать ее и переходить по ссылкам, которые используются в контенте.

Но обычно используется комбинация с nofollow, чтобы запретить поисковому роботу переходить по ссылкам на данной странице (и по внешним, и по внутренним). В этом случае метатег выглядит так:

<head>
...
<meta name ”robots” content=”noindex, nofollow” />
...
</head>

Возможные комбинации noindex + nofollow:

  1. <meta name=robots content=noindex, follow /> – используется в случае, если не нужно, чтобы страница была проиндексирована поисковиками, но роботам были доступны ссылки с этой страницы на другие внутренние или внешние ссылки с нее.
  2. <meta name=robots content=noindex /> выполняет то же самое. В данном случае вы запретите поисковой системе индексировать страницу, но индексация ссылок на ней возможна.
  3. <meta name=robots content=noindex, nofollow /> – запрещает индексировать контент на соответствующей странице + запрещает роботам переходить по ссылкам. Т.е. полный запрет индексирования страницы.
  4. <meta name=robots content=index, follow /> – разрешает роботам индексировать страницу и ходить по ссылкам. Использовать данный вариант смысла нет, так как по умолчанию, и без него поисковикам разрешено выполнять те же действия.
  5. <meta name=robots
    content=
    index, nofollow /> – разрешает индексировать страницу, но запрещает переходить по ссылкам и индексировать их.
  6. <meta name=robots content=nofollow /> – делает то же самое, т.е. разрешает индексировать контент на странице, но запрещает индексацию ссылок.
Отдельное использование Noindex для Google и Yandex
  • <meta name=googlebot content=noindex /> – закрывает страницу от индексации для робота Google
  • <meta name=yandex content=noindex/> – закрывает страницу от индексации для робота Yandex

Noindex | www.epochta.ru

В продолжение тематики про NoFollow и DoFollow сегодня хочу рассказать про тег NoIndex. Следует разделять, что существует мета тег NoIndex:

<meta name=”robots” content=”noindex, nofollow” />
И существует тег NoIndex:
<noindex>HTML код</noindex>
Мета тег используется для того, чтобы указать поисковому роботу, что данную страницу не следует индексировать. Но при этом разные поисковые системы по разному его интерпретируют: Google – не индексирует страницу, не сохраняет страницу в кеш, не выдает в результатах поиска. MSN – выдает в результатах поиска адрес сайта, показывает ссылку на кеш, но он отсутствует. Yahoo – аналогичен MSN, отсутствует кеш, но присутствует ссылка на него, а также отображается ссылка на сайт в результатах поиска. Yandex – не индексирует страницу. Зачем вообще использовать подобный тег? Причин может быть несколько:
  • Вы не хотите, чтобы робот внес в индекс страницы с закрытой или личной информацией;
  • Вы не хотите, чтобы поисковый робот индексировал огромные страницы на вашем сайте или базы данных;
  • В совокупности с NoFollow вы избегаете учета ссылок на вашей странице для расчета Page Rank и релевантности ссылаемой страницы. Детальнее тут.
Что касается тега , то он используется для запрета индексировать определенную часть страницы. Т.е. с помощью его можно сделать следующее:
  • Запретить индексировать ссылки внутри указанного блока на вашем сайте. В данном случае это аналогично использованию параметра NoFollow в ссылке.
  • Запретить индексировать часть страницы, а не всю, как в случае с мета тегом.
  • Запретить индексировать коды счетчиков, баннеров и т.д..
  • Убрать из индексирования ненужный код, текст, рекламу, что может поднять релевантность страницы.
Но главной особенностью данного тега является то, что его понимают только Yandex и Rambler, все остальные ведущие забугорные поисковые системы (Google, Yahoo, MSN) игнорируют данный тег. А также тега нет в стандарте W3C, поэтому страница с данным тегом не может пройти валидацию.

Когда, почему и как использовать тег Noarchive

Опубликовано: 2020-12-12

В мета-тегах роботов нет ничего нового.

Фактически, есть много случаев, когда вы можете захотеть использовать некоторые метатеги роботов, такие как тег noarchive.

На более крупных веб-сайтах управление разделами может стать сложной задачей.

Настолько, что вы захотите использовать некоторые метатеги роботов, чтобы контролировать, как Google видит, индексирует и полностью игнорирует страницу.

Давайте посмотрим на тег noarchive и посмотрим, на что он способен.

О теге Noarchive

Существуют определенные метатеги, которые помогут вам определить, как вы хотите, чтобы Google сканировал или индексировал вашу страницу.

Тег noarchive имеет отношение к тому, есть ли кешированная копия страницы.

Когда вы создаете веб-страницу, вы обычно хотите, чтобы все возможные параметры были включены.

Но на протяжении всей жизни веб-сайта вы можете захотеть ограничить возможности страницы.

Например, скажем, по какой-то причине вы не хотите, чтобы Google кэшировал страницу (особенно, если вы скоро ее обновите).

Реклама

Продолжить чтение ниже

Используя тег noarchive, вы сможете сказать Google: «Я не хочу, чтобы вы это кешировали».

Использование тега noarchive не оказывает большого влияния на поисковый рейтинг.

Джон Мюллер из Google подтвердил это:

нет

— 🍌 John 🍌 (@JohnMu) 29 августа 2017 г.

Как создать тег Noarchive?

Вы можете использовать следующие фрагменты кода:

<META NAME = «ROBOTS» CONTENT = «NOARCHIVE»>

Или вы можете использовать кодировку Google:

<META NAME = «GOOGLEBOT» КОНТЕНТ = «NOARCHIVE»>

Первая реализация применима ко всем роботам. Второй относится к Googlebot.

Кэширование ваших страниц в Google — это хорошо?

Это может быть.

Например, люди могут получить доступ к вашим страницам, даже если ваш сайт не работает.

Google также предоставляет «только текстовую» версию страницы, которая дает представление о том, как он «видит» вашу страницу.

Когда следует использовать тег Noarchive?

Такие вещи, как чувствительный ко времени контент и другие типы контента, которые вы не хотите публиковать для всех, не должны архивироваться.

Это предотвратит полное кэширование вашего контента Google.

Реклама

Продолжить чтение ниже

К ним относятся такие материалы, как:

  • Рекламу, которую вы не хотите, чтобы Google кешировал.
  • Любые целевые страницы PPC, которые вы не хотите, чтобы их видели все.
  • Внутренние документы, которые вы не хотите публиковать.
  • Любая другая конфиденциальная документация, история кеширования которой вам не нужна.

Для некоторых из этих ситуаций у вас, скорее всего, уже будет контент, который традиционно не индексируется, или есть директивы disallow в файле robots.txt.

Для других тег noarchive может быть вашим лучшим другом.

Можете ли вы получить штраф за использование Noarchive?

Нет.

В прошлом некоторые люди беспокоились о том, что маскировка сайта может быть красным флагом для Google.

Официально, однако, Google заявил, что нет ничего плохого в использовании тега,

Этот тег удаляет только ссылку «Сохранено в кэше» для страницы.

Google продолжит индексировать страницу и отображать фрагмент.

Какие еще теги можно использовать?

Обсуждаемые выше теги — не единственные, которые можно использовать для ограничения активности роботов.

Есть ряд других тегов, которые вы можете использовать, когда дело доходит до объявления директив сканера.

В этих основных директивах нет ничего нового, но существует много путаницы в отношении их лучших практик.

Мы хотели бы положить конец этой путанице в оставшейся части этого списка.

Эти теги могут помочь с индексацией, подпиской, кешированием и другими важными функциями.

С помощью этих тегов вы можете расставить приоритеты и убедиться, что разделы вашего сайта, которые вы хотите проиндексировать, проиндексированы. Они также отлично подходят для исключения контента, который вы не хотите показывать всем.

Когда вы хотите предотвратить индексирование: Noindex

Реализация кода:

 <meta name="robots" content="noindex">

Этот тег при правильном использовании используется для того, чтобы поисковая система знала, что им не следует индексировать эту конкретную страницу.

Если у вас есть разделы, которые вы предпочитаете оставлять только для пользователей (например, реклама PPC или другая реклама, которую вы, возможно, не хотите индексировать), вы можете использовать тег noindex на этих страницах.

Разрешение поисковым системам индексировать страницу: индекс

Реализация кода:

 <meta name="robots" content="index">

С этим есть проблема: вам не нужно использовать тег. Это избыточно. По умолчанию поисковые роботы сканируют и индексируют ваш сайт!

Реклама

Продолжить чтение ниже

И они сделают это, когда ваш сайт докажет свою ценность. Добавление такого тега просто добавляет избыточности и раздувания кода, которого не должно быть.

Разрешение поисковым системам следовать вашим ссылкам

Реализация кода:

 <meta name="robots" content="index,follow">

Это позволит сканерам индексировать и переходить по ссылкам на вашей странице. Кроме того, переход по ссылкам таким образом передает очень важный ссылочный вес, который еще больше увеличивает страницу, получающую его.

Когда вы не хотите, чтобы поисковые системы переходили по вашим ссылкам

Реализация кода:

 <meta name="robots" content="noindex,nofollow">

Nofollow по вашим ссылкам настроит их так, чтобы они не передавали ссылочный вес или иным образом не повышали PageRank страницы, на которую идет ссылка.

Follow / nofollow широко использовался еще во времена формирования PageRank, поэтому сегодня вы можете найти некоторые старые сайты с таким большим количеством nofollow-ссылок.

Используя nofollow и следуйте директивам таким образом, вы можете «поднять» PageRank получающей страницы, если все сделано правильно.

В настоящее время такая практика считается спамом. Если вы не знаете, что делаете, или если не хотите накапливать PageRank, как не завтра, вам не следует использовать nofollow.

Реклама

Продолжить чтение ниже

Почему вы хотите заблокировать конкретную страницу от получения столь важного PR?

Новые правила для Nofollow

Как будто этого было недостаточно, в начале этого года Google ввел новые правила для тегов nofollow, что еще больше усложняет ситуацию.

Раньше при желании можно было просто обозначить любые рекламные ссылки как nofollow.

Они не передавали значение, и Google их игнорировал.

Теперь новые правила создают новые обозначения для различения ссылок в рекламных целях.

Пользовательский контент также получил новые теги.

Теперь вы можете помечать ссылки в пользовательском контенте (например, комментарии и обзоры блогов) как nofollow, если они нарушают политику вашего сайта.

Вы можете узнать больше об этих новых правилах в другом месте в Search Engine Journal.

Nofollow, Noarchive, Nocache, больше нет!

Управлять сканерами несложно.

Улучшая способность сканеров различать контент, который вы хотите, чтобы они сканировали, и контент, который вы не хотите, чтобы они сканировали, это может помочь вам контролировать контент, который вы не хотите показывать всем.

Реклама

Продолжить чтение ниже

Управлять краулерами тоже несложно.

Однако что сложно, так это оценить вашу общую стратегию и то, куда вы должны двигаться дальше.

Что приходит с тестированием, обучением и выполнением.

Дополнительные ресурсы:

  • Все, что вам нужно знать о X-Robots-Tag
  • Google теперь будет рассматривать мета-роботов Nofollow как подсказку
  • Продвинутое техническое SEO: полное руководство

Кредиты изображений

Лучшее изображение: Создано автором, апрель 2020 г.

Краткое руководство

ESV по мета-тегам роботов, Диспетчер тегов Google

Мета-теги роботов — это то, с чем вы почти неизбежно столкнетесь, если работаете в области SEO, но что это такое, как они работают и чем они отличаются от старого доброго robots.txt? Давайте разберемся.

Что такое мета-тег роботов?

Мета-тег роботов — это фрагмент кода, который помещается в заголовок вашей веб-страницы и сообщает поисковым системам и другим сканерам, что им следует делать со страницей.Должны ли они сканировать его и добавлять в свой индекс? Следует ли им переходить по ссылкам на странице? Должны ли они отображать ваш фрагмент в результатах поиска определенным образом? Вы можете контролировать все это с помощью мета-тегов robots, и, хотя в некоторых системах управления контентом может потребоваться немного больше ресурсов для разработки, они, как правило, более эффективны, чем robots.txt во многих отношениях. Я расскажу об этом позже.

Обычно тег robots в исходном HTML-коде выглядит следующим образом.

Как видите, он состоит из двух элементов: наименования метатега (в данном случае роботы — для работы метатеги должны декларировать свою идентичность) и вызываемых директив («контент» — в данном случае « noindex, следуйте »).

Это, вероятно, самый распространенный метатег роботов, с которым вы сталкиваетесь и который используете; тег noindex мета-роботов сообщает поисковым системам, что, хотя они могут сканировать страницу, директива noindex сообщает им, что они не должны добавлять страницу в свой индекс.Другая директива в теге, «следовать», сообщает поисковым системам, что они должны переходить по ссылкам на странице. Это полезно знать, потому что даже если страница не находится в индексе поисковой системы, это не будет черной дырой с потоком авторитета вашего сайта — любого авторитета, который страница должна передать другим, либо на вашем сайте. или выключено, все равно будет передаваться с помощью директивы «follow».

Если вы хотите полностью удалить эту страницу и не иметь на ней ссылок, тег будет иметь один из следующих видов:

Добавляя атрибут «nofollow», вы указываете поисковым системам не индексировать страницу, но также не переходить по каким-либо ссылкам на этой странице, внутренним или внешним.Директива none фактически аналогична комбинации noindex и nofollow, но используется не так часто. В общем, мы рекомендуем «noindex, подписывайтесь», если вам нужно не индексировать страницу.

Какие еще есть мета-теги роботов?

Теперь мы рассмотрели анатомию наиболее распространенного метатега роботов, давайте взглянем на некоторые другие:

  • noimageindex: Указывает поисковому роботу не индексировать изображения на странице. Это удобно, если у вас есть проприетарные изображения, которые вы не хотите, чтобы люди находили в Google.Имейте в виду, что если кто-то ссылается на изображение, его все равно можно проиндексировать.
  • noarchive: Этот тег запрещает поисковым системам показывать кешированную версию страницы.
  • nosnippet: Я действительно не могу придумать жизнеспособного варианта использования для этого, но он останавливает поисковые системы, отображающие фрагмент в результатах поиска, и не дает им кэшировать страницу. Если вы можете придумать причину использовать это, напишите мне в Twitter @ ben_johnston80.
  • noodp: Этот тег использовался для остановки поисковых систем, использующих ваш список каталога DMOZ вместо вашего мета-заголовка / описания в результатах поиска.Однако с тех пор, как DMOZ закрылся в прошлом году, этот тег обесценился. Вы все еще можете увидеть это в дикой природе, и есть некоторые плагины SEO, которые по какой-то причине все еще включают его, но просто знайте, что после смерти DMOZ этот тег ничего не делает.
  • noydir: Еще один, который на самом деле бесполезен, но вы, вероятно, увидите в дикой природе, и некоторые плагины SEO проталкиваются — тег noydir говорит поисковым системам не показывать фрагмент из Yahoo! Справочник. Никакие поисковые системы, кроме Yahoo! Используйте Yahoo! Directory, и я не уверен, что кто-то действительно добавил в него свой сайт с 2009 года, так что это действительно бесполезный тег.

Когда следует использовать мета-теги роботов?

Существует ряд причин использовать метатеги вместо robots.txt, но главная из них — это возможность развертывать их на постраничной основе и следить за тем, чтобы они выполнялись. Как правило, они более эффективны, чем robots.txt, и robots.txt лучше всего работает, когда он используется для отдельных папок, а не для отдельных URL.

По сути, если вам нужно исключить определенную страницу из индекса, но вы хотите, чтобы по ссылкам на этой странице по-прежнему следовали, или у вас есть изображения, которые вы не хотите индексировать, но все же хотите, чтобы содержимое страницы было проиндексировано, это когда вы использовали бы метатег robots.Это отличный, динамичный способ управления индексацией вашего сайта (и есть множество других вещей, которые вы можете сделать с ними, но это отдельная статья).

Но вот в чем проблема: добавить еще одну строку в файл robots.txt очень просто, но с некоторыми системами управления контентом не так просто добавить метатег на определенную страницу. Не волнуйтесь, Диспетчер тегов Google поможет вам.

Добавление мета-тегов роботов через Диспетчер тегов Google

Если на вашем сайте установлен Диспетчер тегов Google для отслеживания (и, серьезно, почему не вам?), Вы можете использовать его для внедрения мета-тегов роботов на постраничной основе, тем самым устраняя накладные расходы на разработку.Вот как.

Во-первых, создайте новый пользовательский тег HTML, содержащий следующий код:

Замените YOURDIRECTIVE1, YOURDIRECTIVE2 тем, что вы хотите от него (например, noindex, follow), и если вы хотите удалить одну из директив, ничего страшного. На скриншоте ниже показано, как это сделать.

Теперь создайте триггер и установите его так, чтобы он срабатывал только на тех страницах, к которым должен применяться метатег robots, как показано ниже.

Итак, вот как вы можете внедрить свои мета-теги роботов через Диспетчер тегов Google.Довольно удобно, правда?

И все готово

Надеюсь, сегодняшний пост помог вам лучше понять, что такое мета-теги роботов, для чего вы бы их использовали, а — как их использовать . Если у вас возникнут какие-либо вопросы или комментарии, напишите мне в Твиттере или отправьте нам сообщение через нашу контактную форму.

Последние сообщения в блоге

Как смерть средней позиции делает PPC лучше

Почему Google закрывает это и как…

Узнать больше
Отказ данных в Google Search Console вызван ошибкой индексирования

Последствия ошибки индексации …

Узнать больше
2019 PPC — Состояние ключевых слов

Часть 2 серии

Узнать больше

роботов.txt & meta noindex — сайт по-прежнему отображается в поиске Google | SEO Форум

Просто чтобы прояснить, что сказал Логан. Вы должны разрешить Google сканировать ваш сайт, открыв файл robots.txt для Google, чтобы он мог видеть вашу директиву noindex на каждой из страниц. В противном случае Google никогда не «увидит» директиву noindex на ваших страницах.

Аналогично на sitemap.xml. Если вы не разрешаете Google сканировать карту сайта (потому что вы блокируете ее с помощью robots.txt), то Google не будет читать карту сайта, найдет все ваши страницы, на которых есть директива noindex, а затем удалит эти страницы из индекса.

Отличная статья здесь

https://support.google.com/webmasters/answer/93710?hl=en&ref_topic=4598466

Из уст Google «Важно! Чтобы метатег noindex работал, страница не должна блокироваться файлом robots.txt. Если страница заблокирована файлом robots.txt, сканер никогда не увидит noindex тег, и страница по-прежнему может отображаться в результатах поиска, например, если на нее ссылаются другие страницы «.

Другой момент, который делает логан, заключается в том, что Google может перечислить ваш сайт, если на него ссылается достаточно сайтов.Приведенные выше шаги должны позаботиться об этом, поскольку вы деиндексируете страницу, но я думаю, что он ссылается на

.

Google будет включать сайт, который заблокирован в robots.txt, если на него ссылается достаточное количество страниц, даже если они не сканировали URL-адрес.

Вы можете войти в Search Console и найти все ссылки, которые, по их словам, указывают на ваш сайт. Вы также можете использовать такие инструменты, как CognitiveSEO или Ahrefs, Majestic или Moz и т. Д., И собрать все эти сайты, чтобы найти ссылки на ваш сайт и включить их в файл отклонения, который вы помещаете в Search Console, и сказать Google, чтобы он игнорировал все эти ссылки на твой сайт.

Секретный бонусный метод. Включение директивы noindex в роботов

https://www.deepcrawl.com/knowledge/best-practice/robots-txt-noindex-the-best-kept-secret-in-seo/

Это позволяет вам управлять своими директивами noindex в файле robots.txt. Делает это проще, поскольку вы можете управлять всеми своими директивами noindex из центра и блокировать целые папки за раз. Это помешает Google сканировать И индексировать все страницы на одной странице, и вы можете просто оставить остальную часть сайта в покое и не беспокоиться о том, должен или не должен быть тег noindex на определенной странице.

Удачи!

Google Noindex Meta Tag может вызвать проблемы в электронной торговле

Джон Э Линкольн

Если вы полагаетесь на тег noindex, чтобы ваши продукты электронной коммерции не появлялись в результатах поиска, вам лучше прочитать на.

Есть способ получше.

В этой статье я повторю то, что недавно сказал Джон Мюллер из Google во время видеовстречи SEO Office Hours.

Мета-тег роботов

Тег noindex на самом деле не является тегом noindex.Это часть метатега robots.

Но оптимизаторы часто называют это тегом noindex для краткости.

Метатег robots, если вы не знакомы с ним, — это тег в разделе HTML, который предоставляет поисковым роботам информацию об индексировании страницы.

Мета-тег noindex роботов делает именно то, что вы думаете: он сообщает поисковым системам , а не , что нужно индексировать страницу. Это означает, что он не будет отображаться в результатах поиска.

Зачем вам это делать?

Если вы занимаетесь поисковой оптимизацией, вы можете спросить себя: «Зачем кому-либо мешать Google или другим поисковым системам индексировать страницу? В конце концов, весь смысл SEO состоит в том, чтобы страницы были хорошо проиндексированы и ранжированы.”

Обычно это так.

Но вернемся к названию статьи. Здесь я расскажу об электронной торговле.

Что происходит, когда вы запускаете сайт электронной торговли, а одного из товаров нет в наличии? Было бы здорово, если бы вы могли просто волшебным образом предотвратить появление этого продукта в результатах поиска.

Некоторые люди думают, что это можно сделать с помощью тега noindex.

Но это не лучший способ справиться с этим

Во время видеовстречи кто-то указал Мюллеру, что, когда его команда SEO переключается с noindex на index (что указывает на то, что товар снова в наличии), Google просто игнорирует директиву.Товар в наличии по-прежнему не отображается в поиске.

Мюллер ответил, что если Google видит, что страница электронной коммерции какое-то время находилась в состоянии noindex, то поисковая система рассматривает это как ошибку 404 (не найдено).

Таким образом, поисковому боту не нужно будет сканировать страницу так часто. Все дело в экономии ресурсов.

«Это то, где… колебания меты noindex здесь контрпродуктивны, если вы действительно хотите, чтобы эти страницы время от времени индексировались», — сказал он.

Итог: используйте метатег noindex только на страницах, которые никогда не хотите проиндексировать. Не пытайтесь переключаться между index и noindex на своем сайте электронной коммерции.

Что можно сделать вместо

Так как же поступать с товарами, которых нет в наличии, если у вас есть сайт электронной коммерции?

Пример отсутствующих товаров, отображаемых в конце страницы поиска

Один из способов — использовать страницы категорий. Используйте одну категорию для товаров на складе, а другую — для товаров, которых нет в наличии.

Затем покажите товары, которых нет в наличии, внизу страниц поиска. Кроме того, четко пометьте их как отсутствующие, чтобы не возникало соблазна щелкнуть по ним.

Вы также можете добавить раздел «Клиенты, также рассматриваемые» в верхней части страниц с товарами, которых нет в наличии. В этот раздел включите изображения и ссылки на похожие продукты.

Кто знает? Некоторым клиентам альтернативы могут понравиться больше, чем они думали.

Другое предложение: добавьте кнопку «Уведомление о наличии на складе» на страницу сведений о товарах, которых нет в наличии.Посетители, которые нажмут эту кнопку, увидят всплывающее окно с запросом адреса электронной почты.

Пример оповещения о наличии на складе

Затем вы можете отправить им электронное письмо, когда продукт станет доступен.

В качестве бонуса вы можете добавить их адреса электронной почты в свой список рассылки.

Завершение

Существует множество отличных способов справиться с отсутствием товаров в цифровом маркетинге электронной коммерции. Но использование метатега noindex — это , а не один из них.

Вместо этого ищите способы, чтобы ваши продукты оставались на страницах результатов поисковых систем, но при этом приносили пользу людям на вашем целевом рынке.

Использование Диспетчера тегов Google ДЛЯ применения тега NoIndex [8,3 / 10]

Раскрытие информации: когда вы совершаете покупку по ссылкам на нашем сайте, мы можем получать партнерскую комиссию.

Диспетчер тегов Google (GTM) позволяет быстро и легко управлять кодами отслеживания для вашего веб-сайта.В этом классе я покажу вам, как использовать ту же функцию …

Курсы Top Google Tag Manager:

CourseMarks Score® помогает студентам находить лучшие занятия.Мы объединяем 18 факторов, включая актуальность, отзывы студентов и разнообразие контента.

Этот курс последний раз обновлялся 5/2020.

Содержание курса может устареть довольно быстро. Проанализировав 71 530 курсов, мы обнаружили, что курсы с наивысшим рейтингом обновляются каждый год. Если курс не обновлялся более 2 лет, вам следует внимательно оценить курс перед зачислением.

Мы проанализировали такие факторы, как рейтинг и соотношение между количеством отзывов и количеством студентов, что является отличным признаком приверженности студентов.Если курс еще не имеет рейтинга, мы исключаем оценку обратной связи из общей оценки CourseMarks.

Новые курсы сложно оценить, потому что у них нет оценок студентов или их всего несколько, но оценка отзывов студентов помогает вам находить отличные курсы даже с меньшим количеством отзывов.

Курс включает 11-метровый видеоконтент. Курсы с большим количеством видео обычно имеют более высокий средний рейтинг. Мы обнаружили, что оптимальным вариантом являются 16 часов видео, которых достаточно, чтобы преподать тему всесторонне, но не ошеломляюще.Курсы более 16 часов видео получают максимальную оценку.

Средняя продолжительность видео составляет 2 часа 24 минуты из 18 курсов Google Tag Manager на Udemy.

Лучший онлайн-курс содержит подробное описание курса, то, что вы узнаете, а также подробное описание инструктора.

Оценка дополнительного контента: 1.0 / 10

Тесты, упражнения, статьи и другие ресурсы помогают студентам лучше понять и углубить свое понимание темы.

Диспетчер тегов Google (GTM) позволяет быстро и легко управлять кодами отслеживания для вашего веб-сайта.

В этом занятии я покажу вам, как использовать ту же функцию для применения тега без индекса к вашему сайту.

Чтобы страницы не индексировались в поисковых системах, лучше этого не делать.

Вы узнаете
1) как установить GTM
2) почему вы можете захотеть использовать тег без индекса на некоторых страницах
3) как применить код
4) как использовать триггеры в GTM для запуска кода

Если вам нужна бесплатная 14-дневная пробная версия SEMrush Pro

Нажмите здесь

Следуйте инструкциям по настройке Диспетчера тегов Google на своем веб-сайте.После завершения курса опубликуйте ссылку на свой веб-сайт в области проектов класса и расскажите всем о тегах, которые вы настроили, а также о том, какие триггеры и переменные вы использовали.

Предварительных условий нет, любой может начать этот курс .. Этот курс также отлично подходит для новичков без каких-либо знаний о Диспетчере тегов Google.

Этот курс подходит для начинающих .

Сколько стоит курс «Использование Диспетчера тегов Google для применения тегов NoIndex»? Стоит ли оно того?

Вы можете записаться на этот курс с подпиской Skillshare, которая стоит 8 долларов в месяц, но вы начинаете с БЕСПЛАТНОЙ 7-дневной пробной версии .Вы также можете записаться на тысячи курсов по различным темам с подпиской, включая несколько курсов Диспетчера тегов Google.

Средняя цена 18 курсов Google Tag Manager на Udemy составляет 18,9 доллара.

Есть ли в курсе «Использование Google Tag Manager для применения тегов NoIndex» гарантия возврата денег или политика возврата?

У Skillshare нет гарантии возврата денег, но вы можете начать с бесплатной недельной пробной версии, чтобы учиться без риска.С подпиской вы можете загружать занятия на свой планшет или телефон с помощью приложения Skillshare.

Есть ли СТИПЕНДИИ по этому курсу?

На данный момент мы не смогли найти стипендию для использования Диспетчера тегов Google для применения тега NoIndex, но вы можете получить доступ к более чем 30 тысячам классов за 8 долларов в месяц на Skillshare, включая этот!

Кто инструктор? Пол Ловелл — ЖУЛЬНИК или НАДЕЖНЫЙ инструктор?

Пол Ловелл создал 1 курс, получивший 0 отзывов, в целом положительных.Пол Ловелл обучил 16 студентов и получил среднюю оценку из 0 отзывов. В зависимости от имеющейся информации, Пол Ловелл является НАДЕЖНЫМ инструктором.

Спикер и тренер консультанта по SEO

Привет, я Пол. Я работаю в сфере SEO более 10 лет. Я работал со многими крупными веб-сайтами электронной коммерции и со многими именами в Интернете. Я здесь, чтобы поделиться своими знаниями

Google говорит, что нельзя повторно блокировать страницы после того, как вы разрешили им сканировать, чтобы увидеть теги Noindex

Гэри Иллис из Google сказал, что это «глупая идея» повторно блокировать или повторно запрещать страницы после того, как вы разрешили им сканировать эту страницу, чтобы Google мог видеть теги noindex на этой странице.Прошу прощения за название этой истории, ее было сложно написать.

Это возникло, когда Гэри опубликовал свой PSA, в котором говорилось: «Ваше периодическое напоминание о том, что сканеры, которые подчиняются robotstxt, не увидят директиву noindex на странице, если указанная страница запрещена для сканирования». Затем Патрик Стокс ответил на вопрос, который он часто видит, в котором он сказал, что «популярная рекомендация в сообществах SEO в этой ситуации — разблокировать, позволить сканировать страницы, а затем снова заблокировать их. Для меня это не имеет смысла. .Вы закончите там, где начали ».

Гэри согласился с Патриком и сказал:« Да, я бы не стал повторно запрещать страницы после того, как они были просканированы ». Он добавил:« Это звучит как глупая идея ».

Все это сбивает с толку. Честно говоря, я не понимаю логики, я имею в виду, я вроде как понимаю, но какова цель? Неужели конечный результат так уж отличается?

SEO-специалисты установили страницу, чтобы блокировать сканирование через robots.txt, Google не будет его индексировать и не будет деиндексировать страницу. Но если вы установите тег noindex на странице, затем временно разрешите роботу Googlebot сканировать эту страницу, чтобы Google мог уловить этот тег noindex, а затем после того, как Google его обнаружит , затем вы возвращаете директиву disallow.Почему? Когда вы это сделаете, вы вернетесь в то же состояние, и тогда вам придется делать это снова и снова, просто чтобы повторить процесс.

Вот твиты:

ваше периодическое напоминание о том, что сканеры, которые подчиняются robotstxt, не увидят директиву noindex на странице, если указанная страница запрещена для сканирования.

по запросу https://t.co/i7ouMoqNT6, на который ответил @patrickstox pic.twitter.com/98NLF2twz1

— Гэри 鯨 理 / 경리 Illyes (@methode) 25 марта 2021 года

да, я бы не стал повторно запретить страницы после того, как они были просканированы.это звучит как глупая идея

— Гэри 鯨 理 / 경리 Illyes (@methode) 25 марта 2021 г.

Обсуждение на форуме в Twitter.

Обновление

: некоторые сомневаются в этом, и это помогает объяснить это, поэтому вот эти вопросы:

Я думаю, то же самое … если, наконец, они были деиндексированы, почему мы должны позволить Google тратить время на их сканирование ?

— Джанлука Фиорелли носит 😷. Будьте как Джанлука (@ gfiorelli1) 26 марта 2021 г.

Вот как ответил Патрик:

Тогда просто оставьте их заблокированными.Это ваши состояния / результаты.
1 = заблокировано, noindex = страницы проиндексированы
2 = разблокированы noindex = noindex
3 = заблокированы (снова) noindex = 1. Зачем переключаться обратно? Страницы снова будут проиндексированы.

— Патрик Стокс (@patrickstox) 26 марта 2021 г.

Можете ли вы использовать Javascript / GTM для добавления тега Noindex Meta Robots?

Ранее в этом месяце Google опубликовал новый документ по основам JavaScript для SEO.

Понимание основ JavaScript SEO @ Портал разработчиков Google (внешняя ссылка)

Руководство было создано Мартином Сплиттом и Лиззи Харви из Google.

Вопрос о BigSEO о том, можно ли использовать Диспетчер тегов Google (GTM) для добавления метатега роботов на страницы, был недавно отправлен, и одна область, которую руководство охватывает с использованием JavaScript для добавления или изменения мета-роботов теги — поэтому мы посмотрели на новые ресурсы для ответа.

Когда робот Googlebot встречает «noindex» в метатеге robots, он не отображает и не индексирует страницу.

Использование JavaScript для изменения или удаления метатега robots может не работать должным образом.Робот Googlebot пропускает рендеринг и выполнение JavaScript, если метатег robots изначально содержит noindex. Если вы хотите использовать JavaScript для изменения содержимого метатега robots, не устанавливайте значение метатега на «noindex».

Из этого мы можем сделать вывод, что можно добавить на страницу метатег / атрибут robots, если на странице еще нет тега noindex robots — потому что в этом случае Google не будет отображать или индексировать URL В первом случае.

Получите профессиональную помощь в поисковой оптимизации

Будьте сайтом №1 в своей отрасли

Мы хотели быть уверены в этом на 100%, поэтому отправили отзыв в Google через Twitter, чтобы документация была немного понятнее.

Барри Шварц из Search Engine Roundtable направил отзывы непосредственно Мартину и Лиззи.

Мартин Сплитт ответил, подтвердив, что эта интерпретация верна — что да, можно добавить или изменить метатег роботов, если на странице еще нет метатега noindex для роботов.

Спасибо, отличный отзыв! Мы проясним это. Вы можете использовать JS (также без jQuery) для добавления или изменения метатега robots. Исключением является использование JS для изменения тега, когда он изначально был «noindex», потому что тогда рендеринг пропускается.

Спасибо, отличный отзыв! Мы проясним это. Вы можете использовать JS (также без jQuery) для добавления или изменения метатега robots. Исключением является использование JS для изменения тега, когда он изначально был «noindex», потому что тогда рендеринг пропускается.

— Мартин Сплитт (@ g33konaut) 26 июля 2019 г.

Итак, если вы ищете ответ на вопрос, действительно ли невозможно сделать это через JavaScript или GTM, теперь у вас есть четкий ответ — но все же следует учитывать, что добавление атрибутов мета-роботов через JavaScript не обязательно является хорошей идеей.

Google теперь подтвердил, что они будут пытаться соблюдать директиву при определенных обстоятельствах, если она будет найдена в JavaScript, но это « может работать не так, как ожидалось, », и всегда следует учитывать, что Google — не единственная поисковая система.

Обновление (13 августа 2019 г.): Google обновила документ JS SEO Basics, включив в него четкое заявление об использовании мета-индекса JS с кодом noindex и пример.

Напрямую из документации:

Вы можете запретить роботу Googlebot индексировать страницу или переходить по ссылкам с помощью метатега robots.

Также на странице включен пример использования, при котором мета-тег noindex предоставляется через JS после того, как API не может предоставить ответ.

Предупреждение тега Noindex для страницы конфиденциальности? — Форум новостей и обсуждения Google SEO на WebmasterWorld

Модератор этого форума из США

присоединился: 11 нояб.2000 г.
сообщений: 12649
голосов: 575


Это как для JS_Harris , так и для JorgeV ….

Мое выделение добавлено …

Таким образом, сканер знает, что страница существует, знает ее содержимое, он просто не включает страницу в поисковую выдачу. Итак, Google и другие поисковые системы, , могут отлично рассмотреть содержание страницы , чтобы оценить авторитет сайта, это не связано с его неиндексированием.
JorgeV, я думаю, вы можете спутать здесь noindex с nofollow. Когда есть тег noindex, учитывая, что noindex должен быть наиболее закрытым типом страницы для поиска, который вы можете использовать в Интернете, я не верю, что Google просто «просто» идет вперед и оценивает страницу, но не показывает ее. .

У меня здесь нет внутренней строки с Ларри Пейджем, но я предполагаю, что, в любом случае, с помощью «noindex» Google не анализирует содержимое страницы.

Теперь ваша характеристика вполне может быть верной для «nofollow» … где они предупредили всех за много месяцев, что собираются нарушить свое заявление «даже не для открытия» , которое они сделали давно, и изменить природа того, что они могут обнаружить … но «noindex» немного отличается.

Тем не менее, Джон Мюллер объявил, что они также меняют трактовку «ноиндекса»… но больше похоже на то, чтобы сделать давно неиндексируемую страницу просто выпадать из пауков, за исключением случая, когда они обрабатывают 404. См. наше обсуждение на форуме здесь …

Google в конечном итоге перестанет следовать ссылкам на страницах Noindex
Dec , 2017
https://www.webmasterworld.com/google/4881752.htm [webmasterworld.com]

Здесь есть своего рода парадокс, который я немного обсуждаю в конце вышеупомянутой цепочки. Обратите внимание, что в OP потока этот комментарий…

Джон Мюллер сказал, что Google в конечном итоге перестанет переходить по ссылкам со страницы, на которой нет индекса.
Под словом «в конце концов» я должен отметить намерение движка использовать это слово (британское употребление): если страница не проиндексирована достаточно долго, Google перестанет переходить по ее ссылкам. Это не означает, что «когда-нибудь в будущем Google планирует» прекратить переход по ссылкам. Это говорит о том, что Google проанализировал страницу достаточно, чтобы увидеть, что есть ссылки … и это также подразумевается с использованием тега, что Google проанализировал страницу достаточно, чтобы увидеть, что в разделе заголовка есть атрибут тега noindex robots. .

Я предполагаю … и это предположение … что для всех неиндексированных страниц (которые не были заблокированы robots.txt) Google просмотрел страницу достаточно, чтобы увидеть метатег robots, а затем также посмотрел для ссылок в HTML, но не обращал внимания на текстовое содержимое. Опять предположение.

Роботы «noindex» по умолчанию используют роботов «noindex, follow». Теперь обработка такова, что фактически по умолчанию используется «noindex, nofollow».

Почему я трачу на все это? Из-за того, что я думал выше о неиндексированных страницах, «они не анализируют содержимое страницы» .. Здесь я чувствую, что Google действительно хочет оценить содержимое страницы конфиденциальности, чтобы они знали, без ручной проверки, соответствует ли она их руководящим принципам, поэтому им действительно нужно проанализировать контент.

Это не значит, что они хотят ранжировать страницу … это очень маловероятно. Но они делают … Я предполагаю … хочу, чтобы кто-то мог выполнять «навигационный поиск» по запросу вроде …

[страница конфиденциальности названия компании]

.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *