Как вручную переиндексировать страницу сайта
Продвижение сайтов
Иногда возникают такие ситуации, когда надо поскорее сообщить поисковой системе об улучшении или изменении содержимого страницы: структуры, оптимизации или контента. Для этого у каждой поисковой системы есть свои инструменты, позволяющие принудительно пригласить поискового робота, чтобы он просканировал конкретный url. Для использования этих инструментов обязательно должны быть подтверждены вебмастера поисковиков. Особенностью их является то, что они помогают ускорить индексацию страниц только того сайта, владение которым верифицировано.
Переиндексация страниц в Google
В Google это можно сделать в разделе Сканирование – Посмотреть как Googlebot. В последней версии вебмастера есть возможность выбрать, какую версию страницы нужно сканировать:
- десктопную для ПК;
- мобильную для смартфонов.
Также есть возможность выбрать тип сканирования:
- “Сканировать” – это быстрое сканирование для получения кода ответа http страницы без обращения к ресурсам страницы;
- “Получить и отобразить” – это полное сканирование страницы с получением кода ответа http, загрузкой контента, скриптов и изображений.
После того как вебмастер “получил и отобразил” страницу, её можно отправить на переиндексацию двумя вариантами:
- сканировать только указанный url;
- сканировать указанный url и все прямые ссылки с него.
В новой версии Search Console Google адрес страницы достаточно вставить в поле проверки URL.
Больше о возможностях вебмастера Google можно узнать на SEO курсах.
Переиндексация страниц в Яндексе
В Яндексе тоже доступна процедура принудительного вызова робота, для этого нужно зайти Индексирование – Переобход страниц.
У Яндекса нет такого расширенного функционала для ручной отправки страниц на переиндексацию. Здесь вы просто в столбец указываете все нужные страницы и отправляете. Когда робот их переобойдёт, в отчёте ниже это будет указано.
У Яндекса есть ограничение в 20 страниц в день.
Комплексная раскрутка сайтов в Днепре доступна по контактам внизу страницы.
Аддурилка – добавление новых страниц в поиск Яндекс и Google
Аддурилка (адурилка) – устоявшееся в среде SEO-оптимизаторов жаргонное название, которое происходит от фразы «add URL» – добавить URL. Означает инструменты поисковых систем Яндекс и Google, позволяющие принудительно добавить страницы сайта в поисковую базу (принудительная индексация страниц).
Точнее, есть два момента:
-
В свою базу поисковая система добавляет страницы сама после их обхода своими роботами, что происходит регулярно, но с определёнными интервалами. Аддурилка же даёт поисковым роботам сигнал о том, что указанную веб-страницу надо проиндексировать быстро – в приоритетном порядке.
-
Если страница имеет глубокий уровень вложенности (больше 3), поисковики могут просто её проигнорировать при обходе сайта: слишком глубоко. Аддурилка же позволяет гарантированно направить поисковые роботы на эти страницы – «загнать» страницы в поиск.
Добавить страницу в Яндекс
В вебмастере Яндекса (Яндекс.Вебмастер) аддурилка – это инструмент «Переобход страниц», расположенный в разделе «Индексирование». Он используется как для добавления новых, так и для ускоренной переиндексации старых страниц, если на них изменился контент.
Если Вы только запускаете сайт, т.е. недавно сформировали на нём xml-карту (общ. назв. – sitemap.xml) или добавили новую xml-карту (их может быть несколько), то эту(и) карту(и) также следует указать для поисковой системы, т.к. это в целом файл(ы), в котором(ых) как раз и отражён перечень страниц сайта, предназначенных для индексации. Указывать карту следует, если она содержит новый URL (страницу), предназначенный для индексации. В Яндекс.Вебмастере это делается с помощью инструмента «Файлы Sitemap» в разделе «Индексирование». При переиндексации нового контента на старой странице указание xml-карты не требуется, т.к. URL страницы остаётся прежним, т.е. уже присутствует в ранее указанной для поисковика xml-карте.
Добавление страниц в аддурилку также помогает защитить контент от воровства. Точнее, физически от воровства контент аддурилка не защищает. Но приоритетная индексация с помощью аддурилки закрепляет за сайтом оригинальность контента. Если аналогичный контент позже появится на другом сайте, он уже будет признан поисковой системой как дубль и не получит высокие позиции (может наоборот получить санкции, т.е. понижение позиций в выдаче). Не во всех случаях это 100%-но срабатывает, но в целом является полезным инструментом.
В Яндекс.Вебмастере существует ещё один инструмент для защиты контента от воровства – «Оригинальные тексты». Он расположен в разделе «Информация о сайте». В поле этого инструмента вставляются текстовые блоки с сайта (изображения и прочий медийный контент не учитываются). То есть в данном случае нет привязки контента к конкретному URL, а также Яндекс не гарантирует, что контент 100%-но закрепится за сайтом как авторский. Видимо, разработчики сделали этот инструмент как страховочный. Но использовать его также рекомендуется – вместе с другими инструментами индексации контента.
То есть стандартно при создании новой страницы сайта следует добавить её URL в аддурилку («Переобход страниц»), если нужно – указать xml-карту («Файлы Sitemap») и указать Яндексу свежий текстовый контент страницы («Оригинальные тексты»).Инструмент «Переобход страниц» позволяет индексировать страницы по одной. Для ускоренной массовой индексации страниц следует воспользоваться инструментов «Файлы Sitemap».
Добавить страницу в Google
На данный момент (декабрь 2018) вебмастер Гугла (Google Search Console) работает в двух версиях – старой и новой. В обеих есть два инструмента принудительной (пере)индексации страниц.
Первый инструмент – это сервис «Просмотреть как Googlebot», расположенный в разделе «Сканирование». В нём задаётся URL страницы, указывается формат (ПК или мобильный), и выбирается одна из двух опций: «Сканировать» или «Получить и отобразить». При «Сканировании» вебмастер прочитает и отобразит HTML-код страницы, как его видит поисковая система. Опция «Получить и отобразить» выдаёт снимки страницы, как её видит система (Googlebot) и посетитель. В обоих случаях после обработки запроса появляется дополнительная опция «Запросить индексирование».
Массовая индексация страниц в старой версии Google Search Console делается с помощью инструмента «Файлы Sitemap», находящегося в разделе «Сканирование». Этот инструмент аналогичен одноимённому инструменту Яндекс.Вебмастера (см. выше).
В новой версии Google Search Console аддурилка представлена инструментом «Проверка URL». При выборе этого инструмента появляется поле, в которое следует ввести адрес страницы. После обработки запроса появится опция «Запросить индексирование». Данный инструмент может использоваться для принудительного индексирования как новых, так и старых страниц, если на них изменился контент. То есть он аналогичен инструменту «Переобход страниц» Яндекс.Вебмастера (см. выше).
В новой версии Google Search Console также сохраняется инструмент пререобхода и добавления xml-карт(ы), который имеет прежние функционал и название – «Файлы Sitemap».
Замечания
-
При принудительном добавлении страниц в поисковую систему следует убедиться, что эти страницы доступны для индексации в файле robots.txt. Яндекс.Вебмастер и Google Search Console предоставляют специальные инструменты для проверки данного файла, его обновления и проверки доступности в нём отдельных страниц сайта.
-
Действия с сайтом через Яндекс.Вебмастер и Google Search Console может выполнять только администратор сайта, который изначально должен добавить веб-ресурс в эти сервисы (подтвердить права на сайт).
Вышеописанные вопросы касаются поискового продвижения сайтов (SEO), в котором существует немало других вопросов – порой достаточно сложных и требующих хорошей экспертизы. Если у Вас стоят задачи по эффективному продвижению вашего сайта в поисковых системах, или имеются отдельные вопросы по SEO, мы рекомендуем Вам обращаться в нашу компанию. Мы окажем Вам любую помощь вплоть до комплексного продвижения Ваших веб-ресурсов.
Заказать поисковое продвижение
Неуникальными карточки товаров и что с ними делать?
Что делать с неуникальными карточками товаров: прятать или улучшать?Конкуренция среди интернет-магазинов с каждым годом растет. Но несмотря на это, ассортимент у них схож: одни и те же товары, характеристики к ним и даже описание. Например, информация о смартфоне Samsung A51 на разных сайтах:
Как видите, тексты практически идентичные. Ладно, само описание можно подкорректировать и добавить уникальности, но технические характеристики уникализировать никак не получится. Поэтому у владельцев сайтов возникает вопрос – не накажут ли поисковые системы за подобный контент и что вообще делать с такими карточками товаров?
Руководитель отдела PR агентства 1PS. RU Ксения Захарова рассказала, как уникализировать карточки товаров и дала 4 полезных совета владельцам интернет-магазина (и тем, кто пишет карточки).
Отношение поисковиков к неуникальным карточкам товаровНа самом деле поисковые системы понимают, что невозможно сделать карточки товаров полностью уникальными, поэтому серьезных санкций для сайта не будет.
Например, Яндекс просто исключает из индекса карточки, которые не проходят по уникальности, и присваивает им статус в Яндекс.Вебмастер как «Малоценная и маловостребованная страница». Если увидите у себя данную пометку, то такие страницы необходимо уникализировать, чтобы Яндекс вернул их в поиск.
Чтобы посмотреть, какие страницы попали под алгоритм, достаточно зайти в Яндекс.Вебмастер, затем на вкладку «Индексирование» и выбрать «Страницы в поиске».
После переходим на вкладку «Исключенные страницы» и настраиваем фильтрацию по статусу «Малоценная и маловостребованная страница».
После того, как поработаете над неуникальными страницами, отправьте их на переиндексацию. Это можно сделать в разделе «Индексирование», далее «Переобход страниц».
В Google дела обстоят по-другому. Прямого указания на то, почему страница была исключена из поиска из-за неуникального контента, вы не найдете. Максимум, что увидите – это статус в Google Search Console, что она обнаружена, но не проиндексирована, или страница просканирована, но пока не проиндексирована.
Но по итогу Гугл также с пониманием относится к неуникальным карточкам товаров.
С восприятием неуникальных карточек товаров поисковиками разобрались, теперь можно перейти к вариантам решения проблемы. И начнем мы не с лучших способов.
Стоит ли прятать неуникальные карточки товаров?- Использовать тег <meta name=»robots» content=»noindex,nofollow» />
Данный тег позволяет закрыть от индексации неуникальные страницы. Но это не выход, так как поисковые роботы не будут видеть страницу, а значит, и товар не смогут найти пользователи.
Как минимум такие необдуманные действия грозят тем, что вы потеряете львиную долю трафика на свой сайт. Поэтому если у вас большое количество товаров, описание которых было взято с сайта производителя, то этим вариантом лучше не пользоваться.
- Использовать тег <noindex>
Данный тег помогает спрятать часть текста от поисковых роботов. Он был предложен Яндексом в качестве альтернативы атрибуту nofollow. Но минус в том, что полностью игнорируется Google. Поэтому получается, что Гугл этот текст все равно проиндексирует.
Давайте немного разберемся, как это работает. В коде страницы, если мы укажем текст между тегами и , то поисковые роботы Яндекса проиндексируют ее, но этот текст не будет ими учтен.
Пример:
<noindex> текст, который мы хотим скрыть от поисковика </noindex>
Но обращаем внимание еще раз, что данный тег учитывает только Яндекс. Все остальные поисковые системы его полностью игнорируют. Из-за этого при валидации может возникнуть ошибка. Чтобы этого избежать, стоит прописать тег в следующем виде:
<!—noindex—>текст, который мы хотим скрыть от поисковика <!—/noindex—>
- Отказаться от контента
И такое тоже бывает. Некоторые владельцы сайта думают, что нет контента, а значит, нет и проблем. Но это в корне неверно.
Тексты на сайте в первую очередь нужны пользователям, чтобы понимать, что они приобретают, какими характеристиками обладает товар и чем вообще одна модель отличается от другой. И если на сайте нет текстов, то о покупке речи быть не может, ведь потребителю проще уйти к конкуренту, чем покупать кота в мешке.
После того как разобрались с вредными советами, можно перейти к способам уникализации карточек товаров.
Как сделать карточку товара уникальной?Совет №1. Писать уникальные текстыПонимаю, что на такое заявление хочется сказать только «Спасибо, Кэп». Однако это одно из лучших решений. Да, технические характеристики вы не сможете придумать и уникализировать, но все остальное – вполне.
Такой совет будет рабочим, если у вас в интернет-магазине не так много товаров, но если их количество переваливает за тысячи, то ручками тут уже уникальное описание не попишешь. Чтобы решить эту проблему, специалисты используют маски товаров внутри CMS или размножают текст для определенной категории продукции.
Помимо этого, рекомендуем оптимизировать Title и h2. Можно прописывать модель, цвет, технические характеристики, артикул и другие параметры. Самое главное, чтобы информация смотрелась гармонично и давала пользователю представление о товаре.
Чтобы написать привлекательное описание для своего товара, сделайте следующее:
-
Определите целевую аудиторию и подумайте, почему она должна купить ваш продукт
-
Выделите достоинства товара перед другими моделями и постарайтесь их описать. Здесь можно даже покреативить и придумать что-то новенькое и необычное.
Если сделать уникальное описание никак не получится, то используйте дополнительные блоки в карточке товаров. Например, такие:
-
С этим товаром покупают
-
Похожие товары
-
Смотрите также
-
Возможно, вас заинтересует
-
Рекомендуем набор
Так вы разбавите неуникальный текст, к тому же блоки положительно влияют на конверсию сайта, на поведенческие факторы и позволят сделать допродажи. Поэтому пренебрегать этим разделом ни в коем случае не стоит.
Совет №3. Отзывы, комментарии и вопросыДайте возможность пользователям делиться своим мнением о товаре. Отзывы – это тоже контент, и контент уникальный. И если люди напишут комментарий к вашему товару, то это будет только плюсом при ранжировании.
Еще у отзывов есть дополнительное достоинство, которое влияет на продажи – это доверие. Чем больше положительных оценок товара, тем больше доверие к продукту у потенциальных покупателей.
Но стоит отметить, что если у вас на сайте отзывы подгружаются через сторонние сервисы, то толку от них никакого не будет. Дело в том, что поисковые роботы не увидят комментарии, так как они по факту принадлежат сервису, а не самому сайту, где размещен отзыв.
Что касается блока вопросов, то он тоже весьма полезный. Позволяет создавать дополнительный контент, который бы раскрыл преимущества товара. Смотрите сами: посетитель сайта задает свой вопрос, а менеджер или другие пользователи отвечают на него и рассказывают о самом продукте. Таким образом получается произвольная генерация контента.
Совет №4. Дополнительная информацияБезусловно, делать уникальное описание товара довольно сложно, поэтому стоит разбавить текст такими блоками, как:
Это позволит сделать карточку товара более уникальной.
Стоит отметить, что эта информацию нужна не только для того, чтобы уникализировать карточку товара, но и для того, чтобы у пользователя не осталось вопросов о схеме и сроках получения своего заказа. Чем будет больше информации о нюансах работы, тем лучше.
ВыводУникализация контента – дело непростое и весьма трудозатратное. Но несмотря на то, что от поисковиков сайт не получит страшных санкций, вы можете потерять трафик на определенные позиции. Это не критично, но есть большой минус – если этот товар на рынке популярен, а карточка вылетела из поиска, то ваш продукт пользователи просто не найдут в выдаче. Отсюда получается следующее: нет трафика – значит, нет и продаж.
Поэтому если вы не хотите, чтобы подобное произошло, поработайте над уникальностью контента за счет описаний, дополнительных блоков и других фишек, которые мы описали в статье. К тому же это будет полезно для конверсии, поведенческих факторов, а также может косвенно повлиять и на средний чек заказа.
как добавить, проверить, исправить ошибки
Вы решили создать сайт. Выбрали перспективную тематику, придумали доменное имя и развернули ресурс на хостинге. Что делать дальше? Следующий шаг — добавление сайта в Google и Яндекс. Это очень важно, поскольку пока о сайте не узнают поисковые роботы, пользователи не смогут находить вас через поиск. Ресурс будет нормально работать, но не сможет получать самое ценное — органический трафик.
Забегая вперед отметим, что первые полгода-год рассчитывать на поток органики нет смысла. Молодой сайт по умолчанию попадает в песочницу и его видимость в поиске ограничена. Больше о том, что такое песочница и как из нее быстрее выйти — читайте здесь.
В добавлении в индекс нет ничего сверхсложного. Если коротко: нужно создать учетные записи в вебмастерках Google и Яндекса и подтвердить в них права на владение сайтом; далее создаем карту сайта в xml-формате и забрасываем ее в соответствующие разделы каждого из сервисов. Теперь наглядно и более детально, как это делать. По ходу дела будем давать ответы на самые животрепещущие вопросы, возникающие у новичков.
Вам также может быть интересен наш курс молодого seo-бойца, как создать и по-белому продвинуть сайт, имея скромный бюджет:
Выбираем тематику, оцениваем перспективность ниши, анализируем конкурентов, собираем семантику
Проводим стартовые работы по внутреннему и внешнему SEO
Индексируем сайт в Google
Основной способ добавить ресурс в поиск Google — сделать это посредством Google Search Console. Вы можете встретить и другие варианты, но связываться с ними мы бы категорически не советовали, ниже расскажем почему.
Google Search Console — это бесплатный сервис для вебмастеров, через который отслеживают все жизненно важные параметры сайта в поисковой системе Google. О назначении и основных фишках консоли можно почитать здесь. Ну, или просто поверьте на слово, что привязка сайта к этому сервису — мастхэв для любого вебмастера, конечно, если вы не намерены пренебрегать трафиком из Гугла.
Подтверждаем права на сайт в Google Search ConsoleДля начала вам понадобится — аккаунт в Google. Он создается за пару минут здесь. Далее переходим на страницу сервиса и привязываем к нему свой сайт. Но сначала нужно пройти верификацию, что вполне логично, т.к. система должна убедиться, что права на сайт принадлежат вам.
Так приветствует Search Console. Начинаем верификацию. Мы покажем самый популярный (да, он не один) способ подтверждения прав — с помощью DNS.
Сначала указываем сайт. Можно ввести либо просто доменное имя (слева), либо URL ресурса (справа). Подробные подсказки даны в каждом из полей.
Прописав имя сайта, и нажав продолжить, появится окно с перечнем вариантов, каким именно способом вы желаете подтвердить права на сайт. Выбираем «Добавление записи DNS в конфигурацию домена». Вам будет доступно окно, изображенное на скриншоте. Сгенерированная TXT-запись – это персональный ключ верификации, который нужно добавить в конфигурацию DNS домена в панели управления хостингом.
Давайте посмотрим, как это сделать на примере самой популярной панели управления веб-хостингом cPanel. В блоке «Домены» переходим в Zone Editor, выбираем нужный домен (если он не один) и нажимаем «Управлять».
Откроется новое окно.
В нем еще раз выбираем интересующий нас домен (в поле «имя»), а в графу «запись» вводим скопированный TXT-ключ. Нажимаем «Добавить запись».
Права на сайт подтверждены, но нужно подождать несколько часов пока обновится DNS.
Есть и другие способы подтверждения прав в Google Search Console. Возможно, они и несколько сложней для новичков, но хороши тем, что позволяют пользоваться консолью сразу после верификации. Это может быть удобно, когда по каким-то причинам нет времени ждать обновления DNS. Подробно об остальных способах верификации — читайте в справке Google.
Отправляем запрос на индексированиеПосле того как мы добавили сайт в вебмастерку и прошли верификацию, отправляем запрос на индексирование. Для этого:
1. Переходим во вкладку «Проверка URL».
2. В поисковой строке консоли вбиваем адрес ресурса (или новой страницы).
3. Запрашиваем индексирование.
Если указанный URL доступен для сканирования поисковыми роботами (их также называют краулерами), страница попадает в очередь на индексирование, о чем вас уведомят следующим сообщением.
Но это еще не все.
Создаем и добавляем sitemap.xmlЧтобы помочь краулерам Google корректно проиндексировать сайт, в вебмастерку необходимо загрузить карту сайта. Начинающие вебмастера почему-то думают, что это очень сложно. Расслабьтесь, это не так. Все просто, но давайте по порядку. Sitemap.xml — это список XML-документов, в которые вшиты служебные данные. Вся эта информация — своего рода ориентиры, необходимые поисковым системам для удобной и эффективной индексации всех страниц сайта.
Выглядит sitemap.xml вот так:
Сгенерировать sitemap.xml можно при помощи специальных программ и даже онлайн-сервисов. С сайтами на WordPress, все еще проще: можно использовать плагины Yoast или Google XML Sitemaps, которые сделают большую часть работы сами.
Сгенерировав файл sitemap.xml, далее его нужно загрузить на сервер. Обратите внимание, это актуально, если вы создавали карту сайта с помощью сервисов или программ. В cPanel это делают через «Диспетчер файлов», доступный в блоке «Файлы» на стартовой странице.
Если использовались плагины для WordPress, файл sitemap.xml подтянется на сервер автоматически.
Остался финальный аккорд — забрасываем карту сайта в соответствующий раздел Google Search Console: Индекс → Файлы Sitemap
Добавляем Sitemap и нажимаем отправить
Об альтернативных способах индексированияНа форумах вебмастеров можно встретить дискуссии, на тему альтернативных способов отправки страниц в индекс. Например, многие оптимизаторы уверены, что если прогрузить в браузере Google Chrome главную или новые страницы сайта, они автоматически залетят в гугловский индекс. Или, что если добавить на непроиндексированные страницы код счетчика Google Analytics, поиск автоматически получит информацию о появлении новых документов, которые необходимо просканировать.
Эти способы, не требующие практически никаких усилий, могут показаться привлекательными для начинающих вебмастеров. Но связываться с ними мы бы категорически НЕ рекомендовали. Нет убедительных оснований считать, что Google Chrome и GA каким-либо образом влияют на индексирование страниц. Это подтверждено, в том числе, экспериментально1. В самом Google также никогда официально не высказывались на этот счет.
Поэтому пользуйтесь только общепризнанным алгоритмом добавления в индекс Google. Еще раз, теперь уже вкратце, подытожим, что нужно делать:
- Создаем аккаунт в Google и добавляем свой сайт в Search Console.
- Подтверждаем права на сайт. Самый простой способ — с помощью DNS.
- Отправляем запрос на индексирование.
- Создаем файл sitemap.xml и добавляем его сначала на сервер, а затем в соответствующий раздел консоли. Если sitemap генерировался через плагины WordPress, загрузка на сервер не нужна.
Добавляем сайт в поиск Яндекса
Чтобы страницы нового сайта начали отображаться в поиске Яндекса их также нужно добавить в индекс. Механика процесса идентична поисковой системе Google. Добавление ресурса в поиск осуществляют через консоль Яндекс.Вебмастер. При этом есть и другие способы (о них мы расскажем ниже), но наиболее рабочим считается именно этот. Возможности вебмастерки Яндекса в целом аналогичны Search Console. Более подробно об этом сервисе можно почитать здесь.
Добавление в Яндекс.Вебмастер и подтверждение прав на сайтДля привязки сайта к вебмастерке понадобится учетная запись в Яндексе. Если она есть, что вероятнее всего, т. к. многие пользуются почтой и другими яндексовскими сервисами, переходим сюда и указываем адрес сайта.
Как и в случае с гугловской консолью, дальше нужно пройти верификацию и подтвердить права. Сделать это можно по-разному:
- создав HTML-файл с уникальным идентификатором, и поместив его в корневой каталог сайта;
- разместив в HTML-коде главной страницы специальный метатег;
- добавив DNS-запись с идентификатором;
- подтвердив электронный адрес из WHOIS-записи (этот способ не рекомендуется даже самим Яндексом).
Для подтверждения прав удобнее всего использовать первый способ — через HTML-файл. Указав сайт и перейдя во вкладку, отмеченную на скриншоте, система сгенерирует файл с уникальным именем и содержимым. Его нужно скачать и разместить в корневом каталоге сайта. Далее проверяем, что файл открывается по указанной ссылке. Нажимаем кнопку «Проверить». Если все сделано правильно, панель инструментов слева станет кликабельной.
После верификации и получения доступа к функционалу вебмастерки, выполняем следующие действия.
Переходим во вкладку «Индексирование» → «Переобход страниц»
Добавляем главную страницу и основные разделы сайта — нажимаем «Отправить». Обратите внимание, в Яндексе установлен лимит на количество индексируемых страниц.
Все новые страницы, которые в дальнейшем будут добавляться на сайт, отправляют на переиндексацию по аналогичной схеме.
Дополнительно в Яндекс.Вебмастер необходимо добавить файл sitemap.xml. Здесь работает та же механика, что и в Google. Сначала необходимо создать саму карту. Если это сделано не через плагин — размещаем sitemap на сервере. Далее в разделе «Индексирование» → Файлы Sitemap вписываем в поле URL, по которому доступен файл. Нажимаем «Добавить».
После добавления файл будет какое-то время обрабатываться. Это происходит не быстро, и может занять до двух недель. По завершении обработки напротив файлов должен отображаться статус «OK». Если присутствует статус «Редирект», «Ошибка» или «Не проиндексирован», необходимо определить причину некорректной индексации, исправить ее, после чего сообщить роботам об обновлении.
Индексируем страницы через Яндекс.Метрику
Существует еще один способ сообщить краулерам Яндекса о новых страницах сайта — через Метрику. Этот вариант менее удобен, чем первый, но знать о нем вебмастеру не помешает. Для этого на сайте должен быть добавлен и настроен счетчик Яндекс.Метрики. В любом случае рано или поздно его придется добавить, конечно, если вы намерены серьезно заниматься продвижением своего проекта.
Итак, чтобы роботы Яндекса подтягивали сведения о новых страницах из данных Метрики, нужно разрешить обход страниц, на которых установлен счетчик. Для этого выполняем следующие действия.
Индексирование → Обход по счетчикам→ Обход «включен»
Активировав эту опцию, во вкладке Привязка к Яндекс.Метрике отобразится статус «Связан с сайтом в Вебмастере».
Настройки → Привязка к Яндекс.Метрике
Сколько ждать попадания в индекс?
В индекс Google новый сайт залетает в среднем спустя неделю. В Яндексе — это может занимать до двух недель. Эти сроки актуальны, если на сайте не создано никаких препятствий для обхода поисковыми роботами. Важно понимать, попадание в индекс не означает, что страницы со старта получат высокие позиции в поиске. В первое время, скорее всего, они будут на задворках выдачи — на второй-третьей странице. И только постепенно начнут укреплять свои позиции. Также они могут вовсе не отображаться по основным поисковым запросам (находясь при этом в индексе). Второй сценарий больше актуален для молодых сайтов, пребывающих в песочнице.
Как быстро проверить индексацию?
Узнать, попал ли сайт в индекс, вы можете по-разному. Основной способ — через панель вебмастера.
В Google SC сведения представлены в отчете Индекс → Покрытие. Количество страниц, попавших в индекс, доступно в зеленой графе.
Здесь же красным цветом будет отображаться количество страниц с ошибками. Перейдя по вкладке, можно ознакомиться с расширенным отчетом: что конкретно за ошибка и когда она была обнаружена.
В яндексовской вебмастерке интересующая нас информация находится в разделе Индексирование → Проверить статус URL.
Перейдя в отчет «Страницы в поиске» можно ознакомиться со всеми проиндексированными страницами, посмотреть их распределение по разделам, узнать, что исключено из индекса.
Второй способ быстро проверить индексацию в Google и Яндексе — через операторы расширенного поиска. Вбиваем в поисковую строку команду site:+название домена, и получаем сведения о количестве страниц в индексе.
Аналогичным образом можно проверить не только весь сайт, но и конкретную страницу. Для этого вместо доменного имени достаточно ввести URL нужной страницы.
Найден один результат — страница в индексе
Аналогичным образом оператор работает в выдаче Яндекса.
Вообще, операторы расширенного поиска — очень полезная и недооцененная штука. Больше о том, какую пользу они могут принести сеошникам и вебмастерам — читайте здесь.
Почему не индексируется ресурс?
Прошло недостаточно времени. Владельцам новых сайтов, нужно запастись терпением. Нередко попадание в индекс растягивается больше, чем на две недели.
Не добавлена карта сайта. Если вы решили проигнорировать sitemap.xml, возвращайтесь наверх и читайте, как это исправить.
Запрет на индексацию в файле robots.txt. Некоторые страницы сайта советуют закрывать от индексации. Это делают через прописывание специальных директив в служебном файле robots.txt. Здесь нужно быть предельно аккуратным. Лишний символ — и можно закрыть то, что должно быть доступным для поисковых роботов. В этом случае будут проблемы.
Ошибка с метатегом “robots”. Этот элемент кода сообщает поисковым краулерам о запрете на индексацию страницы. Он помещен между тегами <head> </head>, и выглядит следующим образом:
Метатег может появиться там, где не нужно. Часто это случается при изменении настроек движка или хостинга.
Запрет на индексацию в файле .htaccess. В этом файле прописаны правила работы сервера, и через него также можно закрыть сайт от индексирования.
Тег rel=”canonical”. Этот тег используют на страницах с дублированным содержимым, указывая с его помощью поисковым роботам адрес основного документа. Если страницы не попадают в индекс, причиной может быть наличие этого тега.
X‑Robots-Tag. В файле конфигурации сервера может быть прописана директива X Robots-Tag, запрещающая индексирование документов.
Долгий или неверный ответ сервера. Критически низкий отклик сервера создает сложности поисковым роботам при обходе сайта, из-за чего часть страниц может не залететь в индекс.
Некачественный контент на страницах. Плагиат, дубли, ссылочный переспам, автоматически сгенерированные тексты — все это также создает потенциальные риски.
Как видим, причин, по которым возможны проблемы с индексированием, довольно много. Но не переживайте, все это не нужно тестить вручную. Вебмастерки регулярно оповещают о возникших ошибках. Ваша задача — следить за уведомлениями в Яндекс.Вебмастере и Google Search Console и своевременно исправлять ошибки.
Можно ли индексировать пустой сайт? Или сначала лучше наполнить его контентом?
Мы отправили на индексацию не один десяток сайтов, и убедились, что особой разницы нет. Если сайт новый.
Вы можете сделать 5-10 стартовых страниц, наполнить их контентом и забросить сайт на индексацию. А можете добавить сайт пустым, и не спеша наполнять его контентом. Это не должно отразиться на скорости и качестве индексирования. Конечно, если не растягивать наполнение этих 5-10 страниц на месяцы. А вот с чем можно повременить на первых порах — оттачивание дизайна, создание перелинковки, размещение виджетов и пр. Это не так принципиально, если вы не планируете сразу же лить рекламный трафик на сайт.
Что нужно, чтобы сайт попал в поисковики Яндекс и Google
Продвижение в поисковых системах по сей день остается одним из наиболее эффективных инструментов привлечения на сайт целевых клиентов. Огромный плюс органического трафика – его бесплатность. Чем больше людей заходит на страницы, тем выше конверсия и вероятность получить желаемый результат.
Рано или поздно поисковые роботы найдут ваш молодой ресурс, однако это может занять недели, а то и месяцы. Чтобы ускорить индексацию, целесообразно добавить сайт в поисковики самостоятельно с помощью специальных сервисов, также регулярно отслеживать процесс и использовать дополнительные ресурсы.
Яндекс.Вебмастер и Google Search Console – это сервисы, с помощью которых можно добавить ресурс в поисковые системы и видеть, как он сканируется поисковыми роботами. Они позволяют:
- видеть, как сайт индексируется в системах поиска;
- оценить трафик, в том числе с мобильных устройств;
- выявить проблемы с индексацией;
- проанализировать ссылочную массу;
- узнавать, какие источники ссылаются на ресурс.
Сервисы лишь показывают, как сайт представлен в результатах поиска, но не влияют на них. Далее рассмотрим подробнее, как настроить Вебмастер и Серч Консоль, и расскажем, каким образом можно влиять на индексацию.
Бесплатно проконсультируем, подготовим подробный медиаплан и коммерческое предложение в течение 1 дня по SEO-продвижению в Google и Яндекс. Обращаться по контактам.
Добавляем сайт в поисковую систему Яндекса
Добавить сайт в Вебмастере несложно, просто нажмите «Начать работу» и выберите на открывшейся странице «Добавить сайт».
Затем введите url (адрес) своего сайта, например, fireseo.ru
Вам интересны интернет-маркетинг и продвижение бизнеса в интернете? Подписывайтесь на наш Telegram-канал!Вторым шагом станет «Подтверждение прав на сайт». Яндекс. Вебмастер сам предложит вам 4 варианта подтверждения прав на ваш ресурс, среди которых:
- Мета-тег на главной странице: необходимо добавить в HTML-код главной страницы сайта (в элемент head) специальный мета-тег.
- HTML-файл в корневом каталоге: необходимо создать HTML-файл с заданным уникальным именем и содержимым, и разместить его в корневом каталоге сайта.
- TXT-запись в DNS: необходимо добавить в DNS записи сайта запись типа TXT, содержащую указанное уникальное значение.
- Электронный адрес из данных WHOIS: необходимо подтвердить электронный адрес, указанный в WHOIS на странице Адреса электронной почты.
Используйте этот способ, если ваш сайт является доменом второго уровня и находится не в доменной зоне RU или РФ. Рекомендуем вам самый простой способ решить ситуацию – добавить мета-тег. Это можно сделать самостоятельно через FTP. Также несложным будет и 4 вариант подтверждения прав на ресурс – добавьте лишь запись о почте в whols! Теперь вы знаете,что нужно сделать , чтобы сайт попал в поисковик Яндекс и,если сделали все согласно инструкциям, теперь вам доступна вся общая информация по сайту. Подождите окончания процедуры проверки прав, которая занимает обычно несколько секунд, и приступайте к полноценной работе с массой полезных инструментов Вебмастера.
Далее зайдите в раздел “Переобход страниц” Яндекс. Вебмастера и добавьте адреса основных страниц сайта. Вот здесь:
Если сайт сложнее, чем лендинг, с особым вниманием поработайте в Вебмастере над файлом robots.txt, который содержит параметры индексирования сайта для роботов поисковых систем. Создайте файл, заполните его в соответствии с требованиями (в Вебмастере есть хорошее видео на эту тему), проверьте файл в сервисе Яндекс. Вебмастер и загрузите его в корневую директорию сайта. А поможет вам вот это видео.
Итак, если у вас на сайте больше 1 страницы, то рекомендуем вам для более быстрой индексации остальные страницы также добавить в Переобход страниц Яндекс Вебмастера.
Но, помните! Существует дневной лимит по добавлению адресов. В день можно увеличить количество таких страниц не более 10. Вместе с тем, вы можете воспользоваться созданием и настройкой файла Sitemap, который будет содержать информацию о страницах сайта, подлежащих индексированию. В Яндекс. Вебмастер представлена подробная информация и инструкции к работе с этим файлом. Ознакомиться с ней можно здесь.
А для увеличения посещаемости сайта советуем подумать о контекстной рекламе. При помощи этого эффективного инструмента для продвижения сайта, размещения объявлений ваших товаров или услуг в Яндекс. Директ, в результатах поиска на конкретный запрос пользователям будет представлен именно ваш сайт. Ваши клиенты будут приятно удивлены! Да, и не забудьте добавить свою организацию в Яндекс. Справочник
Заполните форму с указанием названия, адреса, контактных данных и вида деятельности вашей организации. Несколько несложных манипуляций, и вас легко найдут! Особенно, если будут искать по локальному признаку, например “парикмахерская в Перово”. Поздравляем! Теперь Ваш сайт найдут все пользователи в поисковике Яндекс!
Добавляем сайт в Google
Для того, чтобы добавить свой сайт в Google, сначала вам тоже нужно зарегистрироваться или войти под своим логином в систему, и вы увидите:
С помощью бесплатного сервиса Google Search Console вы сможете не только добавить свой сайт для индексации в Google, но и оптимизировать его согласно предпочтениям системы, улучшить его для повышения позиций в поиске. Сам сервис довольно простой и понятный в управлении. Укажите url своего сайта в адресной строке и нажмите кнопку «Добавить ресурс», Процедура добавления аналогична действиям в Яндекс. Вебмастер (как, например, с мета-тегами). Google также сам предложит вам следующий список действий, среди которых будет:
- Анализируйте переходы к вашему контенту из Google Поиска.
- Получайте оповещения о проблемах или критических ошибках.
- Проверяйте, верно ли Googlebot обработал контент.
Этот замечательный сервис поможет оптимизировать ваш сайт, улучшить его контент в зависимости от запросов пользователей, сделать его понятным и привлекательным и многое другое – все, что позволит найти новых потенциальных клиентов и заручиться доверием уже имеющейся аудитории. Главное в этом деле, как вы наверняка знаете – всегда работать над улучшением сайта и стремиться к совершенству! 😉 Еще один эффективный сервис, который поможет вам в этом, Google бизнес. Данный сервис является аналогом Яндекс. Справочника и предназначен для поиска ближайших организаций.
Зарегистрируйте свою компанию, указав ее название, адрес, основные контакты и другую необходимую информацию. Дальше – вы всегда сможете размещать актуальные данные о своей организации, добавлять фото и другой контент, следить за отзывами и статистикой посещения вашего сайта.
Заголовок – это важно!
Рекомендуем вам прописать заголовок (title) вашего сайта. Зачем? С помощью этого заголовка страницы, который выглядит как специальный тег в начале html кода внутри конструкции, вы продвинете свой веб-проект. Например, это может выглядеть так:
Такой тайтл «СЕО агентство» был выбран нами неслучайно. Во-первых, мы хотим, чтобы большинство пользователей при вводе запроса «СЕО агентство в Москве или «СЕО агентство», переходили именно к нам на сайт. К тому же, эти слова дают хорошее описание деятельности нашей компании и помогают пользователям найти нас через поисковик.
Также и вы, формулируя заголовок, помните, что тайтл – это один из краеугольных камней успешного продвижения сайтов, и, создавая его, поработайте над правильным оформлением, лаконичным и понятным для клиентов. При работе над этим атрибутом учитывайте, что он будет отображаться и при распространении в соцсетях, и в результатах поиска. Именно поэтому ваш тайтл должен быть кратким и максимально содержательным. Такие несложные манипуляции позволят вашему сайту появляться в поисковых системах, помогая пользователям найти вас.
После того, как вы успешно добавили сайт в поисковые системы Яндекс и Google, можете приступать к дальнейшей оптимизации сайта.
Как улучшить индексацию
Чтобы заставить робота-индексатора чаще посещать сайт, увеличить количество проиндексированных страниц, видеть как можно скорее появившиеся публикации, используйте дополнительные способы продвижения.
- Регулярно добавляйте новый уникальный контент. Поисковые роботы быстрее сканируют ресурсы с обновляемой информацией, нежели те, которые не обновляются;
- Настройте внутреннюю перелинковку;
- Проверьте структуру веб-ресурса. Устраните дубли страниц на сайте. Если ошибок в структуре нет и на каждую страницу будет хотя бы одна внутренняя ссылка, боты быстрее доберутся до страниц и занесут их в свою базу;
- Позаботьтесь о внешних ссылках. Займитесь их закупкой, публикуйте посты в соцсетях, размещайте ссылки на форумах. Наращивание ссылочной массы ускорит сканирование страниц сайта поисковиком;
- Используйте пинг-сервисы, которые устанавливаются на движки и уведомляют поисковых роботов о появлении обновлений на сайте (CS YZZLE, Pingxpert, PingFarm и другие).
Безусловно, вы вполне можете не регистрировать свой сайт в Яндекс.Вебмастер и Google Search Concole, поисковики все равно его проиндексируют. Однако для улучшения позиций и ускорения индексации эти сервисы, а также другие инструменты обязательны.
Подпишитесь на рассылку FireSEO
и получайте подборки статей, полезных сервисов, анонсы и бонусы. Присоединяйтесь!
AddUrl: что такое АддУрл в Яндекс и Google
Addurl (англ. add url – «добавить УРЛ», жарг. «аддурилка») – сервисы, при помощи которых можно сообщать поисковым системам о появлении новых ресурсов и через форму добавлять их в базу для последующей индексации.
Добавление сайта или страницы в индекс поисковых систем через «аддурл» существенно ускоряет заход на нее поискового робота. Самостоятельное нахождение нового сайта машиной может занять достаточно большой промежуток времени.
Принцип работы формы Addurl
В особую форму следует ввести адрес главной страницы ресурса, заполнить капчу и нажать на кнопку «добавить». После этого могут появиться следующие ответы:
- Ресурс добавлен. Это значит, что площадка была принята системой и поставлена в очередь на индексацию.
- Хостинг не отвечает. В данном случае следует попробовать добавить ваш сайт позже.
- URL запрещен для индексации. Такая надпись свидетельствует о том, что ресурс был забанен системой или скрыт от индексации в настройках файла robots.txt.
Ускорение индексации сайта
Для ускорения индексации страниц или каких-либо изменений есть дополнительный функционал:
При внесении изменений на страницы сайта и для ускорения индексации в Яндекс.Вебмастере разработан специальный функционал «Переобход страниц», где можно добавлять определенное количество URL. Лимит страниц устанавливается в зависимости количества страниц на сайте. Минимальное значение – 20 адресов можно добавить за один день.
При внесении большого количества изменений на сайте (шаблонного внесения тегов, создание большого раздела), в Яндекс.Вебмастере в разделе «Файлы Sitemap» можно назначить переобход карты сайта.
Добавление сайта в систему Яндекс.
Яндекс «Файлы Sitemap»
Фильтры поисковых систем Google и Яндекс
Выше рассмотрены основные фильтры Google и Яндекса, которые определяют качество поиска и задают правила игры. Но помимо них есть и менее известные и узконаправленные санкции. Рассмотрим некоторые из них тезисно:Спам в микроразметке
Попытки отобразить в структурированных данных страницы информации, которая невидима пользователю. Например, в микроразметку отдается рейтинг и отзывы, которые показываются в поисковом сниппете, но на странице нет ни функционала проставления рейтинга, ни отзывов. Как следствие удаляются все расширенные сниппеты и понижаются позиции сайта.
Кликджекинг
Применяется к сайтам, которые пользовательским кликам присваивают действия, которые они не совершали. Например, вы находитесь на странице интернет-магазина, а в соседней вкладке в браузере авторизованы Вконтакте. Вы кликаете на категорию товара и уходите с сайта, но тут же получаете личное сообщение Вконтакте от менеджера интернет-магазина с предложением вернуться. Как такое возможно? Технология использует данные авторизации Вконтакте и клик как лайк или подписку на группу интернет-магазина. Сами того не подозревая, вы оставили контакт продавцу. На данный момент технология легко вычисляется поисковыми системами и наказывается снижением позиций всего сайта.
Избыточная реклама и попапы
Ограничения касаются тех, кто переусердствует со всплывающими окнами и навязчивой рекламой. Особенно актуально это для отображения на мобильных устройствах. Если видимая часть контента сайта без каких-либо действий пользователя закрывается рекламой, мешает взаимодействовать с сайтом — это будет четким сигналом для поисковых систем понизить сайт в выдаче.
Непот-фильтр
Разновидность фильтра Яндекса, который наказывает за продажу ссылок. Обратная сторона Минусинска. В группе риска сайты, участвующие в биржах вечных и арендных ссылок, вебмастеры которых не заботятся о полезности той или иной ссылки.
Принимая во внимание вышеописанные фильтры, можно описать рецепт успеха сайта в органической поисковой выдаче простым напутствием: будьте профессионалами и делайте качественный продукт. Показатели качества же должны определяться не только поисковыми системами, но и здравым смыслом. Абсолютное большинство попыток обмануть поисковик приводит к тому, что на сайт накладываются фильтры. Очевидно, что проще предотвратить проблему до ее наступления, чем судорожно пытаться решить ее после.
Эпоха «черного seo» стремительно уходит в закат, а те оптимизаторы, которые пытаются ее догнать, получают справедливое наказание — фильтры и санкции от Google и Яндекс. Стратегически правильным будет решение следовать правилам поисковых систем и идти в ногу со временем, не упуская никаких нововведений и трендов постоянно меняющегося рынка.
Ссылка на первоисточник: https://i-market.ru
Как работает поиск Google | Центр поиска | Разработчики Google
Как работает гугл? Вот короткая версия и длинная версия.
Google получает информацию из множества различных источников, в том числе:
- Веб-страницы,
- Пользовательский контент, такой как пользовательские материалы в Google Мой бизнес и Карты,
- Книжное сканирование,
- Публичные базы данных в Интернете,
- и многие другие источники.
Однако эта страница ориентирована на веб-страницы.
Укороченная версия
Google выполняет три основных шага для получения результатов с веб-страниц:
Ползание
Первый шаг — выяснить, какие страницы существуют в сети. Нет центрального реестра все веб-страницы, поэтому Google должен постоянно искать новые страницы и добавлять их в свой список известные страницы. Некоторые страницы известны, потому что Google уже посещал их раньше.Другие страницы обнаруживаются, когда Google переходит по ссылке с известной страницы на новую. Еще другие страницы обнаруживаются, когда владелец веб-сайта отправляет список страниц (карта сайта ) для сканирования Google. Если вы используете управляемый веб-хостинг, например Wix или Blogger, они могут скажите Google сканировать любые обновленные или новые страницы, которые вы создаете.
Как только Google обнаруживает URL-адрес страницы, он посещает или сканирует страницу, чтобы выяснить, что в теме. Google отображает страницу и анализирует как текстовое, так и нетекстовое содержание, а также в целом визуальный макет, чтобы решить, где он должен отображаться в результатах поиска.Тем лучше, что Google может понимаем ваш сайт, тем лучше мы сможем сопоставить его с людьми, которые ищут ваш контент.
Для улучшения сканирования вашего сайта:
- Убедитесь, что Google может получить доступ к страницам вашего сайта и что они выглядят правильно. Google получает доступ в Интернет как анонимный пользователь (пользователь без паролей или информации). Google также должен иметь возможность видеть все изображения и другие элементы страницы, чтобы иметь возможность поймите это правильно.Вы можете выполнить быструю проверку, введя URL своей страницы в поле Удобство для мобильных Контрольная работа.
- Если вы создали или обновили одну страницу, вы можете отправить индивидуальный URL-адрес в Google. Чтобы сообщить Google сразу о многих новых или обновленных страницах, используйте карту сайта.
- Если вы просите Google сканировать только одну страницу, сделайте ее своей домашней. Ваш Домашняя страница — это самая важная страница на вашем сайте, с точки зрения Google. Поощрять полное сканирование сайта, убедитесь, что ваша главная страница (и все страницы) содержат хороший сайт система навигации, которая ссылается на все важные разделы и страницы вашего сайта; это помогает пользователи (и Google) ориентируются на вашем сайте.Для небольших сайтов (менее 1000 страниц) информировать Google только о вашей домашней странице — это все, что вам нужно, при условии, что Google может охватить все ваши другие страницы, следуя пути ссылок, которые начинаются с вашей домашней страницы.
- Свяжите свою страницу с другой страницей, о которой Google уже знает. Однако имейте в виду, что ссылки в рекламных объявлениях, ссылки, за которые вы платите на других сайтах, ссылки в комментарии или другие ссылки, которые не следуют за Google Google не будет следовать рекомендациям для веб-мастеров.
Индексирование
После того, как страница обнаружена, Google пытается понять, о чем она. Этот процесс называется с индексом . Google анализирует содержание страницы, каталогизирует изображения и видеофайлы, встроенные в страницу, и в противном случае пытается понять страницу. Эта информация хранится в индексе Google , огромной базе данных, хранящейся на многих, многих (многих!) компьютерах.
Для улучшения индексации страницы:
- Создавайте короткие содержательные заголовки страниц.
- Используйте заголовки страниц, которые передают тему страницы.
- Используйте текст, а не изображения для передачи контента. Google может понимать некоторые изображения и видео, но не так хорошо, как он может понимать текст. Как минимум, аннотируйте свой видео и изображения с замещающим текстом и др. атрибуты в зависимости от обстоятельств.
Обслуживание (и рейтинг)
Когда пользователь вводит запрос, Google пытается найти наиболее релевантный ответ в его индексе. основанный на многих факторах.Google пытается найти ответы наивысшего качества и учитывать другие соображения, которые обеспечат лучший пользовательский опыт и наиболее подходящий ответ, учитывая такие вещи, как местоположение пользователя, язык и устройство (настольный компьютер или телефон). Например, поиск по запросу «мастерская по ремонту велосипедов» покажет пользователю разные ответы. в Париже, чем пользователю в Гонконге. Google не принимает оплату за ранжирование страниц выше, и ранжирование выполняется программно.
Для улучшения обслуживания и рейтинга:
Длинная версия
Хотите больше информации? Вот он:
Длинная версия
Ползание
Сканирование — это процесс, с помощью которого робот Google посещает новые и обновленные страницы для добавления в индекс Google.
Мы используем огромный набор компьютеров для получения (или «сканирования») миллиардов страниц в сети. Программа который выполняет выборку, называется Googlebot (также известный как робот, бот или паук).Googlebot использует алгоритмический процесс, чтобы определить, какие сайты сканировать, как часто и сколько страниц получать с каждого сайта.
Процесс сканирования Google начинается со списка URL-адресов веб-страниц, созданного в результате предыдущего сканирования. процессы, дополненные данными Sitemap, предоставленными владельцами веб-сайтов. Когда робот Googlebot посещает страницу он находит ссылки на странице и добавляет их в свой список страниц для сканирования. Новые сайты, изменения в Существующие сайты и мертвые ссылки отмечаются и используются для обновления индекса Google.
Во время сканирования Google отображает страницу с помощью последней версии Chrome. В рамках В процессе рендеринга он запускает любые найденные скрипты страниц. Если на вашем сайте используются динамически генерируемые содержание, убедитесь, что вы следуете Основы JavaScript SEO.
Первичное сканирование / вторичное сканирование
Google использует два разных сканера для сканирования веб-сайтов: мобильный сканер и настольный компьютер. гусеничный трактор. Каждый тип сканера имитирует посещение пользователем вашей страницы с помощью устройства этого типа.
Google использует один тип сканера (мобильный или настольный) в качестве основного поискового робота для вашего сайт. Все страницы вашего сайта, которые сканирует Google, сканируются с помощью основного поискового робота. Основным поисковым роботом для всех новых веб-сайтов является мобильный сканер.
Кроме того, Google повторно сканирует несколько страниц вашего сайта с помощью поискового робота другого типа (мобильного или рабочий стол). Это называется вторичным сканированием и выполняется для проверки того, насколько хорошо ваш сайт работает с другим типом устройств.
Как Google узнает, какие страницы не сканировать?
- Страницы, заблокированные в robots.txt, не будут сканироваться, но все же могут быть проиндексированы, если на них ссылается другая страница. (Google может определить содержание страницы по ссылке, указывающей на нее, и проиндексировать страницу без разбора ее содержимого.)
- Google не может сканировать страницы, недоступные анонимному пользователю. Таким образом, любой логин или другой защита авторизации предотвратит сканирование страницы.
- страниц, которые уже просканированы и считаются дубликаты другого страницы, сканируются реже.
Улучшите сканирование
Используйте эти методы, чтобы помочь Google находить нужные страницы на вашем сайте:
Индексирование
Робот Googlebot обрабатывает каждую сканируемую страницу, чтобы понять ее содержание.
Это включает в себя обработку текстового содержимого, ключевых тегов содержимого и атрибутов, таких как
теги и атрибуты alt, изображения, видео и многое другое.Googlebot может
обрабатывать многие, но не все типы контента. Например, мы не можем обработать содержимое некоторых
мультимедийные файлы.
Где-то между сканированием и индексированием Google определяет, является ли страница дубликат или канонический другой страницы. Если страница будет считаться дубликатом, сканирование будет выполняться гораздо реже. часто. Похожие страницы сгруппированы в документ , который представляет собой группу 1 или несколько страниц, которые включают каноническую страницу (наиболее репрезентативную из группы) и любые найденные дубликаты (которые могут быть просто альтернативными URL-адресами для перехода на ту же страницу или могут быть альтернативными мобильными или настольными версиями одной и той же страницы).
Обратите внимание, что Google не индексирует страницы с номером noindex
директива (заголовок или тег). Однако он должен видеть директиву; если страница
заблокирован файлом robots.txt, страницей входа,
или другое устройство, возможно, что страница может быть проиндексирована, даже если Google ее не посещал!
Улучшите индексацию
Есть много способов улучшить способность Google понимать содержание вашей страницы:
Что такое «документ»?
Внутри Google представляет Интернет как (огромный) набор из документов .Каждый документ представляет одну или несколько веб-страниц. Эти страницы либо идентичны, либо очень похожи, но по сути это один и тот же контент, доступный по разным URL-адресам. Различные URL-адреса в документ может вести на одну и ту же страницу (например, example.com/dresses/summer/1234 и example.com?product=1234 может отображать ту же страницу) или ту же страницу с небольшими вариациями. предназначен для пользователей на разных устройствах (например, example.com/mypage для пользователей настольных компьютеров И м.example.com/mypage для мобильных пользователей).
Google выбирает один из URL-адресов в документе и определяет его как канонический URL . Канонический URL документа — это тот URL, который Google сканирует и индексирует чаще всего; другой URL-адреса считаются дубликатами или альтернативными и могут время от времени сканироваться или обслуживаться в соответствии с запросом пользователя: например, если канонический URL-адрес документа является мобильным URL-адресом, Google по-прежнему, вероятно, будет обслуживать настольный (альтернативный) URL-адрес для пользователей, выполняющих поиск с настольного компьютера.
Большинство отчетов в Search Console приписывают данные каноническому URL документа. Некоторые инструменты (например, инструмент проверки URL-адресов) поддерживают тестирование альтернативных URL-адресов, но проверяют канонические URL-адрес также должен содержать информацию об альтернативных URL-адресах.
Вы можете указать Google, какой URL-адрес, который вы предпочитаете быть каноническим, но Google может выбрать другой канонический для различных причины.
Вот краткое описание терминов и их использования в Search Console:
- Документ: Коллекция похожих страниц.Имеет канонический URL и
возможно альтернативные URL-адреса, если на вашем сайте есть повторяющиеся страницы. URL-адреса в документе могут быть из
та же или другая организация (корневой домен, например «google» в
www.google.com). Google выбирает лучший URL-адрес для показа в результатах поиска в соответствии с
платформа (мобильный / настольный), язык пользователя ‡ или местоположение и многие другие переменные.
Google обнаруживает связанные страницы на вашем сайте с помощью обычного сканирования или с помощью
такие функции, как перенаправления или теги
- URL: URL-адрес, используемый для доступа к определенному фрагменту контента на сайте. Сайт может разрешать разные URL-адреса на одну и ту же страницу.
- Страница: Заданная веб-страница, доступная по одному или нескольким URL-адресам. Может быть разные версий страницы в зависимости от платформы пользователя (мобильная, настольная, планшет и тд).
- Версия: Один вариант страницы, обычно относящийся к категории «мобильная», «настольный компьютер» и «AMP» (хотя сам AMP может иметь мобильную и настольную версии). Каждый версия может иметь другой URL (example.com vs m.example.com) или тот же URL (если ваш сайт использует динамическое обслуживание или адаптивный веб-дизайн, один и тот же URL-адрес может отображать разные версии одной и той же страницы) в зависимости от конфигурации вашего сайта. Языковые вариации считаются не разными версиями, а разными документами.
- Каноническая страница или URL: URL, который Google считает наиболее представитель документа. Google всегда сканирует этот URL; повторяющиеся URL-адреса в документе также иногда просматриваются.
- Альтернативная / повторяющаяся страница или URL: URL документа, который Google может изредка ползать. Google также обслуживает эти URL-адреса, если они подходят пользователю и запрос (например, альтернативный URL-адрес для пользователей настольных компьютеров будет обслуживаться для запросов к рабочим столам а не канонический мобильный URL).
- Сайт: Обычно используется как синоним веб-сайта (концептуально связанный набор веб-страниц), но иногда используется как синоним свойства Search Console, хотя Собственность фактически может быть определена как только часть сайта. Сайт может охватывать поддомены (и даже домены для правильно связанных страниц AMP).
‡ Страницы с одинаковым содержанием на разных языках хранятся в разные документы, которые ссылаются друг на друга с помощью hreflang теги; вот почему важно использовать теги hreflang для переведенного контента.
Результаты обслуживания
Когда пользователь вводит запрос, наши машины ищут в индексе соответствующие страницы и возвращают результаты, которые мы считаем наиболее релевантными для пользователя. Актуальность определяется сотнями факторов, и мы всегда работаем над улучшением нашего алгоритма. Google учитывает пользовательский опыт при выборе и ранжировании результатов, поэтому убедитесь, что ваша страница загружается быстро и удобный для мобильных устройств.
Улучшение обслуживания
- Если ваши результаты нацелены на пользователей из определенных регионов или языков, вы можете расскажи Google свой предпочтения.
- Убедитесь, что ваша страница загружается быстро и удобно для мобильных устройств.
- Следуй за веб-мастером Рекомендации по предотвращению распространенных ошибок и повышению рейтинга вашего сайта.
- Рассмотрите возможность внедрения результатов поиска функции вашего сайта, такие как карточки рецептов или карточки статей.
- Внедрите AMP для более быстрой загрузки страниц на мобильные устройства. На некоторых страницах AMP также доступны дополнительные функции поиска, такие как карусель главных новостей.
- Алгоритм Google постоянно совершенствуется; вместо того, чтобы пытаться угадать алгоритм и создайте для этого свою страницу, работайте над созданием качественного и свежего контента, который нужен пользователям, и следуя нашим рекомендациям.
Еще более длинная версия
Вы можете найти даже более длинная версия о том, как работает Google Search, здесь (с изображениями и видео!)
Как заставить Google сканировать ваш сайт для улучшения результатов поиска
Если вы обновили свой сайт Google или личный веб-сайт, вы можете запросить, чтобы Google «просканировал» ваш сайт.
Сканирование — это программный процесс, который делает полный снимок всего содержимого определенной веб-страницы. Этот снимок используется поисковыми системами для направления пользователей на ваш сайт. Это означает, что если вы внесли значительные изменения в свой веб-сайт, но Google еще не собрал самый последний снимок, люди не будут перенаправлены на ваш новый контент.
Повторное сканирование — это автоматизированный процесс, но вы также можете попросить компанию переиндексировать ваш сайт. Есть два способа попросить Google повторно просканировать ваш сайт. Этот процесс может занять до нескольких недель без существенной разницы в продолжительности каждого метода.Отправка нескольких запросов также не ускорит повторную индексацию вашего сайта.
После отправки запроса Google предлагает отслеживать ход сканирования с помощью отчета об индексировании или инструмента проверки URL. Инструмент проверки URL-адресов рекомендуется пользователям Сайтов Google и тем, кто хочет, чтобы Google сканировал несколько отдельных URL-адресов. Если у вас больше URL-адресов, отправьте вместо этого карту сайта.
Если вам нужно, чтобы Google сканировал ваш обновленный сайт, вот как это сделать.
Как заставить Google сканировать ваш сайт
1. Откройте консоль поиска Google.
2. Введите URL-адрес вашего сайта Google в поле «Префикс URL».
Используйте опцию префикса URL, чтобы Google проверил, где находится ваш сайт.Вивиан МакКолл / Business Insider3. Подтвердите право собственности на сайт для Google одним из следующих способов:
- HTML-файл
- HTML-тег
- Google Analytics
- Диспетчер тегов Google
- Провайдер доменного имени
Примечание: Вы не может добавлять метатеги или HTML-файлы на новые Сайты Google, поэтому мы рекомендуем создать учетную запись Google Analytics для относительно быстрого и легкого процесса проверки.
4. После завершения выбранного вами процесса консоль поиска Google должна подтвердить, что ваш сайт был автоматически подтвержден.
5. В окне подтверждающего сообщения нажмите «Перейти к ресурсу».
6. Выберите инструмент «Инспектор URL-адресов» в левом столбце.
7. Скопируйте и вставьте URL-адрес своего сайта в поле поиска инструмента вверху страницы.
Панель поиска автоматически появится вверху страницы инспектора URL-адресов.Вивиан МакКолл / Business Insider8. После завершения процесса поиска нажмите «Проверить действующий URL» в верхнем левом углу панели управления.
Это шаг, прежде чем вы сможете запросить у Google индексирование вашего сайта.Вивиан МакКолл / Business Insider9. Выберите «Запросить индексирование».
10 способов заставить Google индексировать ваш сайт (которые действительно работают)
Если Google не индексирует ваш сайт, вы в значительной степени невидимы. Вы не будете отображаться ни по каким поисковым запросам и не получите никакого органического трафика.Пшик. Нада. Нуль.
Учитывая, что вы здесь, я полагаю, это не новость для вас. Итак, приступим непосредственно к делу.
В этой статье рассказывается, как решить любую из этих трех проблем:
- Весь ваш веб-сайт не проиндексирован.
- Некоторые из ваших страниц проиндексированы, а другие нет.
- Ваши недавно опубликованные веб-страницы не индексируются достаточно быстро.
Но сначала давайте удостоверимся, что мы находимся на одной странице и полностью понимаем эту ошибку индексирования.
Новичок в SEO? Ознакомьтесь с нашим
Что такое сканирование и индексирование?
Google обнаруживает новые веб-страницы путем сканирования Интернета, а затем добавляет эти страницы в свой индекс . Они делают это с помощью веб-паука под названием Googlebot .
Запутались? Давайте определим несколько ключевых терминов.
- Сканирование : процесс перехода по гиперссылкам в Интернете для обнаружения нового контента.
- Индексирование : процесс сохранения каждой веб-страницы в обширной базе данных.
- Web spider : Часть программного обеспечения, предназначенная для выполнения процесса сканирования в любом масштабе.
- Googlebot : веб-паук Google .
Вот видео от Google, которое объясняет процесс более подробно:
Когда вы что-то гуглите, вы спрашиваете Google, чтобы вернуть все соответствующие страницы из их индекса. Поскольку часто есть миллионы страниц, отвечающих всем требованиям, алгоритм ранжирования Google делает все возможное, чтобы отсортировать страницы так, чтобы вы сначала увидели наилучшие и наиболее релевантные результаты.
Важный момент, который я здесь подчеркиваю, заключается в том, что индексация и рейтинг — это две разные вещи .
Индексирование отображается для гонки; рейтинг выигрывает.
Невозможно выиграть, не заняв первое место в гонке.
Как проверить, проиндексированы ли вы в Google
Зайдите в Google, затем найдите сайт : yourwebsite.com
Это число примерно показывает, сколько ваших страниц проиндексировал Google.
Если вы хотите проверить статус индекса определенного URL, используйте тот же сайт : yourwebsite.com/web-page-slug
operator.
Никаких результатов не будет, если страница не проиндексирована.
Стоит отметить, что если вы пользователь Google Search Console, вы можете использовать отчет Coverage , чтобы получить более точное представление о статусе индекса вашего веб-сайта. Просто перейдите по ссылке:
Google Search Console> Индекс> Покрытие
Посмотрите количество допустимых страниц (с предупреждениями и без них).
Если в сумме эти два числа не равны нулю, значит, Google проиндексировал по крайней мере некоторые страницы вашего веб-сайта. В противном случае у вас серьезная проблема, потому что ни одна из ваших веб-страниц не проиндексирована.
Примечание.
Не пользуетесь Google Search Console? Зарегистрироваться. Это бесплатно. Всем, кто управляет веб-сайтом и заботится о трафике от Google, следует использовать Google Search Console. Это , что важно .Вы также можете использовать Search Console, чтобы проверить, проиндексирована ли конкретная страница.Для этого вставьте URL-адрес в инструмент проверки URL-адресов.
Если эта страница проиндексирована, будет написано «URL находится в Google».
Если страница не проиндексирована, вы увидите слова «URL не в Google».
Как получить индексирование в Google
Вы обнаружили, что ваш веб-сайт или веб-страница не проиндексированы в Google? Попробуйте следующее:
- Перейдите в консоль поиска Google
- Перейдите к инструменту проверки URL-адресов
- Вставьте URL-адрес, который Google должен проиндексировать, в строку поиска.
- Подождите, пока Google проверит URL-адрес
- Нажмите кнопку «Запросить индексирование»
Этот процесс является хорошей практикой при публикации нового сообщения или страницы. Вы фактически сообщаете Google, что добавили что-то новое на свой сайт и что они должны это изучить.
Однако запрос индексации вряд ли решит основные проблемы, мешающие Google индексировать старые страницы. В этом случае следуйте приведенному ниже контрольному списку, чтобы диагностировать и устранить проблему.
Вот несколько быстрых ссылок на каждую тактику — на случай, если вы уже попробовали:
- Удалите блоки сканирования в файле robots.txt
- Удалите мошеннические теги noindex
- Включите страницу в карту сайта
- Удалите мошеннические канонические теги
- Убедитесь, что страница не осиротела
- Исправьте внутренние ссылки nofollow
- Добавьте «мощные» внутренние ссылки
- Убедитесь, что страница ценная и уникальная
- Удалите некачественные страницы (чтобы оптимизировать «краулинговый бюджет» )
- Создавайте качественные обратные ссылки
1) Удалите блоки сканирования в ваших роботах.txt файл
Google не индексирует весь ваш сайт? Это может быть связано с блокировкой сканирования в файле robots.txt.
Чтобы проверить наличие этой проблемы, перейдите по адресу yourdomain.com/robots.txt .
Найдите любой из этих двух фрагментов кода:
User-agent: Googlebot Disallow: /
Агент пользователя: * Disallow: /
Обе они сообщают роботу Googlebot, что им запрещено сканировать какие-либо страницы вашего сайта. Чтобы решить проблему, удалите их.Это , что просто.
Блок сканирования в robots.txt также может быть причиной, если Google не индексирует одну веб-страницу. Чтобы проверить, так ли это, вставьте URL-адрес в инструмент проверки URL-адресов в Google Search Console. Щелкните блок «Покрытие», чтобы получить более подробную информацию, затем найдите «Сканирование разрешено? Нет: заблокировано файлом robots.txt ».
Это означает, что страница заблокирована в robots.txt.
В таком случае еще раз проверьте файл robots.txt на наличие каких-либо запрещающих правил, относящихся к странице или соответствующему подразделу.
При необходимости удалите.
2) Удалите ложные теги noindex
Google не будет индексировать страницы, если вы им запретите. Это полезно для сохранения конфиденциальности некоторых веб-страниц. Это можно сделать двумя способами:
Метод 1: метатег
Страницы с любым из этих метатегов в разделе
не будут проиндексированы Google:
Это метатег роботов, который сообщает поисковым системам, могут ли они индексировать страницу.
Примечание.
Ключевой частью является значение «noindex». Если вы это видите, значит для страницы задано значение noindex.Чтобы найти все страницы с метатегом noindex на вашем сайте, запустите сканирование с помощью Ahrefs Site Audit. Перейдите к отчету «Индексируемость «. Ищите предупреждения «Страница Noindex».
Щелкните, чтобы увидеть все затронутые страницы. Удалите метатег noindex со всех страниц, которым он не принадлежит.
Метод 2: X ‑ Robots-Tag
Сканеры также учитывают заголовок HTTP-ответа X ‑ Robots-Tag.Вы можете реализовать это, используя язык сценариев на стороне сервера, такой как PHP, или в файле .htaccess, или изменив конфигурацию сервера.
Инструмент проверки URL в Search Console сообщает, заблокирован ли Google сканирование страницы из-за этого заголовка. Просто введите свой URL и найдите «Индексирование разрешено? Нет: «noindex» обнаружен в http-заголовке «X ‑ Robots-Tag»
Если вы хотите проверить наличие этой проблемы на своем сайте, запустите сканирование в инструменте аудита сайта Ahrefs, затем используйте «Информация о роботах в HTTP-заголовке. »В проводнике страниц:
Попросите разработчика исключить страницы, которые вы хотите проиндексировать, из возврата этого заголовка.
Рекомендуемая литература: Спецификации метатега роботов и HTTP-заголовка X ‑ Robots-Tag
3) Включите страницу в карту сайта
Карта сайта сообщает Google, какие страницы на вашем сайте важны, а какие нет. т. Это также может дать некоторые рекомендации о том, как часто их следует сканировать повторно.
Google должен иметь возможность находить страницы на вашем веб-сайте независимо от того, есть ли они в вашей карте сайта, но все же рекомендуется включать их.В конце концов, нет смысла усложнять жизнь Google.
Чтобы проверить, есть ли страница в вашей карте сайта, используйте инструмент проверки URL в Search Console. Если вы видите ошибку «URL не в Google» и «Sitemap: N / A», значит, его нет в вашей карте сайта или он не проиндексирован.
Не используете Search Console? Перейдите по URL-адресу карты сайта — обычно yourdomain.com/sitemap.xml — и выполните поиск страницы.
Или, если вы хотите найти все просканируемые и индексируемые страницы, которых нет в вашей карте сайта, запустите сканирование в Ahrefs Site Audit.Перейдите в Page Explorer и примените эти фильтры:
Эти страницы должны быть в вашей карте сайта, поэтому добавьте их. После этого сообщите Google, что вы обновили карту сайта, выполнив ping по этому URL:
http://www.google.com/ping?sitemap=http://yourwebsite.com/sitemap_url.xml
Replace эту последнюю часть с URL-адресом вашей карты сайта. Вы должны увидеть что-то вроде этого:
Это должно ускорить индексацию страницы Google.
4) Удалите ложные канонические теги
Канонический тег сообщает Google, какая версия страницы является предпочтительной.Выглядит это примерно так:
На большинстве страниц либо нет канонического тега, либо так называемый канонический тег, ссылающийся на себя. Это говорит Google сама страница является предпочтительной и, вероятно, единственной версией. Другими словами, вы хотите, чтобы эта страница была проиндексирована.
Но если на вашей странице есть ложный канонический тег, то он может сообщать Google о предпочтительной версии этой страницы, которая не существует. В этом случае ваша страница не будет проиндексирована.
Чтобы проверить каноничность, воспользуйтесь инструментом Google для проверки URL. Вы увидите предупреждение «Альтернативная страница с каноническим тегом», если канонический тег указывает на другую страницу.
Если этого не должно быть и вы хотите проиндексировать страницу, удалите канонический тег.
ВАЖНО
Канонические теги не всегда плохи. У большинства страниц с этими тегами есть причины. Если вы видите, что ваша страница имеет канонический набор, проверьте каноническую страницу. Если это действительно предпочтительная версия страницы и нет необходимости также индексировать данную страницу, то канонический тег должен остаться.
Если вы хотите быстро найти ложные канонические теги на всем сайте, запустите сканирование с помощью инструмента аудита сайта Ahrefs. Перейдите в проводник страниц. Используйте следующие настройки:
Это ищет страницы в вашей карте сайта с несамодвижущимися каноническими тегами. Поскольку вы почти наверняка захотите проиндексировать страницы в карте сайта, вам следует дополнительно изучить, возвращает ли этот фильтр какие-либо результаты.
Очень вероятно, что у этих страниц либо ненадежный канонический файл, либо их вообще не должно быть в вашей карте сайта.
5) Убедитесь, что страница не «осиротевшая».
Сиротские страницы — это те страницы, на которые не указывают внутренние ссылки.
Поскольку Google обнаруживает новое содержание путем сканирования Интернета, они не могут обнаружить потерянные страницы с помощью этого процесса. Посетители веб-сайта тоже не смогут их найти.
Чтобы проверить наличие лишних страниц, просканируйте свой сайт с помощью Ahrefs Site Audit. Затем проверьте отчет Links на наличие ошибок «Потерянная страница (нет входящих внутренних ссылок)»:
Здесь показаны все страницы, которые одновременно индексируются и присутствуют в вашей карте сайта, но не имеют внутренних ссылок, указывающих на них.
ВАЖНО
Этот процесс работает только в том случае, если верны два условия:
- Все страницы, которые вы хотите проиндексировать, находятся в ваших файлах Sitemap
- Вы установили флажок, чтобы использовать страницы в ваших файлах Sitemap в качестве отправных точек для сканирования при настройке. проект в Ahrefs Site Audit.
Не уверены, что все страницы, которые вы хотите проиндексировать, есть в вашей карте сайта? Попробуйте следующее:
- Загрузите полный список страниц вашего сайта (через вашу CMS)
- Просканируйте ваш сайт (используя такой инструмент, как Ahrefs Site Audit)
- Перекрестные ссылки на два списка URL-адресов
Любые URL-адреса не обнаружены во время сканирования, являются потерянными страницами.
Вы можете исправить потерянные страницы одним из двух способов:
- Если страница не важна , удалите ее и удалите из карты сайта.
- Если страница важна , включите ее во внутреннюю структуру ссылок вашего веб-сайта.
6) Исправить внутренние ссылки nofollow
Ссылки Nofollow — это ссылки с тегом rel = «nofollow». Они предотвращают передачу PageRank на целевой URL. Google также не сканирует ссылки nofollow.
Вот что Google говорит по этому поводу:
По сути, с использованием nofollow заставляет нас отбрасывать целевые ссылки из нашего общего графа сети. Однако целевые страницы могут по-прежнему отображаться в нашем индексе, если другие сайты ссылаются на них без использования nofollow или если URL-адреса отправляются в Google в файле Sitemap.
Короче говоря, вы должны убедиться, что следуют все внутренние ссылки на индексируемые страницы.
Для этого воспользуйтесь инструментом Ahrefs Site Audit для сканирования вашего сайта.Проверьте отчет Links на предмет индексируемых страниц с ошибками «Страница имеет только входящие внутренние ссылки nofollow»:
Удалите тег nofollow из этих внутренних ссылок, предполагая, что вы хотите, чтобы Google проиндексировал страницу. Если нет, либо удалите страницу, либо не индексируйте ее.
Рекомендуемая литература: Что такое ссылка Nofollow? Все, что вам нужно знать (без жаргона!)
7) Добавьте «мощные» внутренние ссылки
Google обнаруживает новый контент, сканируя ваш веб-сайт.Если вы не укажете внутреннюю ссылку на рассматриваемую страницу, они не смогут ее найти.
Одно из простых решений этой проблемы — добавить на страницу несколько внутренних ссылок. Вы можете сделать это с любой другой веб-страницы, которую Google может сканировать и индексировать. Однако, если вы хотите, чтобы Google проиндексировал страницу как можно быстрее, имеет смысл сделать это с одной из ваших наиболее «мощных» страниц.
Почему? Потому что Google, вероятно, будет повторно сканировать такие страницы быстрее, чем менее важные страницы.
Для этого перейдите в раздел «Сайт» Ahrefs «, введите свой домен и перейдите в отчет» Лучшее по ссылкам «.
Здесь показаны все страницы вашего веб-сайта, отсортированные по рейтингу URL (UR). Другими словами, сначала отображаются наиболее авторитетные страницы.
Просмотрите этот список и найдите соответствующие страницы, с которых можно добавить внутренние ссылки на рассматриваемую страницу.
Например, если бы мы хотели добавить внутреннюю ссылку на наше руководство по размещению гостевых сообщений, наше руководство по созданию ссылок, вероятно, предложило бы подходящее место для этого. Так получилось, что эта страница является 11-й по значимости страницей в нашем блоге:
Google увидит эту ссылку и перейдет по ней в следующий раз при повторном сканировании страницы.
pro tip
Вставьте страницу, с которой вы добавили внутреннюю ссылку, в инструмент проверки URL-адресов Google. Нажмите кнопку «Запросить индексирование», чтобы сообщить Google, что что-то на странице изменилось и что они должны повторно сканировать это как можно скорее. Это может ускорить процесс обнаружения внутренней ссылки и, следовательно, страницы, которую вы хотите проиндексировать.
8) Убедитесь, что страница ценная и уникальная
Google вряд ли проиндексирует некачественные страницы, потому что они не представляют ценности для пользователей.Вот что сказал об индексировании в 2018 году Джон Мюллер из Google:
Мы никогда не индексируем все известные URL, это нормально. Я бы сфокусировался на том, чтобы сделать сайт потрясающим и вдохновляющим, тогда все обычно получается лучше.
— 🍌 John 🍌 (@JohnMu) 3 января 2018 г.
Он подразумевает, что если вы хотите, чтобы Google проиндексировал ваш веб-сайт или веб-страницу, он должен быть «потрясающим и вдохновляющим».
Если вы исключили технические проблемы из-за отсутствия индексации, то причиной может быть отсутствие ценности.По этой причине стоит просмотреть страницу свежим взглядом и спросить себя: действительно ли эта страница ценна? Сможет ли пользователь найти ценность на этой странице, если щелкнет по ней в результатах поиска?
Если ответ на любой из этих вопросов отрицательный, то вам необходимо улучшить свой контент.
Вы можете найти больше потенциально некачественных страниц, которые не проиндексированы, с помощью инструмента аудита сайта Ahrefs и профилировщика URL. Для этого перейдите в Page Explorer в Ahrefs Site Audit и используйте следующие настройки:
Это вернет «тонкие» страницы, которые можно индексировать и которые в настоящее время не получают органического трафика.Другими словами, есть большая вероятность, что они не проиндексированы.
Экспортируйте отчет, затем вставьте все URL-адреса в URL Profiler и запустите проверку индексации Google.
ВАЖНО
Рекомендуется использовать прокси, если вы делаете это для большого количества страниц (т. Е. Более 100). В противном случае вы рискуете, что ваш IP-адрес будет забанен Google. Если вы не можете этого сделать, другой альтернативой является поиск в Google «бесплатной массовой проверки индексации Google». Есть несколько таких инструментов, но большинство из них ограничено <25 страницами за раз.
Проверьте все не проиндексированные страницы на предмет проблем с качеством. При необходимости улучшите, а затем запросите переиндексацию в Google Search Console.
Вы также должны стремиться исправить проблемы с дублирующимся контентом. Google вряд ли проиндексирует повторяющиеся или почти повторяющиеся страницы. Используйте отчет Дубликат содержимого в Аудите сайта, чтобы проверить наличие этих проблем.
9) Удалите некачественные страницы (для оптимизации «краулингового бюджета»)
Наличие на вашем сайте слишком большого количества некачественных страниц приводит только к потере краулингового бюджета.
Вот что Google говорит по этому поводу:
Потеря ресурсов сервера на [малоценных страницах] приведет к истощению активности сканирования со страниц, которые действительно имеют ценность, что может вызвать значительную задержку в обнаружении отличного контента на сайте. .
Думайте об этом как об учителе, оценивающем эссе, одно из которых ваше. Если им предстоит оценить десять эссе, они довольно быстро доберутся до вашего. Если у них будет сотня, им потребуется немного больше времени. Если у них тысячи, их рабочая нагрузка слишком высока, и они, возможно, никогда не дойдут до оценки вашего эссе.
Google заявляет, что «сканирование бюджета […] — это не то, о чем должно беспокоиться большинство издателей», и что «если на сайте меньше нескольких тысяч URL-адресов, в большинстве случаев он будет сканироваться эффективно».
Тем не менее, удаление некачественных страниц с вашего веб-сайта никогда не бывает плохим. Это может только положительно повлиять на краулинговый бюджет.
Вы можете использовать наш шаблон аудита контента, чтобы найти потенциально некачественные и нерелевантные страницы, которые можно удалить.
10) Создавайте качественные обратные ссылки
Обратные ссылки говорят Google, что веб-страница важна.В конце концов, если кто-то на него ссылается, значит, он должен иметь какую-то ценность. Это страницы, которые Google хочет проиндексировать.
Для полной прозрачности Google индексирует не только веб-страницы с обратными ссылками. Есть много (миллиарды) проиндексированных страниц без обратных ссылок. Однако, поскольку Google считает страницы с качественными ссылками более важными, они, скорее всего, будут сканировать — и повторно сканировать — такие страницы быстрее, чем страницы без них. Это приводит к более быстрой индексации.
У нас есть много ресурсов для создания качественных обратных ссылок в блоге.
Взгляните на несколько руководств ниже.
Индексирование ≠ ранжирование
Индексирование вашего веб-сайта или веб-страницы в Google не означает при ранжировании или посещаемости.
Это разные вещи.
Индексирование означает, что Google знает о вашем веб-сайте. Это не значит, что они будут ранжировать его по каким-либо релевантным и стоящим запросам.
Вот где приходит SEO — искусство оптимизации ваших веб-страниц для ранжирования по конкретным запросам.
Короче говоря, SEO включает:
- Поиск того, что ищут ваши клиенты;
- Создание контента по этим темам;
- Оптимизация этих страниц под ваши целевые ключевые слова;
- Создание обратных ссылок;
- Регулярно переиздайте контент, чтобы он оставался «вечнозеленым».”
Вот видео, которое поможет вам начать работу с SEO:
… и некоторые статьи:
Заключительные мысли
Есть только две возможные причины, по которым Google не индексирует ваш веб-сайт или веб-страницу:
- Технические проблемы мешают им сделать это
- Они считают ваш сайт или страницу некачественными и бесполезными для своих пользователей.
Вполне возможно, что существуют обе эти проблемы.Однако я бы сказал, что технические проблемы встречаются гораздо чаще. Технические проблемы также могут привести к автоматическому созданию индексируемого некачественного контента (например, проблемы с фасетной навигацией). Это нехорошо.
Тем не менее, выполнение приведенного выше контрольного списка должно решить проблему индексации в девяти случаях из десяти.
Просто помните, что индексирование ≠ ранжирование. SEO по-прежнему жизненно важен, если вы хотите ранжироваться по любым полезным поисковым запросам и привлекать постоянный поток органического трафика.
Как заставить Google индексировать ваш сайт (быстрее)
Чтобы ваши целевые страницы, блоги, домашние страницы и другой онлайн-контент отображались в результатах поисковой системы Google, вам необходимо убедиться, что ваш веб-сайт индексируется.Индекс Google — это в основном база данных.
Когда люди используют поисковую систему для поиска контента, Google обращается к своему индексу, чтобы предоставить релевантный контент. Если ваша страница не проиндексирована, значит, ее нет в поисковой системе Google. Это плохие новости, если вы надеетесь привлечь на свой сайт обычный трафик с помощью обычного поиска.
В этом руководстве подробно рассказывается об индексировании и его важности. В нем также объясняется, как вы можете проверить, проиндексирована ли ваша страница, как исправить общие технические проблемы SEO, которые вызывают проблемы с индексированием, и как быстро заставить Google повторно проиндексировать ваш сайт, если он еще не проиндексирован.
Индекс Google — это просто список всех веб-страниц, о которых знает поисковая система. Если Google не проиндексирует ваш сайт, он не появится в результатах поиска Google.
Это как если бы вы написали книгу, но ее нет в книжных магазинах или библиотеках. Книгу никто никогда не найдет. Они могли даже не знать о его существовании. И если бы читатель искал эту книгу, ему было бы очень трудно ее найти.
Сайты, которые не проиндексированы, не находятся в базе данных Google.Таким образом, поисковая система не может отображать эти веб-сайты на страницах результатов поиска (SERP).
Чтобы индексировать веб-сайты, поисковые роботы Google (Googlebot) должны «сканировать» этот веб-сайт. Узнайте больше о разнице между возможностью сканирования и индексирования.
В качестве напоминания, вот краткий обзор процесса поисковой системы:
Сканирование : боты поисковых систем сканируют веб-сайт, чтобы выяснить, стоит ли его индексировать. Веб-пауки, или «робот Googlebot», всегда сканируют сеть, переходя по ссылкам на существующих веб-страницах в поисках нового содержания.
Индексирование : поисковая система добавляет веб-сайт в свою базу данных (в случае Google, в свой «Индекс»).
Рейтинг : поисковая система оценивает веб-сайт по таким показателям, как релевантность и удобство использования.
Индексирование означает, что сайт хранится в базах данных Google. Это не значит, что он будет отображаться в верхней части поисковой выдачи. Индексирование контролируется заранее определенными алгоритмами, которые учитывают такие элементы, как спрос веб-пользователей и проверки качества.Вы можете влиять на индексацию, управляя тем, как «пауки» обнаруживают ваш онлайн-контент.
Пройдите технический SEO-аудит
с помощью Semrush Site Audit
Нет никаких сомнений в том, что вы хотите, чтобы ваш сайт был проиндексирован, но как узнать, есть это или нет? К счастью, гигант поисковых систем позволяет довольно легко узнать, где вы находитесь, с помощью поиска по сайту. Вот как это проверить:
Зайдите в поисковую систему Google.
В строке поиска Google введите «site: example.com. »
Когда вы заглянете под панель поиска, вы увидите категории результатов Google «Все», «Изображения», «Новости» и т. Д. Прямо под этим вы увидите приблизительное количество ваших страниц, проиндексированных Google. .
Если отображается ноль результатов, страница не проиндексирована.
Кроме того, вы можете использовать Google Search Console, чтобы проверить, проиндексирована ли ваша страница. Создать учетную запись можно бесплатно. Вот как получить нужную информацию:
Войдите в Google Search Console.
Щелкните «Указатель».
Щелкните «Покрытие».
Вы увидите количество проиндексированных действительных страниц.
Если количество действительных страниц равно нулю, Google не проиндексировал вашу страницу.
Вы также можете использовать Search Console, чтобы проверить, проиндексированы ли определенные страницы. Просто вставьте URL-адрес в инструмент проверки URL-адресов. Если страница проиндексирована, вы получите сообщение «URL находится в Google.”
Чтобы проиндексировать сайт, Google может потребоваться от нескольких дней до нескольких недель. Это может расстраивать, если вы только что открыли страницу и обнаружили, что она не проиндексирована. Как можно открыть для себя вашу новую красивую веб-страницу через Google? К счастью, есть шаги, которые можно предпринять для более эффективного индексирования. Ниже мы объясним, что вы можете сделать, чтобы ускорить процесс.
Самый простой способ проиндексировать ваш сайт — это запросить индексацию через Google Search Console.Для этого перейдите в инструмент проверки URL в Google Search Console. Вставьте URL-адрес, который вы хотите проиндексировать, в строку поиска и дождитесь, пока Google проверит URL-адрес. Если URL не проиндексирован, нажмите кнопку «Запросить индексирование».
Примечание. Google временно отключил инструмент индексирования запросов в октябре 2020 года. Однако он был только что восстановлен в Search Console!
Однако индексация Google требует времени. Как уже упоминалось, если ваш сайт новый, он не будет проиндексирован в одночасье. Кроме того, если ваш сайт не настроен должным образом для сканирования роботом Googlebot, есть вероятность, что он вообще не будет проиндексирован.
Независимо от того, являетесь ли вы владельцем сайта или онлайн-маркетологом, вы хотите, чтобы ваш сайт был эффективно проиндексирован. Вот как это сделать.
Robots.txt — это файлы, которые робот Googlebot распознает как индикатор того, что он НЕ должен сканировать веб-страницу. Пауки поисковых систем от Bing и Yahoo также распознают Robots.txt. Вы могли бы использовать файлы Robots.txt, чтобы помочь сканерам определить приоритетность более важных страниц, чтобы они не перегружали ваш сайт запросами.
Хотя все это может показаться немного техническим, все сводится к обеспечению возможности сканирования вашей страницы, и вы можете получить дополнительную помощь в обнаружении этого с помощью нашего встроенного средства проверки SEO.Он обеспечивает обратную связь по оптимизации, включая технические изменения, например, блокировку сканирования страницы.
SEO-теги — еще один способ направлять пауков поисковых систем, таких как Googlebot. Есть два основных типа SEO-тегов, которые следует оптимизировать.
Неверные теги noindex : Эти теги запрещают поисковым системам индексировать страницы. Если определенные страницы не индексируются, возможно, у них есть теги noindex. Проверьте эти два типа:
Мета-теги : Вы можете проверить, какие страницы вашего веб-сайта могут иметь метатеги noindex, просмотрев предупреждения «страница noindex».Если страница помечена как noindex, удалите метатег, чтобы она проиндексировалась.
X-Robots-Tag : вы можете использовать Google Search Console, чтобы узнать, на каких страницах есть X-Robots-Tag в заголовке HTML. Используйте инструмент проверки URL, описанный выше. После входа на страницу найдите ответ на «Индексирование разрешено?» Если вы видите слова «Нет:« noindex »обнаружен в http-заголовке« X ‑ Robots-Tag »», значит, вам нужно удалить X-Robots-Tag.
Канонические теги : Канонические теги сообщают сканерам, предпочтительна ли определенная версия страницы.Если на странице нет канонического тега, робот Googlebot распознает, что это предпочтительная страница и единственная версия этой страницы, и проиндексирует эту страницу. Если на странице есть канонический тег, робот Googlebot предполагает, что существует альтернативная предпочтительная версия этой страницы, и не будет индексировать эту страницу, даже если другой версии не существует. Используйте инструмент проверки URL-адресов Google, чтобы проверить наличие канонических тегов. В этом случае вы увидите предупреждение «Альтернативная страница с каноническим тегом».
Внутренние ссылки помогают сканерам находить ваши веб-страницы.Страницы без ссылок известны как «страницы-сироты» и редко индексируются. Правильная архитектура сайта, изложенная в карте сайта, обеспечивает правильные внутренние ссылки.
XML-карта сайта содержит все содержимое вашего веб-сайта, что позволяет идентифицировать страницы, на которые нет ссылок. Вот еще несколько советов по использованию внутренних ссылок:
Удалить внутренние ссылки nofollow . Когда робот Googlebot сталкивается с тегами nofollow, он сообщает Google, что ему следует удалить указанную с тегами целевую ссылку из своего индекса.Удалите теги nofollow из ссылок.
Добавить высокопоставленные внутренние ссылки . Как уже упоминалось, пауки обнаруживают новый контент, сканируя ваш сайт. Внутренние ссылки ускоряют процесс. Оптимизируйте индексацию, используя страницы с высоким рейтингом для внутренних ссылок на новые страницы.
Генерировать качественные обратные ссылки . Google признает, что страницы важны и заслуживают доверия, если на них постоянно ссылаются авторитетные сайты. Обратные ссылки сообщают Google, что страницу следует проиндексировать.
Высокое качество контента имеет решающее значение как для индексации, так и для ранжирования. Чтобы обеспечить высокую эффективность содержания вашего веб-сайта, удалите некачественные и неэффективные страницы.
Это позволяет роботу Googlebot сосредоточиться на наиболее ценных страницах вашего веб-сайта, более эффективно используя ваш «краулинговый бюджет». Кроме того, вы хотите, чтобы каждая страница вашего сайта имела ценность для пользователей. Далее контент должен быть уникальным. Дублированный контент может быть красным флагом для Google Analytics.
Независимо от того, являетесь ли вы веб-мастером, управляющим корпоративным сайтом, программистом на JavaScript по найму или независимым блоггером, базовый навык SEO является обязательным навыком.SEO может показаться устрашающим, но вам не нужно быть экспертом, чтобы понять это.
Пройдите технический SEO-аудит
с помощью Semrush Site Audit
Как часто Google обновляет результаты поиска?
Автор Элин Энрот
Вот правда: точного ответа нет.
Хотя мы не можем дать вам точного ответа, веб-сайты могут видеть изменения в рейтинге всего за 30 секунд или даже за несколько недель. Это зависит от того, как быстро ваши обновления будут замечены и обработаны Google.
Как Google находит мой веб-сайт?
Google использует Googlebot , программное обеспечение для сканирования веб-страниц, для поиска и сбора информации в Интернете для добавления в свой индекс.
Робот Googlebot состоит из двух разных поисковых роботов: поискового робота для настольных компьютеров, имитирующего пользователя на настольном компьютере, и мобильного поискового робота, имитирующего пользователя на мобильном устройстве.
Сканеры ищут на веб-сайтах новую и обновленную информацию, чтобы сообщить в Google. В мире поисковых систем это называется сканирование .
Как часто Google сканирует мой сайт?
В Google Search Console вы можете просмотреть статистику сканирования , чтобы узнать, когда Google в последний раз посещал ваш сайт.
Чтобы найти эту информацию, вы можете ввести любой URL-адрес вашего сайта в строку поиска вверху страницы. После проверки вы можете просмотреть статистику сканирования на вкладке «Покрытие» в левой части панели инструментов. Вы можете увидеть дату и время последнего сканирования, а также узнать, какой робот Googlebot сканировал ваш сайт.
Согласно Google Search Console, Googlebot регулярно сканирует веб-контент, чтобы обновить свой индекс. Как часто Google сканирует ваш сайт, зависит от ссылок, рейтинга страницы и ограничений сканирования. Эти регулярные обходы приводят к изменениям в результатах поиска (страница результатов поисковой системы), которые отображаются вскоре после обновления индекса.Частота обновлений Google является субъективной; это зависит от аналитической производительности вашего сайта, авторитета домена, обратных ссылок, удобства для мобильных устройств, скорости страницы и других факторов.
Процесс сканирования является алгоритмическим. По словам Google, «компьютерные программы определяют, какие сайты сканировать, как часто и сколько страниц нужно загружать с каждого сайта». Если ваш сайт получает большой трафик, скорее всего, он имеет релевантный и удобный для пользователя контент. Сайты с высококачественным контентом будут сканироваться чаще . Если на ваш сайт мало посетителей, робот Google не будет сканировать его так часто.
После того, как Google завершит сканирование вашего веб-сайта, Google обрабатывает собранную информацию и добавляет ее в поисковый индекс Google.
“
Компьютерные программы определяют, какие сайты сканировать, как часто и сколько страниц нужно загружать с каждого сайта
Сколько времени потребуется Google, чтобы проиндексировать мои новые страницы или веб-сайт?
Популярность веб-сайта , возможность сканирования и структура — все это влияет на то, сколько времени потребуется Google для индексации сайта. В общем, робот Google найдет новых веб-сайтов от четырех дней до четырех недель.Однако это прогноз, и некоторые пользователи утверждают, что их проиндексировали менее чем за день.
Помогите Google быстрее проиндексировать и повторно проиндексировать ваш сайт:
Google Analytics : вы все равно захотите добавить свой веб-сайт в Google Analytics для отслеживания, но это также может предупредить Google о том, что новый веб-сайт готов для индексации. Все, что вам нужно для начала, — это адрес электронной почты Google. Вот руководство Google по началу работы с аналитикой.
Google Search Console : это бесплатный инструмент Google, который позволяет отслеживать статус вашего сайта в индексе Google и результатах поиска.Добавить свой сайт в Search Console довольно просто, особенно если у вас уже есть свой сайт в Google Analytics. Вот руководство Google по началу работы с Search Console.
Запросить проверку URL-адреса : Если вы недавно внесли изменения в свой веб-сайт, вы можете запросить проверку URL-адреса в Google Search Console. Это побудит Googlebot повторно сканировать вашу веб-страницу. После того, как вы заявили права на свой домен, вы можете запрашивать до 10 повторных сканирований отдельных URL-адресов в день. Вы можете найти его в верхней части панели инструментов Search Console.
Отправьте карту сайта : Карта сайта — это цифровая карта, на которой показано все содержимое вашего веб-сайта, чтобы помочь роботу Googlebot определить, какая информация, по вашему мнению, важна для вашего сайта, когда страницы обновлялись в последний раз и как часто страницы меняются. . После создания карты сайта вы можете отправить URL-адрес карты сайта на вкладке «Карта сайта» на панели инструментов Search Console.
Результаты индексирования зависят от сайта. Если вы владеете небольшим бизнесом, например магазином роскошных кухонных шкафов, в котором мало поисковых запросов, скорость индексации будет ниже, поскольку люди не активно ищут ваши услуги в большом количестве.Но если ваш веб-сайт представляет национальный бренд по ремонту бытовой техники, ваш индекс индексации будет выше.
Как часто Google делает обновления?
Чтобы результаты были актуальными и полезными, Google часто обновляет свои поисковые системы. В 2010 году поисковая система вносила 350-400 изменений, в среднем около одного в день. Однако в 2018 году Google внес 3200 изменений в свою поисковую систему — в среднем по несколько изменений в день.
Хотя точные изменения неизвестны, пользователи предполагают, что большинство из них связано с рейтингом и пользовательским интерфейсом.Google заявил, что «некоторые из этих [изменений] были видимыми запусками новых функций, в то время как многие другие были регулярными обновлениями, предназначенными для поддержания актуальности наших результатов по мере изменения содержания в Интернете».
Поисковая система также отметила, что некоторые изменения требуют времени. В то время как изменения в панели знаний и прогнозах с автоматическими предложениями происходят быстро, избранные фрагменты и другие изменения основных веб-результатов могут занять гораздо больше времени.
Хотя невозможно узнать, как часто Google будет вносить изменения в свои результаты поиска, есть большая вероятность, что это будет происходить хотя бы раз в день.
Получите Google для более частого повторного сканирования вашего сайта
Есть несколько шагов, которые вы можете предпринять, чтобы Google обращал внимание на ваши обновления. Многие эксперты говорят, что, когда происходит что-то серьезное, стимулирующее их SEO, например обратная ссылка с авторитетного веб-сайта или пресс-релиз, они видят изменения в течение дня или двух. Кроме того, те, кто инвестировал в SEO до повышения, с большей вероятностью сохранят свой новый рейтинг.
Факторы, способствующие более быстрому сканированию и индексации:
Авторитет домена: Оценка (по 100-балльной шкале), разработанная Moz, которая предсказывает, насколько хорошо веб-сайт будет ранжироваться в поисковых системах.
Авторитет страницы: Оценка (по 100-балльной шкале), разработанная Moz, которая предсказывает, насколько хорошо определенная страница будет ранжироваться в поисковых системах.
Удобный контент: Качество и возможность поиска контента, опубликованного на вашем сайте.
Популярность веб-сайта: Сочетание посещаемости сайта, CTR и времени нахождения на сайте.
Чем выше рейтинг вашего веб-сайта в каждой из этих категорий, тем быстрее будет сканирование и индексирование.
Обновить старое содержание
Повышение позиции в результатах поиска не должно быть вашей единственной целью. Вместо этого сосредоточьтесь на конверсиях и трафике. Помните, что Google сканирует ваш сайт, когда что-то меняется. Поэтому, если вы обновите свой старый контент, Google будет чаще индексировать ваши веб-страницы. Чем чаще Google индексирует ваш сайт, тем больше у вас шансов, что ваш контент появится в результатах поиска после публикации.
Обновление старого контента также поможет улучшить ваш рейтинг кликов (CTR).Люди более склонны нажимать на статьи, которые были опубликованы совсем недавно. Особенно, когда вы читаете о постоянно меняющихся темах, таких как SEO, здравоохранение или технологии. При обновлении вашего контента будет указана недавняя дата публикации, что повысит вероятность перехода пользователей на ваш сайт.
После применения этих изменений вы должны начать замечать повышение своего ранга в свое время. Хотя вы не можете точно знать, сколько времени потребуется Google, чтобы проиндексировать ваш новый сайт или веб-страницу, вы можете сделать обоснованное предположение, основываясь на его популярности, посещаемости и содержании.
Теперь, когда вы знаете, как часто Google обновляет результаты поиска, узнайте, почему вы не занимаетесь первым номером.
SEO: скажите Google, какие страницы не сканировать
Типичная цель поисковой оптимизации — сделать так, чтобы страницы вашего сайта отображались на странице результатов Google в ответ на запрос. Целью Google и любой другой поисковой системы является сканирование и индексирование всех страниц с описанием ваших продуктов, сообщений в блогах и статей, а также всего остального, что приводит к конверсиям.
Но есть страницы, которые не следует включать в результаты поиска. Удаление их из индекса Google может увеличить трафик поисковых систем на более важные страницы с более высокой конверсией.
Не индексируйте эти
Но разве вас волнует, отображаются ли в Google ваша политика конфиденциальности, информация о GDPR или аналогичные страницы? Страницы, которые вы, вероятно, не хотите, чтобы Google индексировал, включают:
- Страницы с благодарностью (отображаются после опроса или аналогичного)
- Целевые страницы объявлений (предназначены для кампаний с платой за клик)
- Результаты внутреннего поиска по сайту (поскольку переход со страницы результатов Google прямо на страницу результатов поиска вашего веб-сайта может быть неудобным для пользователей).
Не каждую страницу на веб-сайте вашей компании следует индексировать с помощью Google. Фото: Создатели кампании.
Удаление страниц
Удаление таких страниц из индекса Google также может повысить авторитет вашего веб-сайта, что, в свою очередь, может улучшить рейтинг различных страниц в Google по релевантным запросам.
Некоторые специалисты по SEO утверждают, что Google стал экспертом в определении качества контента и, так сказать, выискивает повторяющиеся, повторяющиеся или относительно некачественные страницы.
Более того, некоторые специалисты по SEO предположили, что Google усредняет относительную ценность всех страниц вашего веб-сайта для создания совокупной оценки авторитета или ценности. Это может быть авторитет домена, рейтинг домена или аналогичный показатель.
Если ваша компания наполнила индекс Google относительно малоценными страницами — например, политикой конфиденциальности, которую ваш технический специалист скопировал и вставил у поставщика платформы электронной коммерции, — это может повлиять на авторитетность вашего сайта в Google в целом.
Например, описывая тему удаления страниц веб-сайтов (в данном случае удаления страниц), Крис Хики из Inflow, агентства электронной коммерции в Денвере, штат Колорадо, сообщил о 22-процентном увеличении органического трафика поисковых систем и 7-процентном увеличении трафика. доход от органического поискового трафика после удаления тысяч повторяющихся страниц с веб-сайта электронной коммерции клиента.
Точно так же в 2017 году производитель инструментов SEO Moz удалил 75 процентов страниц своего веб-сайта из индекса Google.Страницы были в основном малоценными профилями участников сообщества Moz. На этих страницах не было особого уникального содержания, и удаление их из индекса Google привело к увеличению органического поискового трафика на 13,7% по сравнению с прошлым годом.
Инструмент для снятия
Пожалуй, лучший инструмент для удаления отдельной страницы из индекса Google — это метатег robots noindex .
Вставленный в раздел HTML-разметки страницы, этот простой тег просит все поисковые системы не индексировать связанную страницу.Основной веб-сканер Google, робот Googlebot, следует этой директиве и отбросит любую страницу, помеченную как noindex , при следующем сканировании этой страницы.
Используя систему управления содержанием вашего веб-сайта, должно быть относительно легко добавить этот тег на страницы политики, результаты внутреннего поиска и другие страницы, которые не нужно включать в индекс Google или показывать в ответ на запрос Google.
Заголовок ответа HTTP
Директива robots noindex также может быть передана в заголовке ответа HTTP.Заголовок ответа HTTP можно рассматривать как текстовое сообщение, которое ваш сервер отправляет веб-браузеру или поисковому роботу (например, роботу Google) при запросе страницы.
В этом заголовке ваш сайт может указать Google не индексировать страницу. Вот пример.
HTTP / 1.1 200 ОК X-Robots-Тег: noindex
Для некоторых предприятий может быть проще написать сценарий, который разместит этот X-Robots-Tag , чем вручную или даже программно добавить метатег robots.И этот HTTP-тег, и метатег имеют одинаковый эффект. Какой из этих методов использует ваш бизнес, зависит от ваших предпочтений.
Предотвратить индексацию?
Robots.txt не препятствует индексации. Файл robots.txt находится в корневом каталоге веб-сайта. Этот простой текстовый файл сообщает веб-сканеру поисковой системы, к каким страницам сайта он может получить доступ.
Часто владельцы и менеджеры веб-сайтов ошибочно думают, что запрет на использование страницы в файле robots.txt предотвратит отображение этой страницы в индексе Google.Но так бывает не всегда.
Например, если другой сайт ссылается на страницу веб-сайта вашей компании, робот Googlebot может перейти по этой ссылке и проиндексировать страницу, даже если эта страница запрещена в файле robots.txt.
Если вы хотите удалить страницы из индекса Google, файл robots.txt, вероятно, не лучший выбор. Скорее, это полезно для ограничения того, как Google индексирует ваш сайт, и предотвращения того, чтобы роботы поисковых систем перегружали веб-сервер вашей компании.
Важно отметить, что запрещать страницу в файле robots.txt и одновременно используйте тег noindex. Это может привести к тому, что робот Google пропустит директиву noindex.
В конечном счете, это может показаться нелогичным, но почти наверняка на веб-сайте вашей компании есть страницы, которые не следует включать в индекс Google или отображать на странице результатов Google. Лучший способ удалить эти страницы — использовать тег robots noindex .
Все, что вам нужно знать для SEO
Краулинговый бюджет — это концепция, которую часто неправильно понимают и часто обсуждают в сообществах SEO и цифрового маркетинга.
Большинство людей склонны думать, что это какая-то волшебная штука, с помощью которой вы можете «взломать» свой путь к лучшим результатам Google.
Несмотря на то, что все написано о том, как работают поисковые системы в целом — и о процессе сканирования в частности, — похоже, что маркетологи и веб-мастера все еще не понимают идею краулингового бюджета.
Проблема
Существует очевидное отсутствие понимания основ работы поисковых систем и того, как работает процесс поиска.
Реклама
Продолжить чтение ниже
Этот феномен создает путаницу и обычно приводит к тому, что деловые люди называют «синдромом блестящего объекта», который в основном подразумевает, что без понимания основ маркетологи менее способны к различению, поэтому они слепо следуют чьим-либо рекомендациям. Совет
Решение
Эта статья научит вас основам сканирования и тому, как их использовать, чтобы определить, стоит ли вам заботиться о «краулинговом бюджете» и действительно ли это что-то важное для вашего бизнеса / сайта.
Вы узнаете следующее:
- Как работают поисковые системы (краткое введение).
- Как работает сканирование?
- Что такое краулинговый бюджет и как он работает?
- Как это отслеживать и оптимизировать.
- Будущее ползания.
Приступим.
Определения
Прежде чем мы углубимся в концепцию бюджета сканирования и его последствия, важно понять, как работает процесс сканирования и что он означает для поисковых систем.
Как работают поисковые системы
Согласно Google, поисковая система выполняет три основных шага для создания результатов с веб-страниц:
Реклама
Продолжить чтение ниже
- Сканирование : Веб-сканеры получают доступ к общедоступным веб-страницам
- Индексирование : Google анализирует содержимое каждой страницы и сохраняет найденную информацию.
- Обслуживание (и ранжирование) : когда пользователь вводит запрос, Google представляет наиболее релевантные ответы из своего индекса.
Без сканирования ваш контент не будет проиндексирован, поэтому он не появится в Google.
Особенности процесса сканирования
Google заявляет в своей документации о сканировании и индексировании, что:
«Процесс сканирования начинается со списка веб-адресов, сканеры используют ссылки на этих сайтах для обнаружения других страниц. Программа уделяет особое внимание новым сайтам, изменениям существующих сайтов и мертвым ссылкам. Компьютерная программа определяет, какие сайты сканировать, как часто и сколько страниц загружать с каждого сайта.”
Что это значит для SEO?
- Сканеры используют ссылки на сайтах для обнаружения других страниц. (Внутренняя структура ссылок вашего сайта имеет решающее значение.)
- Поисковые роботы отдают приоритет новым сайтам, изменениям на существующих сайтах и мертвым ссылкам.
- Автоматизированный процесс решает, какие сайты сканировать, как часто и сколько страниц будет извлекать Google.
- На процесс сканирования влияют возможности вашего хостинга (ресурсы сервера и пропускная способность).
Как видите, сканирование сети — сложный и дорогостоящий процесс для поисковых систем, учитывая размер сети.
Без эффективного процесса сканирования Google не сможет «организовать мировую информацию и сделать ее общедоступной и полезной».
Но как Google гарантирует эффективное сканирование?
Расставляя приоритеты по страницам и ресурсам.
Для Google будет почти невозможно и дорого сканировать каждую веб-страницу.
Теперь, когда мы понимаем, как работает процесс сканирования, давайте углубимся в идею бюджета сканирования.
Что такое краулинговый бюджет?Бюджет сканирования — это количество страниц, которые сканер устанавливает для сканирования за определенный период времени.
Как только ваш бюджет будет исчерпан, поисковый робот перестанет получать доступ к содержанию вашего сайта и перейдет на другие сайты.
Реклама
Продолжить чтение Ниже
Бюджеты сканирования различны для каждого веб-сайта, и бюджет сканирования вашего сайта устанавливается автоматически Google.
Поисковая система использует широкий спектр факторов, чтобы определить, какой бюджет выделен на ваш сайт.
В общем, четыре основных фактора, которые Google использует для распределения краулингового бюджета:
- Размер сайта : для больших сайтов потребуется больший краулинговый бюджет.
- Настройка сервера : Производительность и время загрузки вашего сайта могут повлиять на выделенный ему бюджет.
- Частота обновлений : Как часто вы обновляете свой контент? Google будет отдавать приоритет контенту, который регулярно обновляется.
- Ссылки : Внутренняя структура ссылок и мертвые ссылки.
Хотя действительно проблемы, связанные со сканированием, могут помешать Google получить доступ к наиболее важному содержанию вашего сайта, важно понимать, что частота сканирования составляет , а не как показатель качества.
Более частое сканирование вашего сайта само по себе не поможет вам повысить рейтинг.
Если ваш контент не соответствует стандартам вашей аудитории, он не привлечет новых пользователей.
Это не изменится, если робот Googlebot будет чаще сканировать ваш сайт.
(И хотя сканирование необходимо для отображения результатов, это не сигнал ранжирования.)
Реклама
Продолжить чтение ниже
Как работает сканирование бюджета?Большая часть информации о том, как работает краулинговый бюджет, взята из статьи Гэри Иллиса в Центральном блоге Google для веб-мастеров.
В этом посте Иллис подчеркнул, что:
- Бюджет сканирования не должен вызывать беспокойства у большинства издателей.
- Если на сайте меньше нескольких тысяч URL-адресов, большую часть времени он будет сканироваться эффективно.
Вот ключевые понятия, которые вам нужно знать, чтобы лучше понять краулинговый бюджет.
Ограничение скорости сканированияGoogle знает, что его бот может наложить серьезные ограничения на веб-сайты, если он не будет осторожен, поэтому у них есть механизмы контроля, гарантирующие, что их сканеры будут посещать веб-сайт только с той периодичностью, которая является приемлемой для этого сайта.
Реклама
Продолжить чтение Ниже
Ограничение скорости сканирования помогает Google определить бюджет сканирования для веб-сайта.
Вот как это работает
- Робот Googlebot будет сканировать веб-сайт.
- Бот отправит сервер сайта и посмотрит, как он отреагирует.
- Робот Googlebot снизит или повысит лимит.
Владельцы веб-сайтов также могут изменить ограничение в консоли поиска Google, открыв страницу настроек скорости сканирования для вашего ресурса.
Требование сканированияРобот Googlebot также принимает во внимание потребность, которую любой конкретный URL получает от самого индекса, чтобы определить, насколько активным или пассивным он должен быть.
Реклама
Продолжить чтение ниже
Два фактора, которые играют важную роль в определении спроса на сканирование:
- Популярность URL: Популярные страницы будут индексироваться чаще, чем те, которые не индексируются.
- Устойчивость: Система Google предотвращает устаревание URL-адресов и поддерживает актуальность содержания.
Google в основном использует эти ограничения скорости сканирования и требования сканирования, чтобы определить количество URL-адресов, которые робот Googlebot может и хочет сканировать (бюджет сканирования).
Факторы, влияющие на бюджет сканированияНаличие значительного количества малоценных URL-адресов на вашем сайте может отрицательно повлиять на возможность сканирования вашего сайта.
Такие вещи, как бесконечная прокрутка, дублированный контент и спам, значительно снизят потенциал сканирования вашего сайта.
Вот список критических факторов, которые повлияют на краулинговый бюджет вашего сайта.
Настройка сервера и хостингаGoogle учитывает стабильность каждого веб-сайта.
Робот Googlebot не будет сканировать сайт, который постоянно дает сбой.
Идентификаторы фасетной навигации и сеансаЕсли на вашем веб-сайте много динамических страниц, это может вызвать проблемы с динамическими URL-адресами, а также с доступностью.
Реклама
Продолжить чтение ниже
Эти проблемы не позволят Google проиндексировать больше страниц на вашем веб-сайте.
Дублированный контентДублирование может быть большой проблемой, поскольку не представляет ценности для пользователей Google.
Контент низкого качества и спамСканер также снизит ваш бюджет, если обнаружит, что значительная часть контента на вашем веб-сайте имеет низкое качество или является спамом.
РендерингСетевые запросы, сделанные во время рендеринга, могут учитываться в вашем бюджете сканирования.
Не знаете, что такое рендеринг?
Это процесс заполнения страниц данными из API и / или баз данных.
Это помогает Google лучше понять макет и / или структуру вашего сайта.
Как отслеживать бюджет сканированияОпределить и контролировать текущий бюджет сканирования может быть сложно, поскольку новая Search Console скрывает большинство устаревших отчетов.
Кроме того, идея журналов сервера для многих кажется чрезвычайно технической.
Вот краткий обзор двух распространенных способов, с помощью которых вы можете контролировать свой краулинговый бюджет.
Реклама
Продолжить чтение ниже
Консоль поиска GoogleШаг 1. Перейдите в Search Console> Устаревшие инструменты и отчеты> Статистика сканирования
Шаг 2. Откройте отчет «Статистика сканирования» и получите представление активности робота Googlebot за последние 90 дней.(Вы видите какие-либо закономерности?)
Журналы сервераЖурналы сервера хранят каждый запрос, сделанный к вашему веб-серверу.
Запись журнала добавляется в файл журнала доступа каждый раз, когда пользователь или робот Googlebot посещает ваш сайт.
Реклама
Продолжить чтение ниже
Робот Googlebot оставляет запись в вашем файле журнала доступа при посещении вашего веб-сайта.
Вы можете вручную или автоматически проанализировать этот файл журнала, чтобы узнать, как часто робот Googlebot посещает ваш сайт.
Существуют коммерческие анализаторы журналов, которые могут это сделать, они помогут вам получить актуальную информацию о том, что Google-бот делает на вашем веб-сайте.
Отчеты анализа журнала сервера покажут:
- Как часто сканируется ваш сайт.
- Какие страницы чаще всего посещает робот Googlebot.
- С какими типами ошибок столкнулся бот.
Вот список самых популярных инструментов для анализа журналов.
Анализатор файлов журнала SEMrush
Анализатор файлов журнала SEO от Screamingfrog
Анализатор журнала OnCrawl
Ботлоги от Ryte
SEOlyzer 924322
Оптимизация для 9203 9203 9000 9203000 Поисковый робот 924322 9 Надеюсь, вы уже знаете, что оптимизация краулингового бюджета важнее для крупных сайтов.
Реклама
Продолжить чтение ниже
1. Расставьте приоритеты, что и когда сканировать
Вы всегда должны отдавать предпочтение страницам, которые представляют реальную ценность для вашего конечного пользователя.
Вот как вы можете найти эти URL-адреса, объединив данные из Google Analytics и Search Console.
Страницы, генерирующие клики и приносящие доход, должны быть легко доступны для поисковых роботов.
Иногда рекомендуется создать отдельную карту сайта в формате XML, включающую или ваши ключевые страницы (подробнее об этом позже)
Реклама
Продолжить чтение ниже
2.Определите, сколько ресурсов может выделить сервер, на котором размещен сайт.
Загрузите файлы журнала сервера и используйте один из упомянутых выше инструментов для выявления шаблонов и потенциальных проблем.
Вот пример анализатора файлов журнала SEMrush
Ваша конечная цель здесь должно быть, чтобы получить представление о том, как робот Google влияет на текущую настройку сервера.
3. Оптимизируйте свои страницыОптимизация XML-карты сайта
Реклама
Продолжить чтение ниже
Создайте несколько карт сайта, сгруппированных по типу URL или разделу на вашем сайте (т.е., products.xml, blog-post.xml и т. д.).
Это поможет вам контролировать процесс сканирования наиболее ценных разделов вашего сайта.
Частота обновлений
Обязательно уведомляйте Google каждый раз, когда ваш контент обновляется.
Это можно сделать с помощью структурированных данных, карт сайта XML или даже eTag.
Контент низкого качества, спам и дублированный контент
Реклама
Продолжить чтение ниже
Очистите свой веб-сайт, удалив некачественный, дублированный контент и / или спам.
Проблемы со ссылками
Ссылки со страницы на страницу по-прежнему чрезвычайно важны для процесса сканирования,
Каждый веб-сайт должен периодически исправлять такие вещи, как неправильные перенаправления, ошибки 404 и цепочки перенаправления.
Оптимизация Robots.txt
Вы можете оптимизировать свой файл robots.txt, исключив ненужные URL-адреса или файлы (например, внутреннюю аналитику или чат-боты) из процесса сканирования.
Не исключайте полезные или важные источники из Googlebot (т.е., файл CSS, необходимый для рендеринга конкретной страницы).
Как изменился процесс сканирования
Google и процесс сканирования со временем эволюционировали.
Вот обзор наиболее важных изменений, которые мы пережили за последние несколько лет.
Mobile-First Indexing
В марте 2018 года Google начал уделять приоритетное внимание мобильному контенту в Интернете и обновил свой индекс с «сначала настольные» до «сначала мобильные», пытаясь улучшить взаимодействие с пользователями мобильных устройств.
С этим изменением Google Desktop Bot был заменен на смартфон Googlebot в качестве основного поискового робота.
Реклама
Продолжить чтение ниже
Google изначально объявила, что с сентября 2020 года перейдет на индексацию с мобильных устройств для всех сайтов.
Дата перенесена до марта 2021 года из-за некоторых проблем.
Когда переключение будет выполнено, большая часть сканирования для поиска будет выполняться агентом пользователя мобильного смартфона Google.
Снижение скорости сканирования роботом Googlebot
Google позволяет снизить скорость сканирования для веб-сайтов, которые испытывают критические проблемы с сервером или нежелательные затраты в процессе сканирования.
Есть новое руководство по документации для разработчиков.
Будущее сканирования
Как отметил Кевин Индиг, есть признаки потенциального сдвига в способах доступа Google к веб-контенту от сканирования к API индексирования.
Реклама
Продолжить чтение ниже
От Mobile-First к AI-First
В 2017 году генеральный директор Google Сундар Пичаи объявил о переходе от поиска и организации мировой информации к AI и машинному обучению.
Этот переход будет реализован для всех продуктов и платформ.
Google Search уже использует различные типы машинного обучения (например, BERT) для поддержки и улучшения понимания человеческого языка, алгоритмов ранжирования и страниц результатов поиска.
Крупные инвестиции в машинное обучение и программы искусственного интеллекта позволят Google получить лучшую модель прогнозирования для персонализированных страниц результатов поиска.
(Обратите внимание, что большинство приложений, разработанных Google AI, являются приложениями чисто машинного обучения и Narrow AI.)
При наличии точной модели прогнозирования, которая способна ранжировать веб-сайты на основе нескольких точек данных (т. Е. Местоположения, истории поиска, лайков объектов и т. Д.), Текущий процесс сканирования станет избыточным, поскольку поисковая система сможет предоставить хороший выход с ограниченным входом.
Другими словами, Google не нужно сканировать всю сеть — только релевантные для пользователей веб-сайты.
Реклама
Продолжить чтение ниже
Google уже тестирует это.
В статье под названием «Предиктивное сканирование коммерческого веб-контента» вы можете увидеть, как они создали систему машинного обучения, которая смогла оптимизировать источники сканирования, прогнозируя изменения цен на сайтах электронной коммерции для покупок в Google.
Становится все труднее сканировать Интернет
С почти 2 миллиардами веб-сайтов в сети сканирование и индексирование контента стало сложным и дорогостоящим процессом для Google.
Реклама
Продолжить чтение ниже
Если Интернет продолжит расти такими темпами, Google будет легче контролировать только процесс индексации и ранжирования поиска.
Отклонение спама или страниц низкого качества без потери ресурсов на сканирование миллионов страниц Google значительно улучшит свою работу.
В будущем Google, возможно, потребуется уменьшить размер индекса, чтобы уделять первостепенное внимание качеству и удостовериться, что его результаты актуальны и полезны.
И Google, и Bing имеют API индексирования.
Обе компании разработали инструменты, которые можно использовать, чтобы уведомлять их при каждом обновлении вашего веб-сайта.
API индексирования предназначены для обеспечения мгновенного сканирования, индексации и обнаружения содержимого вашего сайта.
Как видно в Bing Webmaster Tools Как видно на developers.google.comЗаключительные мысли
Бюджет сканирования — как концепция и потенциальная метрика оптимизации — актуален и полезен для определенного типа веб-сайта.
Реклама
Продолжить чтение ниже
В ближайшем будущем идея краулингового бюджета может измениться или даже исчезнуть, поскольку Google постоянно развивается и тестирует новые решения для своих пользователей.
Придерживайтесь основных принципов и расставляйте приоритеты в деятельности, которая создает ценность для ваших конечных пользователей.
Дополнительные ресурсы:
Кредиты на изображения
Рекомендуемое изображение: Создано автором, август 2020 г.