Страница обходится роботом и находится в поиске – «Что значит страница обходится роботом, но отсутствует в поиске в Яндексе? Когда ожидать появление сайта в поиске?» – Яндекс.Знатоки

Яндекс плохо индексирует сайт. Почему?

А подобные доски делают на общих серверах, если конечно у вас не АВИТО.
Просто у многих хостеров есть ограничения типа:
Допустимая нагрузка на CPU Web 7% (100cp)
Допустимая нагрузка на CPU MySQL 1 400 с

——————————
«На процессы пользователя накладываются следующие ограничения:
— максимальное количество одновременно выполняемых задач — 10
— максимальное допустимое время работы скрипта: не более 2 процессорных минут
— максимальное количество открытых файлов на один процесс — 10
— максимальное использование памяти на процессы пользователя — 0,2 Гб
— максимальный размер файла — 0,2 Гб

На php-скрипты накладываются следующие ограничения:
— максимальное время выполнения (max_execution_time) — 60 секунд
— максимальное использование памяти (memory_limit) — 128 Мб

Максимальное количество одновременных http соединений — 20 для тарифов виртуального хостинга

Максимальное количество одновременных соединений с сервером БД MySQL — 50
Максимальное количество FTP-подключений от одного пользователя или с одного IP-адреса — 2.
Максимальное количество файлов на аккаунте — 100 000.

Максимальное количество писем отправляемых через наш smtp сервер — не более 100 писем в час.
Размер одного письма ограничен 5 Мб
Письмо должно иметь не более 5 получателей (поля TO, CC, BCC)

В случае превышения лимитов процессы, вызывающие перегрузку, могут быть отключены. В случае, если подобное превышение лимитов происходит систематически и Абонент не принимает мер по нормализации ситуации, после предупреждения ресурс может быть заблокирован.»
—————————-

А у некоторых таких ограничений нет, но зато есть ошибка 500, 502, 504.

Я за 3 месяца сменил 4 хостинг компании.
Сейчас сайт летает на недорогом VPS. Ноу проблем.

pr-cy.ru

Инструмент Яндекса по проверке URL страницы сайта


проверить url ЯндексПриветствую Читателя блога Интернет-путь к успеху. В данной статье речь пойдет об инструменте Яндекса “Проверить URL”, который появился в начале 2014 г.

Данная функция служит для анализа определенных страниц вашего блога. Она весьма полезная и должна стоять на вооружении у каждого вебмастера.

У меня была одна история — напечатал статью, опубликовал ее. Прошла одна неделя, потом вторая, а статья Яшей все так и не индексировалась. Сначала думал, что поисковые роботы посчитали за копипаст, но Advego Plagiatus показал “Уникальность хорошая”.

И тут стало грустно, пока не узнал о новом инструменте Яндекса. Вбив туда URL своей проблемной страницы, система выдала буквально следующее – “Страница обходится роботом, но отсутствует в поиске, поскольку дублирует уже имеющиеся страницы.” Немного потрудился над вновь созданной проблемой и она появилась в поиске.

Хотя дубли страницы – это такая “интересная” тема. Но это уже совсем другая история. Факт в том, что если бы не данная функция, я бы еще долго (со своим дилетантским подходом)  не узнал, почему не индексируется Яндексом моя web-страница.

Какую информацию может дать инструмент “Проверить URL”?

  • Выдает дату последней загрузки страницы роботом
  • Определяет наличие ошибки при этой загрузке с выдачей кода
  • Показывает- исключена или присутствует страница в поисковой базе
  • Указывает на версию страницы на момент построения поисковой базы
  • Количество внешних и внутренних ссылок, ведущих на страницу

Так что расклад по странице, по-моему, не плохой. Последний пункт так же не менее важен. Ведь каждому вебмастеру важно знать — сколько ссылок ведет на страницу, особенно внешних. Жаль не дается информация с каких именно сайтов.

Как начать работать с инструментом Яндекса “Проверить URL”?

Чтобы проверить информацию об индексировании страницы и не только, нужно зайти в Яндекс.Вебмастер и перейти в раздел “Мои сайты”. Там выбираем и заходим на интересующий домен и жмем “Проверить URL”. Вводим url страницы и далее проверяем. Статус изменяется на “обрабатывается”, а потом на “готово”. Обрабатываться может несколько минут. Статус “готово” будет в виде ссылки, на нее и кликаем.

яндекс вебмастер проверить url

Все, вся информация перед нами. Думаю, инструмент Яндекса вам понравится. Я им пользуюсь постоянно. Более подробную информацию можите прочитать в Яндекс.Помощь.

Поделиться «Функция «Проверить URL» от Яндекса»

barbadosmaney.ru

9 популярных ошибок любого сайта. Или почему не растут позиции.

Поисковая оптимизация – большая работа над множеством различных факторов. Дизайн, техническая составляющая, контент. Даже незначительные на первый взгляд детали очень важны для продвижения. О самых частых ошибках в дизайне сайта мы уже говорили. Сегодня разберем 9 фатальных SEO ошибок, способных «угробить» любой сайт.

  • Фильтры и санкции поисковых систем

    Как минимум, раз в неделю рекомендую заглядывать в вебмастера Яндекс и Google для проверки наличия санкций. В Яндексе это можно сделать в разделе Диагностика → Безопасность и нарушения. В Google – Поисковый трафик → Меры, принятые вручную.

    Как показывает наша практика, чаще всего владельцы сайтов даже не догадываются о наложенных ограничениях. Недавний пример из нашей работы:

    Нарушения Яндекс. Малополезный контент

    Большое количество чужих текстов на сайте и открытые исходящие ссылки. Результат на скриншоте.

    До снятия всех ограничений дальнейшего смысла заниматься продвижением нет. Исправляем все ошибки, сообщаем поисковой системе и ждем снятия санкций.

  • Контент

    Мы постоянно говорим о том, как важны тексты. Контент – это то, зачем пользователи заходят на сайты. Неуникальный и неинтересный контент никому не нужен. Поисковые системы занижают подобные ресурсы в выдаче, а клиенты устали читать одни и те же шаблонные тексты на сотне сайтов. Пруф того, что за контент можно вылететь с хороших позиций, тут.

    Проверяйте уникальность текстов перед размещением на text.ru.

    Как писать тексты, на какие страницы и в целом, о контенте, много написано в нашем блоге. Вот хорошая подборка статей от нашего копирайтера Дарьи.

  • Теги Title и Description, заголовки h2-h4

    Основа SEO-продвижения – правильно подобранные ключевые слова. Это очень важный фактор в оценке релевантности вашего сайта поисковому запросу.

    Чаще всего мы сталкиваемся с двумя ошибками. Полное отсутствие ключевых слов в тегах:

    title без ключевых запросов

    Тег Title должен быть заполнен в виде связного предложения с включением ключевых слов.

    Либо переспам ключами в заголовках:

    переспам alt

    Важно найти золотую середину. Теги должны быть полезными не только для поисковых роботов, но и для обычных людей. Не забывайте об информативности. Как правильно писать теги title, description и заголовки h2, хорошо рассказывает наш копирайтер Екатерина в своей статье.

  • Переезд на https

    C января 2017 года браузер Google Chrome (начиная с 56 версии) начал помечать все HTTP-сайты, содержащие любые формы, передающие личные данные пользователей (email, пароли, данные кредитных карт и т.п.) как «небезопасные». Также наличие SSL сертификата является небольшим импульсом в ранжировании в Google.

    Небезопасные сайты

    Всем интернет-магазинам в первую очередь следует перейти на протокол https. При этом очень важно соблюсти правильный алгоритм действий.

    Самая частая ошибка – просто настроить 301-редирект со старой версии http на https после покупки SSL-сертификата. Владельцы сайтов забывают о файле robots.txt, директиве Host, настройке вебмастеров. Сайт с http выпадает из индекса, новый сайт на https еще не проиндексирован. Все позиции моментально улетают в трубу.

    В нашем Блоге есть подробная инструкция, как правильно перенести сайт с http на https. Если останутся вопросы, пишите нам, обязательно поможем.

  • Файл robots.txt

    Текстовый файл, размещенный на сайте и предназначенный для роботов поисковых систем. В этом файле следует указать параметры индексирования своего сайта для поисковых роботов.

    Иногда файл robots.txt отсутствует вовсе.

    Свежий пример из нашей работы. Интернет-магазин станков, работы проводились в рамках услуги поисковое продвижение сайта. Сайт был полностью открыт для индексации поисковым роботам и вовсе не имел файл robots.txt.

    Настроили ему robots, теперь все в порядке:

    Небезопасные сайты

    Что конкретно мы сделали?

    Закрыли от индексации админ панель сайта, служебные страницы 404 и 403, страницу поиска, корзину. Указали адрес карты сайта, настроили директиву Host.

    Вместе с остальными работами по оптимизации это помогло достичь следующих результатов:

    рост посетителей на сайте

    Еще одна серьезная ошибка – сайт полностью закрыт от индексации. За это отвечают директивы Disallow и Allow, которые запрещают или разрешают индексирование разделов, отдельных страниц сайта или файлов соответственно. Для проверки файла у поисковых систем есть специальные инструменты: Яндекс и Google.

    Проверьте, что у вашего сайта имеется файл robots.txt и заполнен он корректно. От индексации следует закрывать все служебные страницы, страницы поиска и фильтров. Страницы дублей, регистрации, авторизации. Корзину и страницу оформления заказа для интернет-магазинов. Подробнее о robots.txt.

  • Дублирование контента (дубли страниц)

    Дублированный контент или просто дубли – это страницы на вашем сайте, которые полностью (четкие дубли) или частично (нечеткие дубли) совпадают друг с другом, но каждая из них имеет свой URL.

    Одна страница может иметь как один, так и несколько дублей:

    переспам alt

    Поисковые роботы отрицательно относятся к дублированному контенту и могут понизить позиции в выдаче из-за отсутствия уникальности, а следовательно, и полезности для клиента. Нет смысла читать одно и то же на разных страницах сайта.

    Может измениться релевантная страница. Робот может выбрать для выдачи дублированную страницу, если посчитает ее содержание более релевантным запросу. Сайт потеряет позиции и просядет в выдаче. В 90% случаев дубли мешают продвижению, и после их устранения позиции сайта улучшаются.

    Как найти и убрать дубли на сайте, рассказываем в данной статье.

  • Зеркала сайта

    Зеркалами считаются сайты, являющиеся полными копиями друг друга, доступные по разным адресам. Все зеркала сайта важно склеить через 301 редирект.

    Показатели тИЦ, вес внешних ссылок не должны растекаться, а они будут, т.к. поисковики считают разными ресурсами сайты, расположенные по разным адресам. Возможна подмена релевантной страницы в поисковой выдаче, дублирование контента. 100% мешает росту сайта в выдаче.

    Сайт не должен открываться по разным адресам, с www и без www, просто site.ru и site.ru/index.php, по http и https и т.д.:

    переспам alt

    Чек-лист для проверки:

    • Сайт должен быть доступен только по одному протоколу http или https.
    • Выбрано главное зеркало сайта, с www или без www, указано в Вебмастере.
    • Настроен 301 редирект со всех зеркал.
    • Главная страница сайта доступна по одному адресу, без /index.php, /index.html и т.п.
  • Адаптивная верстка (версия сайта для мобильных устройств)

    100% Must-have для всех сайтов в 2017 году. Сегодня рост мобильного трафика опережает компьютерный. Число пользователей, использующих смартфоны для совершения покупок, в мире растет с каждым днем. Алгоритмы поисковых систем учитывают адаптивность при ранжировании сайта в мобильной выдаче.

    Google уже с 2015 года использует алгоритм Google mobile-friendly.

    Яндекс год назад запустил алгоритм Владивосток.

    Если ваш сайт все еще не адаптирован под мобильные устройства – каждый день вы теряете до половины своих клиентов. Подробнее о том, зачем нужна оптимизация.

  • Скорость загрузки сайта

    Тут все просто. Пользователям не нравятся медленные сайты. Поисковые системы так же отдают предпочтение быстрым, оптимизированным сайтам. Проверить скорость загрузки своего сайта можно с помощью инструмента Google. Красный – медленно, важно срочно увеличивать скорость, желтый – нормально, но можно оптимизировать, зеленый – отлично.

    скорость загрузки сайта

    Разберем на конкретном примере

    Помните, в начале статьи мы упоминали интернет-магазин станков. Что мы исправили из фатальных ошибок:

    • Неуникальный контент

    Написали хороший продающий, уникальный текст на главную страницу сайта.

    До проведения работ:

    Текст на главной

    После оптимизации:

    Текст на главной странице сайта
    • Ошибки оптимизации

    Скорректировали теги title и description, заголовки h2.

    До проведения работ:

    ТТекст на главной странице сайта

    После оптимизации:

    ТТекст на главной странице сайта
    • Отсутствие файла robots.txt

    Создали и настроили файл robots.txt. Сейчас сайт правильно индексируется поисковыми системами. До этого, как писали выше, данного файла не было на сайте вовсе.

    • Наличие не склеенных зеркал

    Склеили зеркала сайта. Сайт был доступен по двум адресам с www и без.

    • Некорректный ответ сервера для несуществующих страниц

    Создали отдельную страницу 404 и настроили правильный ответ сервера для несуществующих страниц.

    До выполнения работ несуществующие страницы через 302 редирект перенаправляли пользователя на главную страницу сайта.

    Результаты:

    Положительная динамика роста посещаемости из поисковых систем:

    Рост посещаемости

    Трафик из Google вырос в два раза:

    Рост трафика из Google

    Результат за 3 месяца:

    +8 запросов у Яндекса, +6 у Google в топ-5

    +19 запросов у Яндекса, +9 у Google в топ-10

    +25 запросов у Яндекса, +11 у Google в топ-20

    +14 запросов у Яндекса, +4 у Google в топ-50

    Посмотреть позиции до и после »

    Хотите так же? Проверьте, может данные ошибки есть и на вашем сайте. Если нет времени и желания разбираться, заказывайте поисковое продвижение у нас, с радостью поможем.

  • 1ps.ru

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *