Яндекс плохо индексирует сайт. Почему?
А подобные доски делают на общих серверах, если конечно у вас не АВИТО.Просто у многих хостеров есть ограничения типа:
Допустимая нагрузка на CPU Web 7% (100cp)
Допустимая нагрузка на CPU MySQL 1 400 с
——————————
«На процессы пользователя накладываются следующие ограничения:
— максимальное количество одновременно выполняемых задач — 10
— максимальное допустимое время работы скрипта: не более 2 процессорных минут
— максимальное количество открытых файлов на один процесс — 10
— максимальное использование памяти на процессы пользователя — 0,2 Гб
— максимальный размер файла — 0,2 Гб
На php-скрипты накладываются следующие ограничения:
— максимальное время выполнения (max_execution_time) — 60 секунд
— максимальное использование памяти (memory_limit) — 128 Мб
Максимальное количество одновременных http соединений — 20 для тарифов виртуального хостинга
Максимальное количество FTP-подключений от одного пользователя или с одного IP-адреса — 2.
Максимальное количество файлов на аккаунте — 100 000.
Максимальное количество писем отправляемых через наш smtp сервер — не более 100 писем в час.
Размер одного письма ограничен 5 Мб
Письмо должно иметь не более 5 получателей (поля TO, CC, BCC)
В случае превышения лимитов процессы, вызывающие перегрузку, могут быть отключены. В случае, если подобное превышение лимитов происходит систематически и Абонент не принимает мер по нормализации ситуации, после предупреждения ресурс может быть заблокирован.»
—————————-
А у некоторых таких ограничений нет, но зато есть ошибка 500, 502, 504.
Я за 3 месяца сменил 4 хостинг компании.
Сейчас сайт летает на недорогом VPS. Ноу проблем.
pr-cy.ru
Инструмент Яндекса по проверке URL страницы сайта
Приветствую Читателя блога Интернет-путь к успеху. В данной статье речь пойдет об инструменте Яндекса “Проверить URL”, который появился в начале 2014 г.
Данная функция служит для анализа определенных страниц вашего блога. Она весьма полезная и должна стоять на вооружении у каждого вебмастера.
У меня была одна история — напечатал статью, опубликовал ее. Прошла одна неделя, потом вторая, а статья Яшей все так и не индексировалась. Сначала думал, что поисковые роботы посчитали за копипаст, но Advego Plagiatus показал “Уникальность хорошая”.
И тут стало грустно, пока не узнал о новом инструменте Яндекса. Вбив туда URL своей проблемной страницы, система выдала буквально следующее – “Страница обходится роботом, но отсутствует в поиске, поскольку дублирует уже имеющиеся страницы.” Немного потрудился над вновь созданной проблемой и она появилась в поиске.
Хотя дубли страницы – это такая “интересная” тема. Но это уже совсем другая история. Факт в том, что если бы не данная функция, я бы еще долго (со своим дилетантским подходом) не узнал, почему не индексируется Яндексом моя web-страница.
Какую информацию может дать инструмент “Проверить URL”?
- Выдает дату последней загрузки страницы роботом
- Определяет наличие ошибки при этой загрузке с выдачей кода
- Показывает- исключена или присутствует страница в поисковой базе
- Указывает на версию страницы на момент построения поисковой базы
- Количество внешних и внутренних ссылок, ведущих на страницу
Так что расклад по странице, по-моему, не плохой. Последний пункт так же не менее важен. Ведь каждому вебмастеру важно знать — сколько ссылок ведет на страницу, особенно внешних. Жаль не дается информация с каких именно сайтов.
Как начать работать с инструментом Яндекса “Проверить URL”?
Чтобы проверить информацию об индексировании страницы и не только, нужно зайти в Яндекс.Вебмастер и перейти в раздел “Мои сайты”. Там выбираем и заходим на интересующий домен и жмем “Проверить URL”. Вводим url страницы и далее проверяем. Статус изменяется на “обрабатывается”, а потом на “готово”. Обрабатываться может несколько минут. Статус “готово” будет в виде ссылки, на нее и кликаем.
Все, вся информация перед нами. Думаю, инструмент Яндекса вам понравится. Я им пользуюсь постоянно. Более подробную информацию можите прочитать в Яндекс.Помощь.
Поделиться «Функция «Проверить URL» от Яндекса»
barbadosmaney.ru
9 популярных ошибок любого сайта. Или почему не растут позиции.
Поисковая оптимизация – большая работа над множеством различных факторов. Дизайн, техническая составляющая, контент. Даже незначительные на первый взгляд детали очень важны для продвижения. О самых частых ошибках в дизайне сайта мы уже говорили. Сегодня разберем 9 фатальных SEO ошибок, способных «угробить» любой сайт.
Как минимум, раз в неделю рекомендую заглядывать в вебмастера Яндекс и Google для проверки наличия санкций. В Яндексе это можно сделать в разделе Диагностика → Безопасность и нарушения. В Google – Поисковый трафик → Меры, принятые вручную.
Как показывает наша практика, чаще всего владельцы сайтов даже не догадываются о наложенных ограничениях. Недавний пример из нашей работы:

Большое количество чужих текстов на сайте и открытые исходящие ссылки. Результат на скриншоте.
До снятия всех ограничений дальнейшего смысла заниматься продвижением нет. Исправляем все ошибки, сообщаем поисковой системе и ждем снятия санкций.
Мы постоянно говорим о том, как важны тексты. Контент – это то, зачем пользователи заходят на сайты. Неуникальный и неинтересный контент никому не нужен. Поисковые системы занижают подобные ресурсы в выдаче, а клиенты устали читать одни и те же шаблонные тексты на сотне сайтов. Пруф того, что за контент можно вылететь с хороших позиций, тут.
Проверяйте уникальность текстов перед размещением на text.ru.
Как писать тексты, на какие страницы и в целом, о контенте, много написано в нашем блоге. Вот хорошая подборка статей от нашего копирайтера Дарьи.
Основа SEO-продвижения – правильно подобранные ключевые слова. Это очень важный фактор в оценке релевантности вашего сайта поисковому запросу.
Чаще всего мы сталкиваемся с двумя ошибками. Полное отсутствие ключевых слов в тегах:

Тег Title должен быть заполнен в виде связного предложения с включением ключевых слов.
Либо переспам ключами в заголовках:

Важно найти золотую середину. Теги должны быть полезными не только для поисковых роботов, но и для обычных людей. Не забывайте об информативности. Как правильно писать теги title, description и заголовки h2, хорошо рассказывает наш копирайтер Екатерина в своей статье.
C января 2017 года браузер Google Chrome (начиная с 56 версии) начал помечать все HTTP-сайты, содержащие любые формы, передающие личные данные пользователей (email, пароли, данные кредитных карт и т.п.) как «небезопасные». Также наличие SSL сертификата является небольшим импульсом в ранжировании в Google.
Всем интернет-магазинам в первую очередь следует перейти на протокол https. При этом очень важно соблюсти правильный алгоритм действий.
Самая частая ошибка – просто настроить 301-редирект со старой версии http на https после покупки SSL-сертификата. Владельцы сайтов забывают о файле robots.txt, директиве Host, настройке вебмастеров. Сайт с http выпадает из индекса, новый сайт на https еще не проиндексирован. Все позиции моментально улетают в трубу.
В нашем Блоге есть подробная инструкция, как правильно перенести сайт с http на https. Если останутся вопросы, пишите нам, обязательно поможем.
Текстовый файл, размещенный на сайте и предназначенный для роботов поисковых систем. В этом файле следует указать параметры индексирования своего сайта для поисковых роботов.
Иногда файл robots.txt отсутствует вовсе.
Свежий пример из нашей работы. Интернет-магазин станков, работы проводились в рамках услуги поисковое продвижение сайта. Сайт был полностью открыт для индексации поисковым роботам и вовсе не имел файл robots.txt.
Настроили ему robots, теперь все в порядке:

Что конкретно мы сделали?
Закрыли от индексации админ панель сайта, служебные страницы 404 и 403, страницу поиска, корзину. Указали адрес карты сайта, настроили директиву Host.
Вместе с остальными работами по оптимизации это помогло достичь следующих результатов:
Еще одна серьезная ошибка – сайт полностью закрыт от индексации. За это отвечают директивы Disallow и Allow, которые запрещают или разрешают индексирование разделов, отдельных страниц сайта или файлов соответственно. Для проверки файла у поисковых систем есть специальные инструменты: Яндекс и Google.
Проверьте, что у вашего сайта имеется файл robots.txt и заполнен он корректно. От индексации следует закрывать все служебные страницы, страницы поиска и фильтров. Страницы дублей, регистрации, авторизации. Корзину и страницу оформления заказа для интернет-магазинов. Подробнее о robots.txt.
Дублированный контент или просто дубли – это страницы на вашем сайте, которые полностью (четкие дубли) или частично (нечеткие дубли) совпадают друг с другом, но каждая из них имеет свой URL.
Одна страница может иметь как один, так и несколько дублей:

Поисковые роботы отрицательно относятся к дублированному контенту и могут понизить позиции в выдаче из-за отсутствия уникальности, а следовательно, и полезности для клиента. Нет смысла читать одно и то же на разных страницах сайта.
Может измениться релевантная страница. Робот может выбрать для выдачи дублированную страницу, если посчитает ее содержание более релевантным запросу. Сайт потеряет позиции и просядет в выдаче. В 90% случаев дубли мешают продвижению, и после их устранения позиции сайта улучшаются.
Как найти и убрать дубли на сайте, рассказываем в данной статье.
Зеркалами считаются сайты, являющиеся полными копиями друг друга, доступные по разным адресам. Все зеркала сайта важно склеить через 301 редирект.
Показатели тИЦ, вес внешних ссылок не должны растекаться, а они будут, т.к. поисковики считают разными ресурсами сайты, расположенные по разным адресам. Возможна подмена релевантной страницы в поисковой выдаче, дублирование контента. 100% мешает росту сайта в выдаче.
Сайт не должен открываться по разным адресам, с www и без www, просто site.ru и site.ru/index.php, по http и https и т.д.:
Чек-лист для проверки:
- Сайт должен быть доступен только по одному протоколу http или https.
- Выбрано главное зеркало сайта, с www или без www, указано в Вебмастере.
- Настроен 301 редирект со всех зеркал.
- Главная страница сайта доступна по одному адресу, без /index.php, /index.html и т.п.
100% Must-have для всех сайтов в 2017 году. Сегодня рост мобильного трафика опережает компьютерный. Число пользователей, использующих смартфоны для совершения покупок, в мире растет с каждым днем. Алгоритмы поисковых систем учитывают адаптивность при ранжировании сайта в мобильной выдаче.
Google уже с 2015 года использует алгоритм Google mobile-friendly.
Яндекс год назад запустил алгоритм Владивосток.
Если ваш сайт все еще не адаптирован под мобильные устройства – каждый день вы теряете до половины своих клиентов. Подробнее о том, зачем нужна оптимизация.
Тут все просто. Пользователям не нравятся медленные сайты. Поисковые системы так же отдают предпочтение быстрым, оптимизированным сайтам. Проверить скорость загрузки своего сайта можно с помощью инструмента Google. Красный – медленно, важно срочно увеличивать скорость, желтый – нормально, но можно оптимизировать, зеленый – отлично.
Разберем на конкретном примере
Помните, в начале статьи мы упоминали интернет-магазин станков. Что мы исправили из фатальных ошибок:
- Неуникальный контент
Написали хороший продающий, уникальный текст на главную страницу сайта.
До проведения работ:

После оптимизации:

- Ошибки оптимизации
Скорректировали теги title и description, заголовки h2.
До проведения работ:

После оптимизации:

- Отсутствие файла robots.txt
Создали и настроили файл robots.txt. Сейчас сайт правильно индексируется поисковыми системами. До этого, как писали выше, данного файла не было на сайте вовсе.
- Наличие не склеенных зеркал
Склеили зеркала сайта. Сайт был доступен по двум адресам с www и без.
- Некорректный ответ сервера для несуществующих страниц
Создали отдельную страницу 404 и настроили правильный ответ сервера для несуществующих страниц.
До выполнения работ несуществующие страницы через 302 редирект перенаправляли пользователя на главную страницу сайта.
Результаты:
Положительная динамика роста посещаемости из поисковых систем:
Трафик из Google вырос в два раза:
Результат за 3 месяца:
+8 запросов у Яндекса, +6 у Google в топ-5
+19 запросов у Яндекса, +9 у Google в топ-10
+25 запросов у Яндекса, +11 у Google в топ-20
+14 запросов у Яндекса, +4 у Google в топ-50
Посмотреть позиции до и после »
Хотите так же? Проверьте, может данные ошибки есть и на вашем сайте. Если нет времени и желания разбираться, заказывайте поисковое продвижение у нас, с радостью поможем.
1ps.ru