Как поднять сайт в поиске яндекс самому бесплатно: «Как продвигать сайт в яндексе самостоятельно?» – Яндекс.Кью

Содержание

Как поднять сайт в Яндексе бесплатно и платными способами?

Яндекс – это главная поисковая система в Рунете. Она даёт более 60% трафика на сайты, а на некоторые и все 100%. Если хотите получить трафик с России или с близлежащих стран, Вы должны в первую очередь подстроиться под условия Yandex. Поднять сайт бесплатно в Яндексе сложно, однако это возможно. Секретов продвижения много, однако, основным советом является – комплексное продвижение вебсайта во всех сферах интернета.

Далее статью мы разделим на две части: платное и бесплатное поднятие сайта в Яндексе. Вы сами сможете выбрать оптимальный вариант.

Как поднять сайт в Яндексе бесплатно и самостоятельно

Спешим Вас разочаровать: далеко не все поисковые запросы подаются поднятию. Бесплатно поднять сайт в выдаче можно при соблюдении хотя бы двух условий из перечисленных ниже:

  • Сайт имеет НЕ коммерческую тематику;
  • Проект создан более 2-3 лет назад;
  • На страницах вебсайта лежит исключительно уникальная и полезная информация;
  • Сайт начинает свое продвижение с низкочастотных запросов.

Мы согласны, что бывают исключения, однако они лишь подтверждают правило: продвинуть молодой коммерческий сайт по высокочастотным запросам в Яндексе – практически нереально.

Для успешного продвижения Вам потребуется правильно составить план развития, который должен соответствовать таким пунктам:

  1. Начать продвижение лучше с низкочастотных запросов не коммерческой тематики.
  2. Регулярно (не менее 3-4 раз в неделю) обновлять сайт.
  3. По статистике, те сайты, которые становятся успешными уже на 2-ой – 4-ый месяц своего существования имеют в себе от 200 до 300 статей. Каждая станица всегда написана под конкретный поисковый запрос.
  4. Писать статьи исключительно высшего качества. Ранее на блоге BlogWork.ru мы уже писали, как научиться писать статьи. Если говорить вкратце, то статьи должны быть большими (полностью отвечать на вопрос), содержать в себе фото и видео материалы, быть написаны в большей степени для людей, нежели для поисковой системы Яндекс.
  5. Сайт должен иметь «зеркала» в социальных сетях, то есть в них должны появляться ссылки на Ваш проект при каждом обновлении сайта. От таких ссылок будет расти не только трафик, но и уважение Яндекса, поэтому он будет поднимать вебсайт в выдаче выше.
  6. Очень важным моментом при продвижении является качество подаваемой информации. Если Вы публикуете статьи, то они должны быть не просто уникальными с точки зрения Яндекса, но и с точки зрения пользователей. Вы должны предлагать информацию, которая будет и полезна, и интересна и уникальна во всех смыслах.
  7. И последним пунктом, однако, не последним по важности является внутренняя оптимизация сайта. Она включает в себя: удаление страниц, которые не имеют смысловой нагрузки; закрытие ненужных страниц для ПС в файле robots.txt; перелинковку; устранение дублей и т.д. Внутренняя оптимизация довольно обширна, поэтому в скором времени опубликуем отдельную статью на эту тему.

Придерживайтесь этих правил, и Ваш сайт обязательно станет посещаемым и интересным ресурсом. Можно, конечно, ещё упомянуть о проставлении бесплатных ссылок (в каталогах, профилях или комментариях), но мы не будем этого делать, так как считаем, что со временем польза от подобных действий полностью исчезнут, а проблемы от некачественных ссылок только увеличаться. Также не будьте наивными, скорость популяризации проекта будет весьма медленной при бесплатном поднятии сайта. Работать будете много, а эффекта придется ждать достаточно долго, если ещё и опыта маловато. Поэтому мы настоятельно использовать и платные методы поднятия сайта в Яндексе! О них мы и поговорим далее.

Как поднять сайт в Яндексе платно

Поднять сайт на первое место в Яндексе вполне реально, это уже не так просто, как было лет 5 назад, однако по по-прежнему деньги правят виртуальным миром. Итак, какие у нас есть варианты:

  • Покупать трафик в Яндекс.Директе (контекстной рекламе)
    – вариант удобен для тех, кто занимается коммерческой деятельностью (например, продает грузопассажирский транспорт). Где целевого трафика очень мало в Интернете, а конкуренция довольно высока. Этот вариант хорош ещё тем, что не требует особого разбирательства в нюансах продвижения.
  • Платно сайт в Яндексе до сих пор поднимается при помощи покупки качественных тематичных ссылок с правильным анкором (который содержит в себе продвигаемый поисковый запрос). Уже несколько лет покупным ссылкам пророчат смерть и грозятся, что от них сайт наоборот будет падать в выдаче, однако пока этот момент не наступил, Вы можете спокойно закупаться качественными ссылками для поднятия сайта и конкретных страниц в поисковой выдаче Яндекса.
  • Покупать большое количество контента оптимизированного под поисковые запросы. Этот пункт можно также отнести и к бесплатным методам поднятия сайта в Яндексе, однако мы решили опубликовать его здесь, так как написать 200-500-1000-5000 статей за короткий срок одному человеку практически не по силам. А вот за деньги можно исполнить любой Ваш каприз. По нашему мнению это исключительно правильное вложение денег, так как контент сейчас и дальше будет являться главным методом продвижение. От высокой частоты обновления и большого количества внутренних ссылок, Ваш сайт будет подниматься в выдаче выше по нужным ключевым запросам. Единственный нюанс – не переборщите с оптимизацией каждой статьи. Лучше не до оптимизировать, чем перегнуть палку.
  • Обратиться за помощью к SEO-специалистам. Если у Вас не получается вывести сайт в ТОП выдачи, однако при этом выполнили все наши рекомендации, значит пора обращаться к специалистам, так как Вы допускаете явно где-то ошибки (причем не одну) и их нужно устранить (чем раньше, тем лучше). Специалистов можно разделить на 2 лагеря – агентства по продвижению и консультантов. В агентство лучше обращаться тем, кто устал от продвижения и хочет сделать сайт посещаемым уже не своими руками, а лишь за свои деньги. В этом случае приготовьте деньги и расслабьтесь. Вариант с консультантами намного дешевле, однако, они лишь могут Вам дать личные консультации: советы из личного опыта, указать на Ваши ошибки, помочь составить план по развитию проекта и т.д. Делать все запланированные мероприятия Вам придется исключительно своими руками. Второй вариант предпочтительнее для тех, кто хочет обучиться продвижению сайтов в Интернете, так же для тех, кто хочет на этом зарабатывать и возможно впоследствии открыть свое агентство по продвижению.

Платное продвижение не исключает бесплатное, то есть Вам в любом случае придется обновлять сайт статьями, делать внутреннюю оптимизацию, вести продвижение проекта в социальных сетях, составлять семантическое ядро и т.д. и т.п. Безусловно, Вы можете и эти все дела делегировать (за деньги), однако мы Вам не советуем этого делать. Подобное решение обойдется Вам в очень крупную сумму и в итоге можно вообще ничего не получить.

Как вы поняли, поднять сайт в Яндексе очень сложно. Здесь есть очень много мелких нюансов и моментов, о которых нельзя забывать, поэтому если Вы решитесь на это, рекомендуем заниматься продвижением очень тщательно и дотошно, чтобы каждая Ваша работа стоила потраченного времени и денег, только при таком раскладе возможен успех. Удачи!

Как самостоятельно продвигать сайт в поисковиках

Есть много способов привлечь посетителей на сайт: можно дать рекламу в газете, можно использовать социальные сети, можно расклеить объявления с адресом сайта на столбах или раздавать рекламные флаеры на улице. Но самый простой и проверенный способ — обеспечить присутствие сайта в выдаче поисковых систем. Это возможно как минимум двумя способами: с помощью SEO-оптимизации сайта или контекстной рекламы.


Что есть что в поисковой выдаче

 

Если вы введёте запрос в поисковую строку в Яндекс или Google, то попадёте на страницу результатов поиска, её также называют поисковой выдачей. Каждая ссылка в этом списке не случайна, и чем ближе к первой странице поисковой выдачи («Топу»), тем больше постарались владельцы сайта, на который ведёт эта ссылка.

Контекстная реклама

Как правило, первые 3-4 ссылки на странице — это контекстная реклама. Особенно по коммерческим запросам — то есть таким, которые подразумевают поиск товара или услуги. Контекстную рекламу легко отличить по пометке «Реклама» рядом с адресом сайта. Она означает, что размещение было оплачено через Яндекс.Директ или Google Adwords.

Такая реклама работает по принципу аукциона, когда каждый рекламодатель устанавливает свою цену за клик на рекламное объявление, и на основе этого и других показателей сервис контекстной рекламы определяет, будет ли показано данное объявление и на какой позиции.

Естественная выдача

Дальше в результатах поиска идёт блок естественной выдачи

— сюда сайты попадают благодаря SEO-продвижению. Ссылки распределяются на основе предпочтений поисковой системы, сформированных в результате работы более тысячи алгоритмов. Алгоритмы постоянно обновляются и видоизменяются, но существует ряд базовых правил, которые актуальны всегда, о них речь пойдёт дальше.

После естественной выдачи размещён ещё один блок контекстной рекламы и блок похожих запросов. Интересно, что по вашему запросу могут продвигаться и конкуренты, как на примере на скриншоте внизу: Lexus NX продвигается по запросу «купить бмв спб». Так же можете делать и вы.

Обратите внимание, что по одному и тому же запросу Google и Яндекс могут выдавать разные сайты в разном порядке. Это связано с различиями в алгоритмах ранжирования обеих поисковых машин, из-за которых способы продвижения также несколько различаются.


Как попасть в естественную выдачу

 

Честно говоря, поисковые системы крайне скептически относятся к новоиспечённым сайтам. И наоборот — чем старше сайт, тем авторитетнее он в глазах поисковиков. Поисковый робот (программа, которая оценивает актуальность и полезность вашего сайта для посетителей и индексирует его в поисковой системе) может заглянуть на ваш сайт через две недели после создания, а то и через два месяца, а затем периодически возвращаться на него, отслеживая изменения. По объективным оценкам, сайт попадает в естественную выдачу на относительно приличные позиции не раньше, чем через полгода. Есть ли способы попасть в выдачу быстрее? Есть.  

Опубликуйте сайт

 

Если вы создали сайт на сервисе 1С-UMI, то сразу после создания он доступен только вам. Даже поисковый робот не сможет на него зайти. Первым шагом к попаданию в поисковую выдачу будет публикация сайта.

Для того, чтобы опубликовать сайт, зайдите в админзону вашего сайта и нажмите кнопку «Опубликовать сайт». Перед публикацией обязательно измените контактные данные в шапке сайта и на странице «Контакты», заголовок сайта и основной контент. Сайт отправится на модерацию и, если он соответствует всем правилам сервиса, будет размещён в открытый доступ для всех пользователей интернета. Чем раньше вы откроете доступ к своему сайту, тем быстрее сайт будет проиндексирован и начнёт подниматься в поисковиках.

Подтвердите владение сайтом

 

Чтобы не ждать, пока поисковый робот найдёт в интернете новый сайт, расскажите ему об этом сами. Для этого необходимо зарегистрировать сайт в Яндекс.Вебмастере и Google Search Console. Для того, чтобы подтвердить право собственности на этих сервисах, вам нужны будут почты в доменах @yandex.ru и @gmail.com соответственно.

Чтобы подтвердить владение сайтом, нужно:

  1. Зайти на Яндекс.Вебмастере и Google Search Console, убедившись, что вы авторизованы через почту в Яндекс и Google.
  2. Ввести название своего сайта и нажмите добавить.
  3. Скопировать сгенерированные коды.
  4. Ввести полученные коды в админзоне вашего сайта один за другим.
  5. Нажать проверить/подтвердить.

Вы можете воспользоваться более подробной инструкцией на сайте umi.ru.

Проделанные операции позволят ускорить индексацию вашего сайта в два-три раза: в случае Google поисковой робот заглянет на ваш сайт в течение недели, в случае Яндекса — немного позже.


Составьте семантическое ядро сайта

 

Семантическое ядро сайта, или поисковые слова, которые наиболее точно описывают вашу деятельность, нужно составить для того, чтобы понимать, по каким запросам продвигать ваш сайт. Подобранные слова вы сможете использовать при запуске контекстной рекламы и в контенте вашего сайта (в текстах, новостях, описаниях товаров, мета-тегах и т.д.).

Отличный инструмент для подбора популярных запросов — Яндекс Wordstat.

Введите словосочетание, описывающее вашу деятельность, а затем посмотрите, по каким запросам вас могут искать клиенты. Яндекс Wordstat показывает запросы по регионам, по типу устройства, а также по времени. Благодаря этому вы можете спрогнозировать пики продаж и спад активности, а также удачное время для продвижения тех или иных слов.

При составлении запросов для продвижения важно выбирать продающие запросы, по которым с большей вероятностью придут купить, а не просто посмотреть (например, по запросу «купить розы нижний новгород», а не «красные розы»).

Используйте уникальные тексты

 

Поисковики никогда не «полюбят» ваш сайт, если вы будете использовать чужие тексты. Каждая статья, описание, подпись на вашем сайте должны быть уникальными.

Прежде чем разместить какой-либо текст на сайте, проверьте его на плагиат. Есть множество сервисов для этого, например text.ru. Он позволяет проверить уникальность текста, заспамленность, а заодно проверяет ошибки и опечатки.

Следите за процентом заспамленности — количеством ключевых слов в тексте: их должно быть достаточно, чтобы текст считался релевантным запросу, но не более 60% от всего текста, иначе поисковики заподозрят обман и снизят ваши позиции в поиске.

Рекомендуем проверять уникальность текста сразу на нескольких ресурсах, так как результаты не всегда совпадают. В таких случаях лучше доверять меньшему проценту уникальности — для надёжности.

Подтверждайте оригинальность своих текстов

 

Даже если ваши тексты уникальны на 100% и написаны лично вами, у поисковиков свой взгляд на происходящее. Если популярный новостной портал или просто сайт с большим авторитетом, который зависит от возраста сайта, индекса цитирования, количества страница и т. д., разместит у себя ваш текст, поисковый робот с большой вероятностью присвоит авторство текста не вам.

Чтобы не попадать в такие ситуации, подтверждайте оригинальность своих текстов заранее. Для этого используйте Оригинальные тексты от Яндекс.Вебмастер. Разместите там свой текст и нажмите «Отправить» — с этого момента Яндекс будет считать ваш текст вашим.

Заполняйте мета-теги

 

Поисковая система видит сайт не так, как мы с вами, она изучает код страниц, по которому и делает выводы о содержании. Заполняя мета-теги — ключевую информацию о странице, — вы помогаете поисковому роботу понять, что на ней находится и насколько эта информация релевантна поисковым запросам.

Есть 4 вида мета-тегов:

URL — адрес страницы.
Title — заголовок страницы.
Keywords — ключевые слова через запятую, описывающие содержание страницы.
Description — краткое осмысленное описание страницы.

Мета-теги также отражаются на странице результатов поиска, где их видят ваши потенциальные клиенты:

Рекомендации по работе с мета-тегами:

  • заполняйте мета-теги на всех страницах;
  • тексты мета-тегов на разных страницах не должны повторяться;
  • URL должен содержать ключевой запрос, написанный латиницей;
  • лучше не делать Title и Description длиннее 100-150 знаков.

Повышайте тИЦ сайта

 

Тематический индекс цитирования (тИЦ) показывает, как часто на ваш сайт ссылаются другие источники. Если сайт-донор (сайт, на котором размещена ссылка на вас) обладает более высоким тИЦ, чем ваш, вы приобретёте дополнительный вес в глазах поисковиков. Существуют специальные биржи по продажам ссылок, где за небольшую плату ссылки на ваш сайт размещаются на авторитетных ресурсах. Также можно напрямую договориться с владельцами сайтов о размещении ссылок или о публикации ваших статей со ссылками на ваш сайт.

Сейчас история с размещением внешних ссылок не так популярна, а поисковики научились распознавать сайты, закупающие ссылки на свой сайт в больших количествах, и исключать их из выдачи. И всё же, умеренное и осторожное размещение внешних ссылок может положительно сказаться на позиции вашего сайта в выдаче.


Пошаговый план как поднять сайт в поисковике Яндекс в топ-10

Автор Владимир Колосов На чтение 13 мин. Просмотров 20.7k. Опубликовано

В этой статье я дам пошаговый план как поднять сайт в поисковике Яндекс в топ-10, разберём платные и бесплатные способы завоевать первые позиции в поисковой выдаче.

У вас есть свой сайт, блог или вы профессионально занимаетесь SEO-продвижением сайтов? Какие методы продвижения сайтов работают в Рунете сегодня, а какие отжили свой век — об этом читайте ниже.

Что такое Яндекс, SEO и зачем вообще нужно продвигать сайты

Яндекс — это поисковая система, которая генерирует примерно 50% всего трафика в Рунете. Примерно столько же приходится на Google. Это десятки миллионов просмотров и миллиарды запросов ежедневно, минимум 15% из них — уникальные. Интернетом сегодня пользуется более 80% россиян. Более 97% в возрасте 18−24 лет выходят в Сеть ежедневно.

Что означают эти цифры?

В интернете присутствует весьма обширная аудитория. Интернет — флагман развития бизнеса в наши дни. Получается, что присутствовать в Сети — необходимое условие для успешного профессионального развития вас как специалиста и вашего бизнеса.

Яндекс устроен просто: на его главной странице находится строчка, куда пользователь может ввести интересующий его запрос. Система анализирует множество сайтов при помощи сотен сложнейших алгоритмов и выдаёт результат в виде SEO или «органической» выдачи.

Здесь же присутствует и реклама в виде объявлений: до 4 сверху и до 4 снизу. На языке Яндекса реклама в верхней части выдачи называется «спецразмещением», а в подвале — «гарантией». Если вы внимательно присмотритесь, то отличите объявления. Они помечены серой плашкой со словом «реклама».

Поисковая выдача рассчитывается алгоритмами Яндекса так, чтобы дать пользователю максимально релевантный ответ на его запрос.
По крайней мере, так задумывали создатели поисковика.

Алгоритмы в Яндексе совершенствуют и дорабатывают с каждым годом. Над этим процессом одновременно трудятся тысячи программистов! Трудятся, чтобы сделать нашу жизнь чуточку лучше. Чтобы мы экономили время на поиск нужной информации.

Для чего люди пользуются поисковыми системами:

  • ищут ответы на свои вопросы,
  • ищут товары и услуги.

Совокупность всех посетителей в Интернете — это трафик. Соответственно, можно разделить весь трафик на:

  1. информационный
  2. коммерческий

Как сайты получают трафик? Основных способов 2:

  • продвигаются по SEO
  • покупают рекламу

SEO — это комплекс технических мер, которые нужно провести над сайтом, чтобы попасть на первые позиции по нужным запросам в поисковой выдаче.

Оба способа работают и генерируют огромное количество трафика. Однако есть особенности: рекламу можно настроить и запустить в течение нескольких часов, тогда как первые результаты от SEO вы получите спустя несколько месяцев.

Что можно найти в поисковой выдаче:

  • коммерческие сайты (интернет-магазины)
  • корпоративные сайты
  • интернет-сервисы
  • блоги
  • информационные сайты
  • медиапорталы

Рассмотрим пример.

Вы набрали в строке поиска «детская коляска купить в Москве» и отправили Яндексу команду. Наиболее вероятно, что вы увидите в выдаче интернет-магазины, которые предлагают товар — детские коляски. Менее вероятно, что на первой странице будут ссылки на корпоративные сайты или информационные статьи.

Если вы наберёте «Аполлон 17», то вам откроется список информационных сайтов, где будет подробно описана экспедиция к Луне. Но точно не интернет-магазин.

Запрос «Настроить email рассылку» покажет в выдаче интернет-сервисы, при помощи которых можно технически настроить рассылку.

И так далее.

Поскольку ежедневная аудитория Яндекса огромна, множество людей и компаний извлекают из неё выгоду. Они борются друг с другом за посетителей и позиции в поисковой выдаче. Ведь чем выше позиция, тем больше людей придёт к тебе на сайт. А чем больше аудитория, тем больше денег можно на ней заработать.

Что даёт продвижение?

  • компании продвигают в интернете свой корпоративный бренд
  • интернет-магазины собирают трафик, чтобы монетизировать его в продажи товаров
  • профессиональные блогеры раскручивают страницы, чтобы продавать свой труд

Трафик — это кровь интернета. Прекратится трафик — не будет жизни в Сети. Очень похоже на человеческий организм, не правда ли?

Яндекс или Google?

До 2017 года Яндекс уверенно держал в Рунете пальму первенства. В 2017 Google сравнялся с Яндексом по количеству трафика. В Google раньше других заметили, что мобильный трафик растёт год от года. И использовали эту возможность. Большинство смартфонов, планшетов, умной техники выходили с предустановленным поиском Google.

Яндекс попытался переломить тенденцию, подал в ФАС жалобу на Google и выиграл дело. В 2017 г. гиганты-поисковики какое-то время дышали друг другу в спины и делили русскоязычный трафик примерно пополам.

Согласно данным «SEO аудитор» в мае 2017 г. Google обошёл Яндекс по трафику в русскоязычном сегменте рынка.

На протяжении 2019 г. доля Google держалась в диапазоне 54−56%, доля Яндекса — 40−42%. Google медленно, но уверенно растёт за счёт увеличения доли мобильного трафика на Android-устройствах с предустановленным браузером Google Chrome.

Если вы планируете продвигать сайт, нужно определиться с приоритетной поисковой системой.

Почему это важно?

Всё дело в различии алгоритмов. Что будет отлично работать в Яндексе, в Google может не работать. И наоборот.

Например, в Яндексе можно попасть в топ-10 и даже на первое место, просто написав интересную статью. Для Google придётся дополнительно наращивать ссылочную массу и оптимизировать код сайта.

Ликбез по продвижению сайтов

Многие считают, что продвижение сайтов — это очень сложная наука: «Да я никогда сам не разберусь… лучше позову программиста, уж он-то точно всё сделает как надо».

Все сеошники транслируют этот посыл в массы. Зачем? Чтобы народ не пытался разобраться самостоятельно!

На самом деле ничего суперсложного в SEO нет. Тут всё подчиняется законам логики.

Давайте разберём тонкости SEO для информационного сайта. Поисковик — Яндекс.

Как анализировать конкурентов в выдаче Яндекса

Допустим, у вас есть свой сайт, и вы поставили себе цель попасть в топ Яндекса. Первый ваш шаг — отправляйтесь анализировать конкурентов. Подумайте, по каким запросам они могут продвигаться.

Составляете список запросов, открываете выдачу по запросам и смотрите первую страницу по каждому.

Заносите в Excel данные по конкурентам и анализируете: у кого интересные статьи, у кого быстро загружается сайт, у кого удобный дизайн, навигация и т. д.

Чтобы обойти конкурента в выдаче, сделайте свой сайт лучше!

Ключевые слова — что это такое, какие бывают и как их правильно собирать

Ключевые слова — это фразы, которые люди пишут в строке поисковой системы. Яндекс анализирует ключевое слово, которое вы ввели, и выдаёт результат, который, по его мнению, будет максимально полезен.

Как я подбираю ключевые слова для своих статей?

Поскольку мой блог предназначен дать полезную информацию посетителю, то ключи я отбираю информационные, с вопросительными словами «как», «что» и т. д.

Все запросы можно подразделить на 4 большие категории:

  • общего характера (например, «полёты на Луну»),
  • коммерческие (человек ищет конкретный товар или услугу, например, «коляска детская купить»),
  • информационные (человек ищет решение проблемы, ответ на свой вопрос, например, «как подключить онлайн кассу для ИП»),
  • имиджевые (с именем собственным, например, «дизайн сайтов от Артемия Лебедева»).

Для подбора информационных запросов я прежде всего задаю себе вопрос, что может искать человек?

Затем иду в сервис Яндекс. Вордстат wordstat.yandex.ru и проверяю, действительно ли люди ищут информацию по этому ключу. Чтобы проверить точную частотность, ставлю запрос в кавычки. Кавычки — это оператор Яндекса, который отсекает «хвосты» от основного запроса.

Например, для ключа «что такое блог» хвостом будут считаться «что такое блог и зачем он нужен», «что такое блог и как на нём заработать» и т. д.

Важная деталь: гораздо проще продвигаться в топ по ключам с малым уровнем конкуренции. Как можно быстро определить, конкурентный ли ключ вы берёте?

  • Проверить ставку по ключевому слову в сервисе Яндекс. Директ
  • Использовать сервисы для вебмастеров: Spywords, Seopult, Netspeak, Сайтрепорт, Мутаген и другие

Так я проверяю десятки и сотни ключей и выбираю наименее конкурентные.

Работа рутинная, но очень важная. От того, как тщательно вы отберёте ключи, зависит успех попадания сайта в топ-10.

Вся общность ключей, собранных для сайта, зовётся семантическим ядром.

Контент сайта — страшная правда

Семантическое ядро готово. Третий шаг к успеху — написать информативные статьи, которые будут давать развёрнутый ответ на вопрос читателя.

Ещё года 2−3 назад для попадания в топ Яндекса достаточно было переписать чужую статью на 1500−2000 знаков (или «рерайт»), насытить её ключевыми словами и прикупить на специальной бирже вроде GoGetLinks пару «вечных» ссылок.

Сегодня такой подход не работает. Система научилась распознавать качественный контент и безжалостно выбрасывает на окраины выдачи недобросовестные сайты. Качество контента оценивается алгоритмами в первую очередь. Даже показатель тИЦ (тематический индекс цитирования) Яндекс недавно упразднил. Этот показатель считался одним из приоритетных при работе с ссылочным SEO и «трастом» сайта.

Важны и поведенческие факторы сайта.

Что такое поведенческие факторы? Это количество времени, которое проводит посетитель на сайте, количество страниц, которые он просматривает за одну сессию, количество отказов, как пользователь скроллит страницу и многое другое.

Если ваш информационный сайт будет максимально развёрнуто давать читателю ответ на его вопрос, то ему не понадобится искать информацию где-то ещё. Это послужит сигналом для Яндекса, что статья — качественная. И поисковик поднимет её в выдаче.

Сегодня пока мало кто из вебмастеров постит на свои сайты большие статьи по 10−20 тысяч знаков. Причина простая — хороший текст стоит недёшево и написать его сложно, если не разбираешься в теме.

Приведу пример из личного опыта.

Я написал статью на тему «Какие налоги платит ИП на УСН в 2019 году без работников». Объём текста получился более 20 тысяч знаков без пробелов. Статью оптимизировал под ключевой запрос, разместил на сайте, добавил новую страницу в Вебмастер. Дата публикации видна на скриншоте — 8 января 2019 года.

Через 1 час после публикации я зашёл в поиск Яндекса и набрал ключевой запрос из статьи.

Я увидел свою статью в топ-3. Сработал быстробот поисковика. Напротив сниппета моего сайта стоит надпись: «1 час назад».

На следующий день я проверил позицию в поиске по более «жирному» ключу, который короче основного и имеет большую статистику посещаемости в Wordstat.

И что же? Через день моя статья стояла уже на 2 месте в выдаче. Кроме того, в статистике сайта появились первые переходы на эту статью из поиска!

Так что пишите интересные и развёрнутые статьи! Будьте лучше конкурентов и обязательно попадёте в топ!

Внешняя и внутренняя оптимизация сайта

Что ещё нужно проделать с сайтом, чтобы привлечь внимание Яндекса? Проделать техническую оптимизацию страниц.

  1. Каждая страница должна иметь в коде заполненные теги «title», «description», «h2». Тег «Title» содержит информацию об основном ключевом слове. Для сайтов на Wordpress полезно иметь плагин Yoast SEO, который помогает быстро делать оптимизацию страниц в административной панели сайта. Теги нужны роботу Яндекса, чтобы понять, о чём вообще сайт.
  2. Изображения, загруженные на сайт, желательно делать уникальными и заполнять атрибуты «alt» ключевыми словами. В Яндексе есть выдача не только по словам, но и по картинкам. Если пользователь наберёт ключевое слово и перейдёт в изображения, он увидит картинки, в коде которых прописан атрибут «alt».
  3. Отформатируйте ваш текст, чтобы в нём встречались заголовки, списки, таблицы. Такой текст проще читается. Поисковик будет считать его качественным.
  4. Зарегистрируйте свой сайт в сервисе Яндекс.Вебмастер. Каждый новый текст добавляйте в оригинальные тексты Вебмастера. Делайте переобход новых страниц. Так вы привлечёте Яндекс-робота и быстрее проиндексируете новый контент.

Как правило, внутренней оптимизации бывает достаточно, чтобы Яндекс поставил ваш сайт в топ по ключу с низким уровнем конкуренции.

Внешняя оптимизация — это комплекс мероприятий, который проводится вне сайта для улучшения ранжирования в поиске: наращивание ссылочной массы, прогон по каталогам, крауд-маркетинг. Технически говоря, внешняя оптимизация — это не совсем честная манипуляция выдачей, поскольку не затрагивает ваш сайт напрямую и относится к «серым» и небезопасным методам продвижения.

Для информационных сайтов в Яндексе внешняя оптимизация будет излишней. А вот Google до сих пор считает наличие обратных ссылок важным фактором ранжирования.

Привлекаем трафик на сайт

Статьи написаны, новые страницы опубликованы, техническая оптимизация страниц выполнена. Робот Яндекса обошёл ваш сайт, но трафика не видно.

Почему так?

Яндексу необходимо время, чтобы ваша статья «настоялась» на сайте. От нескольких недель, до нескольких месяцев. Обновления в индексе происходят нерегулярно. Если у вас молодой сайт (возрастом менее 6 месяцев), придётся подождать, пока Яндекс не начнёт ему «доверять».

Чтобы ускорить попадание в топ, дайте сразу понять поисковику, что ваша статья полезная.

Зайдите в сервис Яндекс. Директ и настройте рекламу по вашему ключевому слову на новую страницу. Для запросов без конкуренции реклама будет стоить в районе 1 рубля за клик. Покрутите рекламу примерно месяц. После того как обнаружите, что Яндекс поставил вас на первую страницу, отключите рекламу. Метод не для самых бедных, но рабочий.

Очень помогают репосты в раскрученных группах социальных сетей: Вконтакте, Facebook, Одноклассники. Социальные сети и форумы — ещё один фактор ранжирования сайта.

Работаем с Яндекс. Метрикой

Метрика — это главный инструмент для работы со статистикой. Без Метрики вебмастер как без рук.

Метрика показывает:

  • По каким запросам на сайт приходят посетители
  • Сколько времени они проводят на сайте
  • Какие страницы они посещают
  • Какие кнопки нажимают
  • Источники трафика
  • Адреса страниц входа и выхода
  • Общую посещаемость
  • Характеристики аудитории: пол, возраст, интересы и т. д.

Обязательно добавьте код Яндекс. Метрики на сайт!

При помощи Метрики можно определить какие страницы наиболее интересны пользователям, какие ключевые слова дают наибольшее количество трафика, а где трафика нет совсем.

Благодаря Метрике вы можете исследовать трафик, который приходит на сайт, анализировать показатели, находить проблемы и корректировать их.

5 способов улучшить поведенческие факторы и подняться в топ

  1. Пишите развёрнутые статьи объёмом не менее 1500 слов.
    Главная задача информационной статьи — дать максимально развёрнутый ответ на вопрос читателя. Если он не найдёт у вас ответа, то воспользуется поиском повторно. А это отрицательный сигнал для Яндекса.
  2. Сделайте удобной навигацию на сайте.
    Приведите в порядок ссылки, поместите меню сайта на видное место. Сделайте так, чтобы пользователю было удобно и интуитивно понятно ориентироваться на сайте.
  3. Используйте адаптивный к мобильным устройствам дизайн сайта.
    21 век — это век мобильных технологий. Доля мобильного трафика со смартфонов и планшетов уже перевалила за 60% и постоянно растёт. Игнорировать мобильный трафик — значит не идти в ногу со временем.
  4. Вставляйте в статьи видеоролики.
    Видео — отличный способ поднять среднее время пребывания посетителя на сайте. Увеличивается время сессии — улучшаются поведенческие факторы. А значит, сайт будет подниматься в выдаче.
  5. Поймайте «быстробота» Яндекса.
    Возьмите за правило публиковать новости каждый день в определённые часы. Так вы привлечёте быстробота, и ваши страницы будут моментально залетать в индекс поисковика.

Понравилась статья «Пошаговый план как поднять сайт в поисковике Яндекс в топ-10»? Оставьте ваш комментарий и поделитесь статьёй с друзьями.

Запишись на обучение удаленной профессии «Контент-менеджер сайтов на WordPress»

Контент-менеджер — это специалист, который наполняет сайты. Более 30 млн. предпринимателей и блоггеров по всему миру уже используют возможности интернета, чтобы собирать трафик и зарабатывать на нем. За 2 последних года количество запросов «контент менеджер» увеличилось в 6,0 раз. Спрос на удалённых специалистов растёт. Контент-менеджер — востребованная и высокооплачиваемая профессия.

Хотите получить востребованную интернет-профессию, работать и жить где угодно, покончить с финансовым рабством, уделять больше времени родным и друзьям, наконец-то отдать детей в престижную школу, переехать в хороший район, планировать отдых тогда, когда вы сами этого хотите, путешествовать и открывать новые страны и города? Приходите на курс «Контент-менеджер сайтов на WordPress«!

Получить востребованную профессию

Ещё больше интересных статей здесь: https://seostayer.ru/

До новых встреч!

Публикую очередной кроссворд! Попробуйте разгадать. 🙂 Правила здесь.

Вам может быть интересно:

Продвижение сайтов в Yandex | SEO-раскрутка сайта в ТОП-10 Яндекса

Продвижение сайтов в Yandex | SEO-раскрутка сайта в ТОП-10 Яндекса
  • Продвижение сайтов
    в Яндекс и Google:
    технология SEO 2.0

    Бесплатный аудит
    Около 70% сайтов имеют ошибки, мешающие

    посетителям найти эти сайты в Яндекс и Google

    Включает в себя:
    1. Продвижение по трафику.
    2. Раскрутку по 100-200-300 запросам и рост посещаемости.
    3. Бесплатное наполнение сайта статьями и оптимизацию.

  • Продвижение
    сайтов
    технология SEO 2.0

    Бесплатный аудит
    Около 70% сайтов имеют ошибки, мешающие

    посетителям найти эти сайты в Яндекс и Google

    Технология продвижения сайтов SEO 2.0 позволяет комплексно
    работать над увеличением посещаемости и конверсией проекта.
    Комбинирование более 20 инструментов интернет-маркетинга.
    Метод положительно оценили более 70 клиентов за 3 года работы.

Если Вам необходимо развитие бизнеса в виртуальной среде, хотите повысить узнаваемость услуги/товара, собрать ЦА в одном месте, увеличить трафик, продажи и соответственно доход, тогда Вам необходимо заказать продвижение сайтов в Яндекс. Интернет превратился в мощный маркетинговый инструмент, который предоставляет возможность владельцем сайтов получать прибыль и нарабатывать своих постоянных клиентов.

SEO-оптимизация
и продвижение в ТОП-10 Яндекса

Контекстная реклама
Яндекс Директ

SERM и работа с репутацией
компании в поиске Яндекса

КАК ПРОДВИНУТЬ САЙТ В ЯНДЕКСЕ

Если Вы не пользуетесь услугами SEO продвижения, то пользователь не найдет информацию о компании и обратиться к конкурентам, которые интенсивно продвигаются. Вы хотите терять клиентов? Если нет, тогда доверьте рекламу специалистам, которые смогут вывести Ваш интернет-проект в лидеры. Как происходит процесс оптимизации под Яндекс:

  • Анализ основных конкурентов из ТОП-10.
  • Сбор семантики (ключевых запросов).
  • Составление карты релевантности.
  • Снятие позиций сайта.
  • Технический аудит и поиск ошибок.
  • Оптимизация CMS и удаление ошибок.
  • Настройка панели вебмастера.
  • Постраничный аудит контента.
  • Составление ТЗ копирайтерам.
  • Размещение контента на сайте.
  • Наращивание ссылочной массы.
  • Адаптация под мобильные устройства.

НАМ ДОВЕРЯЮТ

Более 200 компаний выбрали нас для раскрутки бизнеса в Yandex

БЕСПЛАТНЫЙ АУДИТ

Подробный анализ сайта объемом 10-15 листов. Срок выполнения — до 3 часов.

ХОТИТЕ ПРОДВИНУТЬ САЙТ САМОСТОЯТЕЛЬНО?

НУЖНО УЧИТЬСЯ

Самостоятельное оттачивание навыков продвижения полезно, но оно займет у Вас уйму времени. За это время конкуренты уже будут эффективно продвигаться и займут значительную долю рынка.

НУЖНО ЭКСПЕРЕМЕНТИРОВАТЬ

Самостоятельное изучение займет время, но нет гарантий, что оно даст каких-либо результатов, поскольку материал в блогах мог давно устареть. Теория и практика могут существенно отличаться, в этом и есть преимущество опытных seo-специалистов.

НУЖНО ТРАТИТЬСЯ

Стоимость продвижения в агентстве гораздо дешевле, чем набрать штат сотрудников. Профессионал не станет работать за низкую заработную плату, а работа специалистов в агентстве четко структурирована, что позволяет каждому выполнять свои определенные функции, за счет которых экономятся трудозатраты.

Нужно конкурировать

Конкурентная среда с каждым днем только набирает обороты, требует грамотного подхода и индивидуальной стратегии. Специалист способен проанализировать сайт и быстро оценить ситуацию на рынке, дать совет и понять, как двигаться дальше. Новичок же, будет долго думать над тем, почему его сайт не попал в ТОП.

ПОЧЕМУ ВЫБИРАЮТ CROPAS

  • 1 SEO 2.0

    Современная технология SEO 2.0 способна продвинуть Ваш сайт и конвертировать посетителей в клиентов, используя эффективные инструменты seo-продвижения, копирайтинг и опыт специалистов CROPAS.

  • 2 2 в 1

    Seo-специалист для наших клиентов — менеджер и исполнитель в одном лице. Общение будет происходить без посредников, что сводит к минимуму недопонимания и возникновение конфликтных ситуаций.

  • 3 12 отчетов в году

    Детализированная отчетность 1 раз в месяц с цифрами и фактами, а не «вода» на сотни страниц. Отчет важен не только для клиента, но и для seo-специалиста, поскольку постоянный анализ позволяет найти новые решения.

  • 4 Личный кабинет 24/7

    Доступ к личному кабинету и статистике 7 дней в неделю. Вы можете проверить статистику через установленное мобильное приложение или с компьютера. В любое время, в любом месте!

  • 5 1 компания на 365 дней

    Мы за долгосрочное сотрудничество, поэтому большинство наших клиентов обслуживаются у нас круглый год. SEO-оптимизация и раскрутка в Яндексе длительный процесс. Чем дольше продвигается сайт – тем лучше результаты в виде трафика из Яндекса.

ПРОДВИЖЕНИЕ В ТОП-10: ЧТО УЧЕСТЬ

Топ – это первая страница поисковой выдачи, лакомый кусочек или заветное место, о котором мечтает каждая компания. Пользователь не переходит по ссылкам, расположенным дальше ТОП-10, не говоря уже о вторых и третьих страницах поисковой выдачи. Заказать услугу по раскрутке в Google и Яндекс порой бывает рискованно — сейчас существует множество недобросовестных исполнителей.

Заказываем SEO-тексты, которые будут содержать нужные ключевые слова, LSI-копирайтинг, но и будут полезны для пользователей, чтобы исключить попадание под фильтр Баден-Баден.

Используем белые методы продвижения в Яндексе с учетом всех факторов ранжирования и особенностей поисковых систем. Мы умеем работать честно и не используем запрещенные методы.

SEO — инвестиция в будущее сайта. Стоит помнить, что в космосе много звезд, как и в Интернете много клиентов. Дорога до космоса долгая, поэтому придется потратиться на провизию.

БЕСПЛАТНЫЙ АУДИТ

Подробный анализ сайта объемом 10-15 листов. Срок выполнения — до 3 часов.

Обратный звонок

×

Оформить заявку

×

Отправить сообщение

×

Как продвигать сайт в интернете в 2021 году

Эта страница содержит основную информацию о продвижении сайта: как продвигаются сайты, как оптимизировать сайт, какие работы включает в себя SEO-оптимизация. Данная информация будет полезна тем, кто впервые столкнулся с данной задачей и хочет понять, как всё происходит. Возможно вы станете продвигать свой сайт самостоятельно, либо вам пригодятся данные знания для контроля подрядчиков по SEO. Здесь нет подробной инструкции, но зато хорошо описаны основные работы по продвижению сайта.

Вводная информация

Для чего создают сайты? Причин может быть много, но основная причина по которой делают сайты различные компании и фирмы — это рассказать о себе клиентам, предложить свои услуги или продать товар. Если быть точней, то чтобы заработать денег (или заработать еще больше денег).

Когда не было интернета, то компании покупали рекламу в журналах и газетах, давали рекламу по телевизору и радио, рассылали листовки и письма, публиковались в каталогах и справочниках. С появлением интернета появилась возможность опубликовать информацию о своих товарах и услугах по закрепленному за компанией адресом.

Зачем продвигать сайт?

Когда вы даете рекламу в газете, то за доставку вашего объявления до людей отвечает газета: она имеет определенную аудиторию и за доступ к этой аудитории вы и платите. Но когда вы только сделали сайт, то о нем никто не знает

На заре развития интернета были популярны каталоги сайтов, где вы могли выбрать рубрику и добавить туда адрес своего сайта с описанием. Людям нужно было знать адрес каталога, чтобы зайти туда и искать интересующую их информацию. Обычно всё так и происходило: человек открывал популярный каталог и оттуда уже переходил на нужные сайты. Чтобы получить посетителей на свой сайт надо было добавить информацию во всевозможные каталоги (сейчас это тоже можно делать, но это малоэффективно)

В наше время поисковые системы полностью заменили каталоги. Теперь человек вводит интересующий его вопрос в поисковой строке и получает список сайтов, где содержится то, что он ищет. Сайтов очень много и поисковые системы (Яндекс, Google, Mail) стараются показать пользователю лучшие результаты. По любому вопросу поисковик выдаст тысячи и миллионы результатов, но мало кто станет просматривать их все. Чаще всего, человеку достаточно первых.

Пример запроса в поисковой системе DuckDuckGo. Там нет рекламы.

Просто так на первую страницу результатов поиска попасть очень сложно. Скорей всего, если вы просто сделаете сайт, то поисковая система хоть и обнаружит его, но вряд ли будет выдавать в результатах выше остальных. Меры направленные на то, чтобы сайт выдавался выше других похожих сайтов (и соответственно привлекал больше посетителей) и называются SEO продвижением (Search Engine Optimisation — оптимизация под поисковые системы).

Есть быстрый и дорогой путь — это использовать контекстную рекламу. Она позволяет за деньги выбрать запросы, по которым показывать свой сайт. Ниже пример поисковой выдачи в Яндексе, где первый экран состоит целиком из рекламы:

Таким образом, главная цель продвижения — это недорого получить заинтересованных посетителей на свой сайт, т.е. получить доступ к своей целевой аудитории (то, для чего раньше давали рекламу в газету).

Чтобы лучше понимать как продвигаются сайты, рассмотрим как работают поисковые системы.

Принцип работы поисковых систем

Мы не будем подробно рассматривать как работают поисковики, достаточно сказать что для их работы требуются сотни тысяч серверов, огромные помещения и большая команда сотрудников поддержки. Для работы поисковых систем применяются самые передовые технологии. Особенно в этом плане отличается Google, думаю что искусственный интеллект впервые разработают именно в этой компании.

Основные этапы работы поисковой системы:

  • Сбор информации (индексация) — специальная программа-робот путешествует по сайтам и сохраняет всю найденную информацию в базе. Робот переходит по ссылкам между сайтами, поэтому если на ваш сайт нет ссылок, то робот к вам попасть не может и вашего сайта не будет в результатах поиска.
  • Сохранение и упорядочивание информации — дальше информация сжимается и сохраняется по специальному алгоритму так, чтобы можно было быстро выбрать все документы содержащие определенное слово.
  • Поиск информации в базе — когда человек вводит вопрос, поисковая система разбивает его на отдельные слова и используя алгоритм подбирает наиболее подходящие документы, содержащие эти слова
  • Ранжирование результатов поиска — обычно результатов очень много (вы вряд ли сможете найти вопрос, по которому будет меньше сотни результатов) и нужно их упорядочить по степени соответствия запросу (это называется релевантность)

Таким образом, чтобы наш сайт был показан человеку среди первых результатов, страница нашего сайта с ответом на вопрос должна быть признана поисковой системой наиболее релевантной. На релевантность влияет очень много факторов (сотни) из популярных можно привести эти:

  • Плотность слов из вопроса пользователя на странице сайта
  • Расположение этих слов (в начале/середине/конце страницы)
  • Соответствие тематики сайта вопросу
  • Количество ссылок с других сайтов на эту страницу
  • Регион сайта и регион пользователя задающего вопрос
  • и пр.

Например, в поисковой системе Яндекс используется более 800 факторов ранжирования. Понимание принципов ранжирования позволяет с большой вероятностью выводить сайт на первые места.

Подробно ознакомиться с информацией как работает Яндекс можно в справочном разделе: https://yandex.ru/support/webmaster/yandex-indexing/site-indexing.html

Также, рекомендую прочитать мою статью «Почему не продвигается сайт«, в ней на простом примере объяснено, как поисковая система решает какой сайт ставить выше.

Два подхода к продвижению сайта

Попытка манипулировать поисковой системой

Алгоритмы поисковых систем направлены на то, чтобы первые места в ответах на поисковые запросы занимали сайты, которые наиболее качественно отвечают на вопрос. Обычно это популярные сайты с высокой посещаемостью, красивым дизайном, точной и актуальной информацией.

Поисковой алгоритм учитывает много факторов, но не сообщает каких. Экспериментальным путем специалисты могут вычислить какие-то факторы, а какие-то иногда упоминают сами представители поисковых систем. Зная факторы можно попытаться имитировать их. Например, самый популярный способ — это покупка ссылок на свой сайт. Ведь, если на тебя ссылается много сайтов, значит ты авторитет. Однако, поисковые системы научились с этим бороться и уже могут определить, что ты спамный недобросовестный закупщик ссылок.

Большая часть информации о продвижении в открытом доступе объясняет как манипулировать разными факторами: правильно закупить ссылки, соблюдать плотность ключевых слов. Существует много сервисов, которые анализируют ТОП-10 и дают рекомендации какие слова и в каком объеме использовать на странице.

Нужно учитывать, что попытки манипулировать рано или поздно обнаруживаются и сайт надолго теряет позиции, иногда даже приходится создавать новый сайт с другим адресом. Вы готовы рисковать своим бизнесом?

Поисковая оптимизация как сотрудничество с поисковой системой

Другой тип работы над поисковой оптимизацией заключается в сотрудничестве. Поисковые системы призывают делать сайты полезные для людей и регулярно придумывают новые инструменты, чтобы сделать поиск удобней. Как заявляет Яндекс – важней всего счастье пользователей. Сомневаться в этом нет причины, чем больше пользователей – тем больше доход от рекламы.

Чтобы поисковая система могла легко проиндексировать ваш сайт и занести его к себе в базу, чтобы понять где какая информация, где цена, а где цифра, где адрес, а где просто предложение, сайт должен отвечать определенным стандартам и иметь общепринятую структуру. Вот тогда начинается работа добросовестного оптимизатора, который доведет до ума сайт, уберет все технические ошибки, включит в код сайта специальную информацию и т.п.

Ставьте цель сделать самый удобный сайт в своей нише и поисковый трафик не заставит себя ждать.

Самостоятельно или нанять подрядчика?

Если у вас есть время и желание освоить новый навык, то ничто не мешает продвигать сайт самостоятельно. Точно также вы можете самостоятельно делать ремонт в квартире, ремонтировать машину, строить дом и так далее.

Ничего сложного в продвижении сайтов нет, но нужно обучиться. Не советую читать блоги и статьи, лучше сразу пройти какой-нибудь курс. Кроме понимания принципов работы поисковых систем, вам понадобятся базовые навыки веб-разработки. Вы не найдете пошаговой инструкции или видео процесса продвижения. Все сайты разные и нужно иметь определенный багаж знаний (и желательно опыт), чтобы действовать правильно. Если вы скопируете чужой сайт, то ничего не добьетесь, у вашего сайта свой путь. Нужно понимать принципы и действовать самостоятельно.

Современное SEO продвижение требует много ресурсов и времени, поэтому получили популярность онлайн-сервисы для SEO. С помощью таких сервисов можно следить за конкурентами, отслеживать позиции сайта, находить ошибки, искать новые фразы для продвижения. Доступ к сервисам дорогой, поэтому их используют в основном SEO специалисты и компании.

Как оптимизировать и продвигать сайт под поисковые системы?

Хорошо спланированный сайт легко продвигать, а сайт с незапланированной беспорядочной структурой доставит много проблем. Иногда легче сделать новый сайт, чем пытаться переделать старый, чтобы его продвинуть. Поэтому важно думать о продвижении уже на этапе создания сайта.

Поисковая оптимизация

Поисковая оптимизация сайта это последовательность шагов:

  1. Сбор семантического ядра (СЯ). СЯ — это список всех возможных поисковых словосочетаний (которые люди вводят в поисковую строку), которые описывают вашу деятельность, ваши товары и услуги. Т.е. мы должны понимать как нас будут искать люди и будем делать сайт так, чтобы поисковики понимали, что у нас есть нужная информация. Чем больше СЯ, тем лучше для продвижения. Как собирать словосочетания для семантического ядра будет рассказано ниже.
  2. Планирование структуры сайта. Для группы схожих поисковых запросов из СЯ (а иногда и для каждого запроса) на сайте должна быть отдельная страница, ссылку на которую и будет выдавать поисковая система в ответ на вопрос. Группируя запросы, мы выстраиваем структура сайта: меню, разделы, подразделы и создаем конкретные страницы (посадочные). Структура должна быть упорядочена иерархически и логически, это гарантирует хорошую индексацию страниц поисковиком. Посадочные страницы должны быть оптимизированы под запрос(содержать текст составленный по определенным правилам, иметь правильно заполненные метатеги). Об этом мы поговорим дальше.
  3. Индексация поисковой системой. После того, как мы выстроили структуру и  написали тексты, ждем, когда робот поисковой системы пройдет по нашему сайту и добавит страницы в поисковую базу. Если всё сделано правильно, то мы увидим наши страницы в результатах поиска по запросам из семантического ядра. Скорей всего это не будут первые места, особенно если есть серьезная конкуренция.

На самом деле на этом поисковая оптимизация заканчивается, ведь мы оптимизировали структуру сайта и страницы, работа выполнена. Но если мы не появились на первой странице (первых местах) поисковой системы, то что дальше?

Возможно стоит что-то переделать на посадочных страницах, но скорей всего это не будет эффективно настолько, чтобы встать на первое место (однако экспериментировать с посадочными страницами тоже желательно).

Что же дальше влияет на рост позиций?

  • Параметры сайта в целом. На ранжирование влияет:
    • возраст сайта
    • количество страниц на сайте
    • соответствие страниц тематики сайта
    • количество упоминаний сайта в интернете
    • количество запросов по которым переходят люди на сайт
    • количество входящих ссылок на сайт
    • качество ссылающихся сайтов и качество сайтов на которые ссылаемся мы.
    • количество переходов из поисковых систем
  • Параметры посадочной страницы. Мало быть релевантной запросу, еще есть такие факторы, как:
    • количество внешних входящих ссылок на страницу
    • количество внутренних ссылок на страницу
    • словосочетания в текстах ссылок (это называется анкорами)
    • количество исходящих ссылок
    • содержимое: наличие графики, видео, объем текста, интерактив, социальные кнопки
  • Поведенческие факторы. То, как пользователи ведут себя на странице и на сайте в целом. Это позволяет оценить полезность информации
    • время на странице
    • количество просмотров страниц сайта
    • взаимодействие с элементами сайта
    • нажатие социальных кнопок
    • и пр.

В целом это всё влияет на авторитет сайта. Таким образом, можно понять, почему нельзя сразу встать на первые места. Ведь есть десятки других сайтов, которые уже имеют похожую информацию, но на их стороне перечисленное выше. К счастью, мы можем влиять почти на все эти параметры. Качественный сайт с хорошими текстами быстро получает хорошие поведенческие факторы, а остальное (ссылки, упоминания) мы можем первое время имитировать, покупая за деньги.

Важно понимать, что хороший и ценный сайт справится и без имитации, люди будут сами делиться ссылками и ставить вам лайки.

Теперь же перейдем к более подробной информации.

Составление семантического ядра

Правильное и полное семантическое ядро — это половина успеха в продвижении сайта. Хорошо собранное СЯ позволяет нам охватить всю целевую аудиторию и спланировать структуру сайта. Чтобы качественно сделать эту работу, нужно разбираться в видах запросов и уметь смотреть статистику поисковых запросов.

Виды поисковых запросов

Исходя из того, что именно ищет пользователь, запросы делятся на:

  • Навигационные. Когда человек ищет какую-то конкретную компанию, сайт, адрес, объект и т.п.
  • Информационные. Когда человек интересуется какой-то информацией, хочет узнать что-то о чем-то.
  • Транзакционные. Когда человек собирается совершить какое-то действие, например: купить товар, скачать информацию, вызвать специалиста, заказать услугу и т.п.

Кроме того, запросы бывают:

  • Геозависимые/геонезависимые — когда запрос относится или нет к конкретному региону, например «Продвижение сайтов в Санкт-Петербурге»
  • Сезонные/несезонные — некоторые запросы люди ищут только в определенное время года (или чаще в одно время года и реже в другое), например: купальники, коньки, ролики и т.п.
  • Коммерческие/информационные — когда человек хочет что-то купить или просто ищет информацию о товаре
  • Высокочастотные/Среднечастотные/Низкочастотные (ВЧ/СЧ/НЧ) — частотность показывает как часто вводится один и тот же запрос в поисковую систему. Чаще всего их делят так: ВЧ > 10 000 раз/мес, СЧ > 1000 раз/мес, НЧ < 1000 раз/мес. Точных чисел нет и границы довольно размытые.
  • По конкурентности (ВК/СК/НК) — зависит от того, сколько сайтов продвигается по запросу.

Если вы занимаетесь бизнесом и продаете товары или услуги, то вам стоит сосредоточится на транзакционных коммерческих запросах. Нетрудно догадаться, что легче всего продвигаются НЧ НК запросы, а сложней всего ВЧ ВК. Молодому сайту лучше не тягаться с конкурентами по ВК запросам.

Собирая семантическое ядро, желательно выбрать максимум запросов, чтобы на основании этого спланировать правильную структуру сайта. А для продвижения выбирать СЧ и НЧ запросы.

Важно понимать! Люди, конечно, часто вводят одинаковые запросы, но большинство запросов вводятся в поисковую систему только один раз, статистику по ним не собрать и вряд ли вы их найдете. Поэтому не стоит зацикливаться на конкретных запросах, важно чтобы тексты на сайте максимально охватывали вашу область деятельности, тогда вы будете собирать много посетителей на таких супер-низкочастотых запросах.

Инструменты для сбора семантического ядра.

Теперь перейдем к практике. Как собирать запросы для семантического ядра? Расскажу кратко, а вообще рекомендую подробную отдельную статью про сбор СЯ.

  • Вручную. Зная свою сферу деятельности выпишите все запросы, которые сможете придумать. Это могут быть названия товаров, наименования услуг, вопросы из вашей сферы. Не берите длинные запросы, а только из 1-3 слов. Например, для себя я выбирал такие: «продвижение сайтов», «раскрутка сайтов», «оптимизация сайта», «заказать продвижение сайта», «как продвигать сайт» и т.п.
  • Сервис http://wordstat.yandex.ru/. Здесь вы можете проверить частотность любого запроса и увидеть, другие запросы, которые люди искали вместе с этим словом. Выписывайте всё, что вам подходит. Но учтите, что сервис показывает базовую частоту слова и на нее не стоит ориентироваться. Чтобы узнать точную частоту запроса, нужно вводить его в кавычках » «.
  • Используем сайты конкурентов. Смотрим список их товаров/услуг, смотрим какие слова они выделяют цветов. Есть много сервисов, которые показывают поисковые запросы, по которым продвигается сайт конкурента.
  • Если у вас действующий сайт с установленной системой статистики, то вы можете посмотреть запросы по которым к вам уже переходят.

После того как собрали все возможные запросы, собираем всё в один список и чистим запросы от ненужных. Желательно использовать какую-нибудь программу, рекомендую бесплатную программу SlovoEB или платную KeyCollector. В программе SlovoEB можно также проверить частотность запросов.

Частота нам нужна, чтобы выбрать запросы для продвижения. Если мы будем продвигать очень частотные запросы, то скорей всего ничего не получится, т.к. будет сложно обойти старые авторитетные сайты. А если частота очень низкая, то в продвижении нету смысла, т.к. мы получим очень мало посетителей.

Я рекомендую обратить на информационные запросы. Когда в поисковой выдаче первый экран — это реклама, то у нас все равно мало шансов попасть на глаза пользователю. Если же мы прорабатываем вопросы, которые человек ищет до принятия решения, то мы привлечем его внимание до того, как он решит выбирать к кому обратиться.

Структура сайта.

На основании собранных запросов нужно спланировать структуру сайта. Другими словами — надо разбить запросы на группы и подобрать для них страницы сайта, а если страниц нет, то создать.

Подробная статья о структуре сайта.

Разбивка запросов.

Проще всего разбивать запросы для интернет-магазинов. Тут легче всего выделить категории, подкатегории, товары. В принципе, магазин изначально предполагает какую-то структуру, но собирая семантическое ядро вы, возможно, поймете, что у вас не хватает каких-то категорий.

Для компаний оказывающих услуги или производящих определенный вид товаров подходит логическая группировка. Например:

  • Всё, что касается цены — это страница Стоимость
  • Всё, что касается производства — это страница Производство
  • и т.п.

Но не стоит полагаться только на логическую группировку. Надо обязательно проверить совместимы ли запросы с помощью кластеризации фраз по поисковой выдаче.

Посадочная страница.

Для каждой группы запросов нужно выбрать страницу на сайте. Если страницы нет, то нужно создать или выбрать существующую страницу и подогнать ее под группу запросов.

Для страницы пишется оптимизированный текст, об этом мы будем говорить далее.

Чтобы понять, какой должна быть посадочная страница, рекомендую ориентироваться на конкурентов, занимающих по запросу первые места. Например, если на первых местах стоят страницы, где подробно расписана стоимость товара или услуги с большим количеством фотографий, то вам тоже нужно так сделать.

Текст для посадочной страницы.

Чтобы составить идеальный оптимизированный текст для посадочной страницы, надо очень хорошо понимать принцип работы поисковых систем. Мы не будем подробно рассматривать алгоритмы анализа текста, но следует знать, что учитывается:

  • Объем текста
  • Оформление страницы (картинки, видео, списки, таблицы, шрифт)
  • Количество вхождений ключевого слова в текст (плотность)
  • Формы слова
  • Синонимы ключевого слова
  • Тематика текста (если продвигаем ключ «купить лыжи», то текст должен быть о лыжах, а не о купальниках, например)

Я думал дать стандартные рекомендации, но не стану. Лучше всего смотреть на конкурентов в ТОП-10 и делать примерно так же. Если у всех 2000-3000 символов на странице, значит этого достаточно. Если у всех есть видео на странице, значит тоже нужно выкладывать видео. Для каждого случая будет свое решение.

Пример технического задания для копирайтера:

Техническая составляющая продвижения.

Теперь рассмотрим технические факторы, которые могут положительно или негативно повлиять на нашу работу. Можно с уверенностью сказать, что сайт с ошибками, битыми ссылками, кривым дизайном и медленным хостингом будет ранжироваться хуже сайтов, у которых всё сделано аккуратно. Если кратко, то сайт должен быть безупречен в техническом плане. Перечислим основные проблемы:

  • Битые ссылки. На сайте не должно быть битых ссылок. Как они обычно получаются? Когда вы удаляете какую-то страницу (например услугу или товар) на сайте могут остаться ссылки на эту страницу. Кроме того, на удаленную страницу могут ссылаться и другие сайты. Поэтому вы можете думать что всё в порядке, но на самом деле посетители могут попадать на несуществующие страницы и уходить с сайта. Поисковые системы всё это учитывают. Проверить сайт на несуществующие страницы можно с помощью программы Xenu.
  • Title и h2. Title — это название страницы, которое отображается на вкладке браузера, а также в результатах поисковой системы. Title должен быть обязательно заполненным, осмысленным и включать ключевые слова, по которым продвигается страница. h2 — это заголовок текста, он должен быть единственным на странице.
  • HTML код страницы. HTML — это язык разметки, с помощью тегов HTML размечается текст страницы и в итоге мы видим структурированный и оформленный текст. Тут не должно быть ошибок и нагромождений тегов. Подробно расписывать не буду, т.к. кто не знает HTML объяснять нет смысла.
  • Уникальный контент. Нельзя просто копировать информацию с чужих сайтов. Поисковые системы прекрасно определяют первоисточник. Если сайт не представляет ценности и просто копируют чужую информацию, то ему не место в результатах поиска. Для проверки уникальности текстов можно использовать программу Advego
  • Карта сайта sitemap.xml. Это специальный файл, который находится в корне сайта и содержит информацию о структуре сайта. С помощью него поисковым системам легче проиндексировать сайт и разобраться в его структуре.
  • Файл robots.txt содержит инструкции для поискового робота. С помощью него надо закрыть от индексации служебные разделы и дублирующуюся информацию. Также в нем указывается главное зеркало сайта (бывает что сайт доступен по нескольким адресам, основной адрес и называется главным зеркалом)
  • Дублирование контента. Если две страницы на сайте содержат одинаковую информацию, то они называются дублями. Одна страница может иметь десятки дублей и привести к большим проблемам при продвижении сайта, ведь поисковой робот не может выбрать из них релевантную страницу, а кроме того, зачем индексировать повторяющуюся информацию? В итоге весь сайт может быть исключен за это из результатов поиска. Никто специально не делает одинаковые страницы, дело в ошибках работы сайта. Обычно дубли появляются из-за того, что одна и та же страница просто доступна по разным адресам (например site.ru/page1.html и site.ru/category/page1.html)
  • Плохой хостинг. Хостинг — это место, где физически расположен ваш сайта. Из-за плохого хостинга ваш сайт может долго открываться или не открываться вообще. Если поисковой робот пытается зайти на сайт, а он не открывается, то сайт может быть исключен из поиска, т.к. несуществующие сайты никому не нужны.

Оптимизация сайта должна включать в себя технический аудит и исправление всех подобных ошибок.

Когда мы собрали семантическое ядро, создали необходимую структуру, наполнили посадочные страницы контентом и наш сайт безупречно работает, то работа по внутренней оптимизации сайта закончена. Поисковые системы будут посещать наш сайт и включат страницы в результаты поиска.

Внешняя оптимизация сайта.

Как я написал в начале, внутренней оптимизации достаточно, чтобы сайт ранжировался в результатах поиска и люди его находили. Но сайтов много, информация в основном одинаковая (особенно на сайтах компаний, которые занимаются одинаковой деятельностью) и поисковым системам нужно как-то определить какой сайт ставить выше, т.е. выбрать более авторитетные сайта.

Внешние ссылки.

Один из способов определить авторитет сайта — это посчитать количество упоминаний и ссылок с других сайтов. Это как в научном мире: ученый считается известным, если его часто упоминают в журналах и научных публикациях.

Тоже самое с сайтами, если на вас часто ссылаются, значит вы представляете ценность для людей. Поэтому, чтобы стоять выше в результатах поиска, нужно стимулировать появление ссылок на ваш сайт. Как это можно делать?

  • Общаться на форумах
  • Размещать статьи для других сайтов с ссылкой на себя
  • Публиковать интересный материал, чтобы люди делились ссылками на вас
  • Оказывать качественные услуги, чтобы вас советовали.

Но не все компании готовы вести такую активную деятельность в интернете. Поэтому популярны биржи ссылок, где владельцы сайтов продают ссылки со своих сайтов на ваш. И когда то давно это хорошо работало.

Сейчас поисковые системы хорошо определяют сайты, которые торгуют ссылками. И если на вас ссылается много сайтов, которые торгуют ссылками, вы можете даже получить санкции от поисковика. Поэтому закупать ссылки на биржах надо очень аккуратно подбирая доноров (сайты, где вы покупаете ссылки). Но лучше использовать более естественные способы. Например, почти для любой сферы есть тематические ресурсы, где можно зарегистрироваться, рассказать о себе и поставить ссылку.

Подробная статья о покупке ссылок на бирже.

Популярные биржи ссылок: gogetlink.net, rotapost.ru

Так же, можно использовать автоматические системы закупки ссылок: sape.ru, rookee.ru, seopult.ru

Социальные сигналы.

С развитием социальных сетей поисковики стали обращать внимание на упоминание сайта в социальных сетях. Вы можете разместить у себя кнопки социальных сетей, чтобы люди «лайкали» и делились информацией. Конечно, чтобы они это делали по своей воле, вы должны предоставлять действительно качественные услуги или интересный контент.

Здесь тоже существуют платные способы накрутки. Люди за деньги ставят вам лайки, вступают в ваши группы, ставят на вас ссылки. Популярные сайты, где можно купить такие действия: userator.ru, forumok.com

Опять же, поисковые системы могут определить, когда вы накручиваете данные факторы. Поэтому действовать нужно аккуратно и не перебарщивать.

Коммерческие факторы ранжирования.

В 2014 году Яндекс объявил об отмене влияния ссылок на ранжирование коммерческих сайтов. Хотя большинство веб-мастеров давно заметили ослабление влияния ссылок. Так как же тогда сравнивать практически одинаковые сайты в коммерческой сфере? Десятки компаний занимаются одним и тем же, как определить какой сайт лучше/хуже?

Еще в 2011 году на одной из конференций Яндекс упоминал коммерческие факторы ранжирования. Это факторы, которые характеризуют надежность компании: наличие офиса, телефона, узнаваемость бренда, отзывы, акции и т.п.

У меня есть более подробная статья про коммерческие факторы. А сейчас, кратко рассмотрим их:

  1. Контакты на сайте. На сайте должно быть несколько способов связи: телефон, электронная почта, кнопка обратной связи. Должна быть отдельная страница контактов со всеми телефонами, картой, схемой проезда. Можно добавить фотографии офиса
  2. Наличие рекламы на сайте. Не стоит рекламировать чужие сайты и использовать блоки рекламных систем. Не должно быть агрессивной рекламы по типу всплывающих окон
  3. Широкий ассортимент. Оценивается количество товаров, которые вы продаете, их наличие, цены, количество разных брендов.
  4. Детальное описание товаров. Карточка товара должна быть с подробным описанием: фотографией (желательно несколько), характеристиками, ценой, отзывами, информацией о доставке и т.п.
  5. Доставка. Должна быть информация о доставке. Желательно как можно больше способов.
  6. Наличие техподдержки и/или онлайн-консультант. Хорошо, если на сайте установлен онлайн-консультант, чтобы покупать мог быстро проконсультироваться.
  7. Акции, скидки. Учитывается, проводит ли компания какие-то акции, есть ли для этого специальный раздел. Это повышает доверие покупателей.
  8. Заголовки страниц Title. Учитывается длина и привлекательность заголовка страницы. Ведь пользователь видит их в результатах поиска. Не стоит вставлять в title все слова, по которым вы продвигаетесь. Также, важно чтобы заголовок соответствовал содержимому страницы.
  9. Имя домена. Желательно чтобы адрес сайта был простой (короткий) и легко запоминался.
  10. Присутствие в социальных сетях. Если у компании есть группы в популярных социальных сетях, это говорит о том, что она готова общаться с клиентами.

Не все эти факторы могут быть использованы на сайте компании. Например, многим фирмам просто нечего делать в социальных сетях (Кто будет вступать в группу «Продажа ритуальных памятников»?). Или не каждой компании нужен онлайн-консультант. Но всё же стоит ориентироваться на перечисленное.

Заключение. Или каким должен быть современный сайт?

Надеюсь после прочтения этой статьи вам стало понятней, что включает в себя работа по продвижению сайта. Самое главное, что мне хотелось бы донести, что сайтом нужно заниматься постоянно. Аккуратный и развивающийся сайт обязательно займет свое место на первых страницах поисковых систем.

Работы по продвижению сайта состоят из внутренней работы над сайтом (первая половина этой статьи) и наращиванием авторитета (вторая половина).

Старайтесь больше внимания уделять качеству и удобству для пользователя, чтобы люди возвращались на ваш сайт и тогда не придется имитировать свою популярность. Классическое продвижение сайтов, ориентированное на то, чтобы казаться хорошим сайтом, уходит в прошлое. Поисковики научились определять качество сайта по поведению пользователей, поэтому простой закупкой ссылок уже сложно чего-то добиться и даже можно всё испортить.

Публикуйте свежую полезную информацию для своих клиентов, общайтесь с ними в социальных сетях, предоставляйте качественный сервис и услуги, используйте приемы маркетинга.

Если у вас остались вопросы, задавайте их в комментариях, я обязательно отвечу или дополню статью.

Как создать сайт бесплатно самому с нуля на конструкторе Яндекс

Всем привет. Все знают о том, что Яндекс это самая популярная отечественная поисковая система. Однако, далеко не всем известно, что Яндекс предоставляет также бесплатный хостинг, на котором может создать свой собственный сайта каждый желающий. Этот сервис носит название Narod.ru, или просто «народ».

Создать сайт на Яндексе бесплатно ты можешь буквально за считанные минуты. Все что для этого необходимо, это зарегистрировать свой почтовый ящик. Твой логин от почтового ящика и станет в дальнейшем доменным именем твоего сайта.

Тем не менее, меня (думаю, и тебя тоже) сайты интересуют не сами по себе, а как возможность заработать в интернете, и, как оказалось, зарабатывать на сайтах на народе тоже можно. Яндекс позволяет вешать на «народные» сайты любую рекламу, в том числе и от злейшего конкурента Google. Можно также неплохо зарабатывать на партнерках и тизерной рекламе. Кроме того, Яндекс очень трепетно относиться к «своим» сайтам, и, зачастую, продвинуть их в выдаче Яндекса по некоммерческим запросам значительно легче, чем сайты на других платформах, в том числе и платных. Вот основные преимущества сайта на Народе:

  • Сайт на Яндексе можно создать быстро и легко. Если позволяет квалификация можно создать на html и css, если не позволяет, то можно воспользоваться конструктором сайтов, который предлагает Яндекс;
  • Сайт создается абсолютно бесплатно;
  • Сайты на народе хорошо индексируются;
  • На сайты редко накладываются фильтры Яндекса, и еще реже они уходят в бан;
  • При желании можно прикрутить к сайту домен второго уровня.

Что касается недостатков, то они, к сожалению, тоже есть. И тоже довольно весомы:

  • Хостинг не поддерживает PHP и MySQL, поэтому на народе можно создавать только простые статические сайты, и нельзя использовать CMS;
  • Ты не хозяин своего сайта, а всего лишь пользователь, и Яндекс в любой момент может закрыть твой сайт (впрочем, на моей памяти, такого не случалось).

Вывод: Яндекс Народ можно использовать для создания только простых сайтов «для души» или под баннерную рекламу и партнерские программы.

Создание сайта на Яндексе

Итак, прежде всего, необходимо выбрать красивое доменное имя для своего сайта и зарегистрироваться в почте Яндекса под соответствующим логином. После этого, нужно зайти на свой аккаунт и щелкнуть по ссылке «Народ».

 

Здесь тебе предложат создать свой сайт. Жмем на кнопку и переходим к выбору тематики будущего сайта.

 

 

На выбор:

  • Коммерческий.
  • Персональный
  • Фан-сайт
  • Нечто непонятное, со странным название Tabula Rasa. Вот это непонятное мы сейчас постараемся создать для примера.

Нажимаем далее и попадаем на страницу, где нам предложат выбрать название сайта.

 

После того, как мы определись с названием можно переходить на следующую страницу с выбором оформления сайта.

 

После того, как мы выбрали оформление сайта, нам предложат самостоятельно разместить на странице различные блоки сайта, такие как меню, поиск, текст, новости, контакты.

 

Раскидываем все туда, куда хотим и нажимаем опубликовать. Вот и все, теперь можно перейти на свой сайт и полюбоваться результатом.

Сайт создан, теперь необходимо наполнить его контентом. Подробнее на эту тему можно прочитать тут — написание статей для сайта. Ну а после того, как на сайте начнет появляться контент, можно приступать к продвижению сайта в Яндексе.

Думаю, дальше ты разберешься сам. Ну а если не разберешься, задавай свой вопрос в комментариях, буду рад помочь. И не забывай подписываться в RSS на обновления моего блога.

Бывший сотрудник Яндекса выпустил бесплатный поисковик с блек… листами, но без рекламы

Здравствуйте, меня зовут Дмитрий Карловский и я крайне опечален качеством поиска современных поисковиков.

Например, обсуждали мы как-то в $mol-чате стоит ли делать «человеко-понятную» псевдостатику в урлах вида /snjat-dvushku/s-remontom/v-vihino для SEO, или всё же сеошники — шарлатаны, гадающие на поисковой гуще. Решили проверить кто там у нас в топе по запросу «квартира купить однокомнатная горьковская» и получили такой результат:

Дыбенко, Лесная, Жопа Мира, всё, что угодно, только не то, что спрашивали. Первые 4 результата — нерелевантный мусор. А потом сервис самого же Яндекса. Как так получилось, что в 2к21, в эпоху машинного обучения и GPT-3, у нас получился поиск хуже, чем на заре интернета?

Копаем вглубь

А разгадка простая: первые четыре результата — это реклама, мимикрирующая под выдачу. Порой она настолько хорошо мимикрирует, что опознать её может только экстрасенс:

Отвечая на изначальный вопрос: в топе будет тот, кто больше проплатил поисковику, и всё. Так что не мучайте программистов хитрожопыми правилами формирования урлов, выгоняйте сеошников не умеющих в научный подход, а сэкономленные деньги просто отдайте на рекламу. И ладно там с СЕО, для пользователей ситуация куда более печальная..

Какие бы умные разработчики ни работали над уникальными алгоритмами поиска, если ко власти приходят эффективные менеджеры, для пользователя ваш поиск всё-равно будет работать отвратительно. Такие менеджеры усиленно пилят сук на котором сидят. Главное — срубить как можно больше премий, пока он не обломился.

И Яндекс такой не один, конечно. Соблазн поднять бабла на невнимательности пользователей — очень высок. Например, поищем «free hosting» в популярных поисковиках:

Безоговорочный лидер тут у нас — Yahoo, где суммарная площадь рекламного мусора превысила объём релевантной выдачи. Видя, снижение прибыли из-за оттока пользователей, они всё сильнее закручивают гайки, тем самым лишь ещё больше увеличивая отток.

Копаем вширь

И это мы пока что говорили лишь про «результаты выдачи» и мимикрирующую под неё рекламу. А есть ещё и не мимикрирующая реклама, всяко разные «колдунщики» и «острова» влезающие со своими «подсказками» после каждого второго пункта выдачи. Интерфейс выдачи сейчас везде настолько перегружен, что им просто неприятно пользоваться. Чем больше даже релевантной информации разбросать по странице, тем меньше вероятность, что посетитель вообще заметит то, что ему могло бы быть полезно.

На мой взгляд хороший поисковик должен предлагать диалог помогающий пользователю объяснить роботу, что он ищет:

  • Лук

  • Какой лук? Репчатый, охотничий, географическое место или вообще внешний вид?

  • Охотничий

  • А что про него? Как работает, где купить, история использования?

  • Как работает

  • Лады, держи страницы о конструкции луков.

Если делить таким образом выборку каждый раз на 5 частей, то за 10 вопросов легко можно найти любую страницу из 10 миллионов. Акинатор не даст соврать.

Нечто похожее есть в поиске по картинками, только фасеты подбираются безобразно:

Сейчас же поисковики пытаются ответить сразу на все вопросы одновременно, показывая тебе и карты, и вырезки из Википедии, и перевод, и видео, и подборку картинок, и ответы на вопросы, и что ищут другие люди, и всё, что угодно, лишь бы ты не делал лишних тапов, но делал лишние свайпы.

И даже если от всего этого избавиться, сам результат поиска тоже оставляет желать лучшего. Всё потому, что поисковики возвращают не то, что вы ищите, а то, что ищет большинство по совершенно иным запросам. Ну мало ли вы ошиблись, отбились от стада, со всеми бывает.

Например, лет 7 назад я написал песню, которая много где уже опубликована. Так вот, там есть слова «Ты моё Сонце — я твой Месяц в звёздах». Давайте попробуем её найти:

Прекрасно, 9 миллионов результатов и, внезапно, фолиевая кислота на пол экрана! Не, ну а что, вдруг залетит после таких-то красивых слов. Яндекс — мы думаем на перспективу.

Это явление называется «пузырём фильтров». Есть большой пузырь, куда суют по умолчанию всех. В нём находится индивидуальный пузырик, основанный на слежке за пользователем. И что бы вы ни искали, результаты будут не со всего интернета, а лишь из вашего пузыря.

Чтобы вырваться из пузыря и заставить таки поисковик искать то, что вам надо, порой помогает взятие запроса в кавычки. Но и тут Yahoo умудрился отличиться:

Два нерелевантных результата, прикидывающиеся будто их 60. Bing же просто выдаёт 4 рекламы (две из которых — ювелирка, Бинг более деликатен, чем Яндекс, видимо) и всё:

Короче, с поиском в интернете сейчас определённо чо-то не то. Это уже настолько очевидно всем, что пара бывших топов по рекламе из Google запустили свой платный поисковик. Конечно же они грозятся рекламу не показывать, за действиями не следить, данные не воровать.. Но вы можете открыть им для индексации ваши Gmail, Outlook, Google Drive, Dropbox, Slack, Jira или где вам там есть что скрывать.

Ведь если вы платите компании деньги, то нет оснований полагать, что все ваши данные разом (намеренно или не очень) вдруг окажутся в руках кого-то, кому вы бы их ни за что не открыли. Да что уж там, они даже не парятся, и отображают в выдаче гугл-карты, хвастаясь тем, какие они молодцы, что не стали изобретать велосипед получив $77,5 млн инвестиций. Вот тебе и приватность.

Причём, что у них собственно с качеством поиска ты не узнаешь, пока не заплатишь. А с качеством у поисковиков есть проблемы и без реклам да пузырей. Банальный поисковой спам то и дело попадается в результатах. Например, вездеcсущий pinterest.com. Чтобы не видеть его в выдаче приходится добавлять «-site:pinterest.com» к запросу. Но работает это не везде.

Копаем вбок

И сижу я такой, смотрю на это всё, и офигеваю. Что делать-то простому безработному программисту из Мухосранска? От рекламы в выдаче уже тошнит. Платить за поисковик 5 баксов жаба душит. Пилить своё — никаких ресурсов не хватит. Хотя, есть одна идейка..

У того же Гугла есть Программируемая поисковая система. Она позволяет встроить Гугл-поиск в свой сайт. А что если..

Ладно, смотрим апи. Какие у нас есть возможности:

  • Можно рисовать своё поле поиска и дёргать запросы вручную.

  • Можно полностью самим же рисовать и выдачу.

  • Можно искать как по конкретным сайтам, так и по всему интернету.

Да это же то, что нам и надо! Но кто оплачивает этот банкет? Находим Прайс и видим 3 альтернативы:

  • Платить из своего кармана за чужие поиски.

  • Показывать рекламу.

  • Показывать атрибуцию.

Платить нечем, от рекламы как раз и пытаемся сбежать, а что за атрибуция такая? Фактически это реклама самого гугла, только менее навязчивая. То есть достаточно просто вставить ссылку на Гугл? Не совсем, варианта лишь два:

Причём делать это нужно не как попало, а лишь с помощью их бренд-скрипта. Ну ладно, звучит приемлемо — вставим атрибуцию в конце выдачи. Зато сможем предоставить пользователю действительно хороший UX поиска. Разве что..

Один скрипт, другой, третий и вот у нас уже страничка на 200 кб. А это на четверть больше, чем весь портал mol.hyoo.ru, где функциональности гораздо больше, чем поле поиска, http-запрос и список ссылок. Мой внутренний перфекционист рыдает кровью, но ничего не поделаешь. Хорошо хоть не на Ангуляре..

Но даже так загрузка у нас получилась в 2 раза быстрее оригинала:

Итак, пришла пора показать результат всех этих мучений лицом:

Как видно, есть предустановленный список альтернативных поисковиков и чёрный список доменов, которые исключаются из выдачи. Но пользователь легко может их изменить под себя. Настройки хранятся локально. Они никуда не сливаются. Но и не синхронизируются. Для синхронизации потом сделаю свой крипто синхронизатор, не раскрывающий данные серверу.

К сожалению, не раскрывать текст запросов поисковику не получится. Так что уровень приватности не больше, чем в собственно Гугле.

А теперь о печальном:

Даже в кавычках ничего не нашлось. И дело тут совсем не в запросе, а в том, что программируемый гугловый поиск похоже ищет не по всему интернету, а лишь по некоторому пузырю из наиболее популярных страниц. Так что «убийца конкурентов» у нас, конечно, не получится. Благо есть быстрые ссылки для поиска по тому же запросу в других поисковиках.

Выкапываемся

Я может и не бог дизайна, но я и не транс-национальная корпорация, которая может позволить себе нанять самых топовых дизайнеров.. которые не в курсе, что иногда люди пользуются интернетом и в полумраке, а кристально белый фон страницы в этих условиях просто выжигает им сетчатку.

Поисковик я делал таким, каким бы хотел пользоваться сам. Поэтому рекламы на нём нет и не будет. А в приоритете релевантность результатов поисковому запросу а не профилю пользователя. Ну, насколько это возможно в свете отсутствия коммерческой выгоды и, как следствие, использовании сторонних API.

Проект, как обычно, с открытыми исходниками, лицензия MIT. Так что смело подкидывайте идеи по улучшению, а то и подключайтесь к его развитию. Например, не сложно будет прикрутить поиск по картам и картинкам. Ну или пилите что-то своё, лучше, чем у меня. Пусть расцветают сто цветов.

Тут правда есть риск, что этот мой микро сервис обретёт популярность. Тогда есть два варианта развития событий:

  • Оптимистичный: владельцы поисковиков растормошатся и возьмутся за UX их базовой функциональности.

  • Пессимистичный: лавочку могут просто прикрыть. Тем более, что в условиях использования есть такой чудесный пункт: Недопустимо создавать или пытаться создать такой же или аналогичный Сервис или продукт, используя доступ к любому из Сервисов или к соответствующей запатентованной информации. Забанить по нему можно кого угодно, было бы желание.

Но реалистичный сценарий всё же — неуловимый Джо, — это когда всем пофиг.

Ну и, наконец, ссылочки:

Почаще вам находить и пореже терять!

5 альтернативных поисковых систем, где можно легко ранжировать

Google обрабатывает около 3 миллиардов запросов в день, что делает его таким ценным маркетинговым инструментом.

Но в мире есть поисковые системы, отличные от Google. У Google много конкурентов, и все они имеют свою долю на рынке поиска. Например, Yahoo! имеет 309 миллионов запросов в день, а Bing — 134 миллиона.

Они оба все еще далеки от 3 миллиардов — это даже не половина миллиарда между ними двумя, — но это все еще много потенциальных клиентов, которые могут прийти в ваш бизнес.

Yahoo! и Bing — тоже всего лишь два примера — у пользователей поисковых систем есть больше альтернатив, чем только эти два.

Вам просто нужно знать, что они собой представляют, чтобы вы могли нацелить их.

Поисков в день: ~ 10 миллионов (2015)

Первым претендентом в нашем списке альтернативных поисковых систем является DuckDuckGo. DuckDuckGo — одна из самых известных альтернативных поисковых систем в мире, потому что ненавидит отслеживание пользователей.

На самом деле, это главный аргумент DDG — и они делают все возможное, чтобы привлечь новых пользователей.

Кроме того, DDG — просто хорошая поисковая машина. И, несмотря на подавляющую долю рынка Google, он выполняет миллионы запросов каждый день.

Фактически, вы можете проверить статистику DDG по их поисковым запросам за последние несколько лет, чтобы узнать, насколько хорошо они справляются сейчас.

Для пользователей DDG добавляет небольшую симпатичную графику рядом с результатами поиска, которые они уже посещали, что означает, что у вас есть возможность задержаться на возвращающемся трафике.

Как компания, DDG практикует то, что проповедует о конфиденциальности.У них самые высокие рейтинги шифрования SSL, поэтому их сайт в целом максимально безопасен — по крайней мере, в том, что касается SSL.

Как вы занимаетесь в DuckDuckGo?

Хотя DDG любит говорить о том, насколько она отличается от Google на практике, ее стандарты SEO очень похожи.

По сути, вам просто нужно получить ссылки. И, по их словам, вы должны получать их «с высококачественных сайтов, таких как Википедия».

Означает ли это, что количество ссылок на Википедию в DDG SEO неясно на 100%, но, вероятно, это беспроигрышный вариант.

DDG также использует семантический поиск (например, Google Hummingbird) для определения намерений пользователя и включает примерно элементов локального поиска, хотя он не так точен, как Google.

В конце концов, DDG не имеет отдельных свойств для данных о компаниях или NAP, поэтому, конечно, он будет менее точным для пользователей.

Если вы хотите расширить охват на DDG, вы можете разместить рекламу в Bing, поскольку она работает в той же рекламной системе.

Такое партнерство может вызвать недоумение в отношении честности DDG, но для бизнеса это простой способ рекламы.

Все это означает, что вы все еще можете добиться успеха в Интернете с помощью DuckDuckGo, тем более, что его стандарты SEO очень похожи на Google, а его реклама PPC исходит от Bing.

Поисков в день: ~ 2 миллиона (2012)

Ixquick — еще одна поисковая система, ориентированная на конфиденциальность, которая хвастается, что является «самой частной поисковой системой в мире».

Независимо от того, как Ixquick определил это различие, у него есть ряд отличий, которые подтверждают его как сверхприватную поисковую систему, не говоря уже о наивысшем возможном рейтинге шифрования SSL (например, DDG).

Интересно, что у Ixquick, похоже, нет собственных поисковых роботов. Вместо этого он сразу получает результаты из других поисковых систем, включая Yahoo !, Google и Gigablast (и это лишь некоторые из них).

Это в значительной степени делает его поисковой системой для поисковых систем — метапоисковой системой — поскольку она фактически не ранжирует отдельные страницы. Он просто ранжирует результаты поиска из других поисковых систем.

С другой стороны, это означает, что Ixquick берет лучшие результаты поиска из каждой поисковой системы, ранжирует их в соответствии со своим собственным алгоритмом и соответственно перечисляет их.Они даже предлагают маленькую звездочку рядом с результатами поиска, которые входят в десятку лучших других поисковых систем по ключевому слову.

Таким образом, с точки зрения пользователя, они буквально берут лучшее из лучшего.

С точки зрения бизнеса ваша конкуренция никогда не была такой жесткой.

Но если вы попадаете в первую десятку результатов поиска по ключевому слову, имеющему значение для вашей отрасли, вы можете получить широкую известность.

Как вы занимаетесь в Ixquick?

Вы хорошо ранжируетесь в других поисковых системах.

В этом отношении рейтинг на Ixquick на самом деле не препятствие — это награда. Как только вы докажете своей аудитории (и Google), что являетесь надежным источником информации, пользователи Ixquick тоже начнут видеть вас таким же.

Итак, все, что вам нужно сделать, это сосредоточиться на одной поисковой системе за раз, чтобы получить желаемые результаты.

И если вы хотите платить за рекламу, вы можете запустить кампанию в AdWords. Ixquick использует рекламу прямо из Google.

№ 3. Яндекс

Поисков в день: ~ 154 миллиона (2013)

Яндекс является российским эквивалентом Google и контролирует около 60% рынка поисковых систем в России и за ее пределами.

Это может не иметь большого значения для тех, кто продает в основном в Соединенных Штатах, но для международного бизнеса это может принести большие выгоды.

Яндекс устроен так же, как Google, и делает почти все, что вы ожидаете от известной поисковой системы. У него даже есть специальная платформа для продвижения приложений для стартапов и технологических компаний, которые хотят продвигать только приложения.

Но хотя выглядит немного похоже на Google, он не работает точно так же.

Во-первых, эквивалент PageRank Яндекса называется рейтингом тематического индекса цитирования (TIC), и он оценивается по шкале от нуля до 10 000.

Вдобавок Яндекс индексирует сайты только время от времени, в отличие от Google, который индексирует все почти постоянно. Это означает, что если вы настроите таргетинг на Яндекс, ваш рейтинг будет обновляться намного медленнее, чем в Google (если вы не ведете частый блог).

Вы также не можете настроить таргетинг на область с контентом.Чтобы настроить таргетинг на местоположения в Google, вы можете создать целевую страницу для местоположения и появляться по желаемому ключевому слову.

Но на Яндексе вам нужно изменить настройки вашего веб-мастера для геотаргетинга.

Plus, Яндекс оценивает факторы на сайте иначе, чем Google. Длина содержания, важность отдельных страниц и другие критерии просто не имеют такого значения, как для Google.

Тем не менее, несмотря на все различия, Яндекс по-прежнему преследует ту же цель, что и Google — создавать удобные для пользователей условия.

Как вы занимаетесь в Яндексе?

В настоящее время Google в значительной степени поддерживает самые высокие стандарты SEO среди всех поисковых систем. Так что, если вы хорошо занимаетесь в Google, вы, вероятно, тоже будете хорошо ранжироваться в Яндексе.

Но если вы целенаправленно нацелены на клиентов в России и за ее пределами, вам предстоит поработать.

Эта работа будет очень похожа на то, как вы выполняете геотаргетинг в Google, но важно, чтобы вы изменили настройки своего веб-мастера на Яндексе, прежде чем искать какие-либо местоположения в России или Восточной Европе.

Возможно, вам также будет полезно писать на русском, украинском или другом доминирующем региональном языке, который понимает ваша целевая аудитория. (Это также будет включать запись правильным кириллическим алфавитом.)

Каким бы распространенным ни был английский язык, вы не сможете превзойти охват, который вы получаете, когда обращаетесь к группе людей на их родном языке.

№ 4. Собачья куча

Поисков в день: не разглашается

Еще в 1990-х Dogpile был большим событием.

По качеству поисковой системы он был на одном уровне с AltaVista, Alltheweb, Yahoo и самим Google.На самом деле Dogpile опередила Google примерно на два года, но никогда не достигала того же уровня известности или известности.

Причина в том, что Dogpile больше не пытается быть поисковой системой — она ​​подняла свою игру до метапоиска, как и Ixquick.

Он также использует лот платных объявлений — целых 10 на странице — для поддержания роста доходов.

Нельзя сказать, что органическое ранжирование в Dogpile — плохая идея. Это просто еще один способ заработать и удерживать лидирующие позиции в поисковых запросах, по которым вы уже доминируете.Кроме того, это способ повысить рейтинг по определенным запросам, которые не работают в Google, но и хорошо работают в Yahoo!

Это потому, что команда инженеров Dogpile обнаружила минимальное совпадение результатов поиска из разных поисковых систем. По сути, Google, Yahoo !, и Bing показывают уникальный список, основанный на их собственных алгоритмах.

Поэтому вместо создания еще одного алгоритма поиска они решили проверить связь с существующими поисковыми системами и соответственно ранжировать результаты.

Каково ваше место в Dogpile?

Хороший рейтинг везде и везде.

Стоит отметить, что одна и та же страница не будет отображаться несколько раз, если она хорошо ранжируется в нескольких поисковых системах. Инженеры Dogpile позаботились о том, чтобы каждая страница отображалась только один раз за один поиск, поэтому вы не можете насыщать результаты поиска, занимая высокие позиции в каждой поисковой системе , которую запросил Dogpile.

Это связано с тем, что Dogpile, как и любая другая поисковая система в этом списке, призвана обеспечить высокое качество обслуживания клиентов.

Но если ваш рейтинг в Google невысок, это не значит, что все потеряно. Вы можете охватить пользователей Dogpile, получив высокий рейтинг в других основных поисковых системах.

№ 5. Гибиру

Поисков в день: неизвестно даже владельцам сайтов

Gibiru — это поисковая система, ориентированная на конфиденциальность (например, DDG), которая практически одержима анонимностью.

Фактически, их слоган — «Анонимный поиск без цензуры», который полон, но он также прекрасно выражает их миссию.

Поисковая система даже стирает историю поиска каждые 15 минут, поэтому не может продавать данные , и они настолько конфиденциальны, что у них есть список крупных компаний, которые выполнили повестки в суд.

Самый большой фактор, который их отличает, — это их стремление сохранять анонимность пользователей без цензуры результатов поиска, которые могут быть вырезаны из обычных поисковых систем.

Это означает, что алгоритм Гибиру не работает так же, как алгоритм Google, что очевидно из тонких различий в их результатах поиска по ключевым словам с высокой посещаемостью.

Похоже, Гибиру больше всего доверяет высококлассным веб-сайтам, таким как Википедия, за которыми следуют проверенные в отрасли сайты и качественный контент уровня 10X, обеспечивающий хорошее взаимодействие с пользователем.

Тем не менее, Gibiru — это не тот веб-сайт с высоким DA, который вы представляете, когда представляете себе поисковую систему. Он также довольно мал, но по-прежнему может доставлять трафик от клиентов, заботящихся о конфиденциальности.

И если это характеристика вашей демографической группы, Гибиру может быть для вас отличным вариантом.

Как вы занимаетесь на Гибиру?
Алгоритм

Гибиру является секретом (как и любая другая поисковая система), но, судя по результатам нескольких тестовых поисков, он, скорее всего, сосредоточен на ссылках, популярных сайтах (например, Википедия), качестве контента и сигналах релевантности.

Это не значит, что он использует все те же факторы SEO, что и Google, но они, вероятно, не повредят, когда вы захотите занять место на Gibiru.

Кроме того, учитывая, что у них есть HTTPS-версия своей поисковой системы, можно с уверенностью предположить, что меры конфиденциальности и безопасности также являются основными факторами ранжирования.

Это означает, что сайты, использующие HTTPS и шифрование, будут иметь более высокий рейтинг, чем сайты, которые этого не делают.

Специальное примечание к Гибиру

С точки зрения их отношения и связей с общественностью Гибиру агрессивно настроен против мейнстрима (они используют термин «хромой») до такой степени, что это может показаться ребячеством.

Дух Гибиру состоит в том, чтобы продвигать взгляды и мнения, которые иначе остались бы незамеченными в основных средствах массовой информации. Однако возможно, что причина, по которой эти взгляды не являются «общепринятыми», заключается в том, что они не вызывают доверия.

Итак, если вы собираетесь протестировать Gibiru, чтобы узнать, каков рейтинг вашего сайта, дерзайте. Просто имейте в виду, что вы используете одну из самых агрессивных поисковых систем в мире.

Тем не менее, если эта аудитория вписывается в вашу нишу, не помешает некоторое время следить за своим рейтингом, Гибиру, и сравнивать показатели вашего сайта примерно через месяц.

Почетные грамоты

Конечно, альтернативных поисковых систем в мире больше, чем этих пяти.

YouTube — это огромная поисковая система, но зрители YouTube, вероятно, не перейдут на ваш сайт, если они не пришли оттуда.В конце концов, у них есть весь видеоконтент, который они могут захотеть, на YouTube.

The Bing / Yahoo! В альянс входят два других основных конкурента Google, и они представляют собой жизнеспособные альтернативы поиску трафика за пределами ресурсов Google. Я не включил их, поскольку большинство специалистов по поисковой оптимизации уже знают о Bing / Yahoo !, но они, очевидно, по-прежнему полезны.

Facebook, Twitter и другие социальные сети также обеспечивают множество поисковых запросов в Интернете, но перечисленные выше поисковые системы направляют пользователей непосредственно на сайт вашей компании, а не на вашу страницу в социальной сети.Это дает им отличную возможность получить больше прямого трафика вместо просмотров страниц в социальных сетях.

Вы продвигаете себя в альтернативных поисковых системах?

Использовали ли вы раньше для своего бизнеса альтернативные поисковые системы? Какие результаты вы видели? Дай мне знать в комментариях!

Как увеличить ваш органический трафик на 15%

Bing и Yahoo по-прежнему занимает значительную долю рынка, о которой вы не должны забывать.

Когда мы говорим о поисковых системах, мы почти всегда имеем в виду Google. Когда мы говорим «SEO», можно с уверенностью предположить, что мы говорим об оптимизации Google. Отчасти это понятно: Google занимает около 80% рынка поиска для настольных компьютеров в США, так что справедливо, что Google какое-то время был в центре внимания большинства маркетологов.

А как насчет оставшейся части? 20% рынка поисковых систем также впечатляюще велики — определенно больше, чем то, что вы могли бы спокойно списать со счетов.Вот мои 5 основных причин, почему.

Это ОДНА поисковая система, на которую приходится ПЯТАЯ поисковая система на компьютере…

Вместе Bing и Yahoo составляют около 15% рынка поисковых систем для настольных компьютеров. Это означает, что каждый пятый поисковик будет использовать Yahoo или Bing вместо Google.

Но подождите, я сказал одна поисковая система ?

Уже много лет поиск Yahoo осуществляется с помощью Bing, а это означает, что по крайней мере 51% поисковых запросов Yahoo основывается на индексе и алгоритме ранжирования Bing.Если вы сами выполните несколько тестовых поисков, вы увидите, что результаты поиска в Yahoo и Bing очень похожи, а это значит, что оптимизация для Bing SEO будет работать и для Yahoo SEO.

Тем не менее, иногда вы можете увидеть небольшие расхождения между двумя результатами поиска. Это может происходить по ряду причин; Во-первых, Yahoo по-прежнему включает некоторые из своих собственных сервисов (например, Gemini Ad или платформу Yahoo Native Ads) для получения обычных результатов. Во-вторых, как и Google, поисковые системы Yahoo и Bing проводят множество тестов в режиме реального времени для поиска пользователей (и я имею в виду множество, например, для каждого другого поискового запроса, который вы делаете, вы проходите тот или иной тест).Наконец, данные, которые Yahoo получает от Bing, вероятно, не так актуальны, как результаты Bing в реальном времени. Скорее всего, здесь происходит следующее: когда Yahoo получает запрос, он возвращает последний ответ на этот запрос; в какой-то момент Yahoo запрашивает Bing, чтобы убедиться, что эти результаты актуальны. Если это не так, Yahoo соответствующим образом обновляет свои данные, поэтому в следующий раз, когда кто-либо запустит тот же поиск, будет возвращена самая свежая версия результатов. До тех пор, пока Bing не обновит свои результаты поиска снова, что приведет к рассинхронизации двух движков.(Если вся эта история взволновала вас без уважительной причины, я настоятельно рекомендую вам прочитать о возможной последовательности. Я обещаю, что это убийца.)

Но я отвлекся. Вышеупомянутое оставляет нам одну поисковую систему — Bing, которая обрабатывает ~ 15% всех поисковых запросов на компьютерах в США. Уже неплохо, да? Но потерпите меня — впереди еще кое-что.

Вы, вероятно, столкнетесь с более низкой конкуренцией.

Отличная причина для добавления Bing в свою стратегию SEO и сознательных усилий, чтобы не упускать из виду Bing, заключается в том, что меньше ваших конкурентов соперничают за позицию в рейтинге Bing.

В этом есть смысл. Поскольку большинство маркетологов стекаются в Google из-за большой доли поискового трафика, конкурентов в органическом рейтинге Bing становится меньше. А поскольку вы находитесь в прямой конкуренции с меньшим числом предприятий, у вас больше шансов получить более высокое место в результатах поиска и большую долю внимания и целевого веб-трафика на хорошо оптимизированных сайтах Bing, чем на Google.

Трафик Bing конвертируется лучше, чем у Google.

Возможно, трафик Bing обычно имеет более высокий коэффициент конверсии, чем трафик Google.Это наблюдение сделали многие маркетологи, в том числе и я. Вот скриншот из отчета Google Analytics для одного из наших сайтов:

Как видите, у поисковых систем Yahoo и Bing коэффициент конверсии составляет примерно 20%, а у Google — 16,5%. Я не совсем уверен, почему это так, но это может быть связано с тем фактом, что демографические Bing в среднем более зрелые по возрасту (по большей части 35+) и у них больше денег, чтобы тратить.

Прежде чем выносить суждение, убедитесь, что вы взглянули на свои собственные данные Google Analytics.

SEO для Bing намного проще, чем вы привыкли.

В отличие от Google, Bing на удивление открыто говорит о факторах ранжирования. Это также необычно для SEO и никогда не будет говорить что-то вроде «любые ссылки, предназначенные для управления рейтингом сайта в результатах поиска, могут рассматриваться как часть схемы ссылок и нарушение наших правил».

Наряду с рядом советов по SEO на странице с рекомендациями по оптимизации вашего сайта они объясняют:

«Составьте план, как строить внутренние и внешние ссылки.[…] Считайте, что социальные сети помогают создавать внешние ссылки, или просто спросите о них у веб-сайтов. […] Тщательно спланируйте, какие именно слова будут связаны — используйте целевые ключевые слова везде, где это возможно ».

Ага, это Bing советует создавать ссылки и оптимизировать якоря. Я настоятельно рекомендую ознакомиться с руководящими принципами поисковой оптимизации Bing, вы получите краткую информацию обо всех факторах ранжирования, предоставив исчерпывающее руководство прямо из уст лошади о том, как ранжироваться в Bing.

Теперь, когда мы поняли, что Bing определенно стоит вашего времени, давайте рассмотрим наиболее важные факторы ранжирования Bing и несколько советов по каждому из них.

Оборудование

Это руководство по Bing SEO содержит советы и инструменты, необходимые для оптимизации вашего сайта для поисковых систем Bing и Yahoo.


Помимо оригинального инструмента Bing для веб-мастеров, я буду использовать SEO PowerSuite вместе с его инструментом Bing SEO, чтобы проиллюстрировать каждый из шагов. Все перечисленные ниже функции доступны в бесплатной версии SEO PowerSuite.Для аудита и оптимизации сайта вы сможете работать с 33% своих страниц; для аудита обратных ссылок вы сможете проанализировать до 1100 ссылок. Для работы с неограниченным количеством страниц и обратных ссылок, а также для сохранения проектов вам понадобится лицензия Pro или Enterprise. Даже без лицензии вы все равно найдете его полезным SEO-анализатором Bing.

Скачать бесплатно Заказать лицензию

1. Индексация и техническое SEO

Как ясно заявляет Bing, «индексация — это первый шаг к развитию трафика от Bing».Итак, вы хотите, чтобы ваш сайт занимал место в результатах поиска Bing, и очевидный первый шаг — убедиться, что все важные страницы вашего сайта проиндексированы в Bing.

  • Убедитесь, что ваши страницы проиндексированы.

Продолжайте и проверьте это, выполнив поиск site: yoursite.com в Bing. Вы сразу увидите, сколько страниц вашего сайта проиндексировано.

«Сайт: доменное имя» покажет все страницы и ресурсы вашего сайта, проиндексированные Bing

Обычно поисковые системы коррелируют: если у вас нет проблем с индексацией в Google, вы обнаружите, что Bing также знает о большинстве ваших страниц.Однако, если ваш сайт новый, Bing может потребоваться некоторое время, чтобы найти и просканировать его. Чтобы ускорить процесс, отправьте свой сайт самостоятельно с помощью Bing Webmaster Tool.

  • Скажите боту Bing, чтобы он сканировал ваш сайт чаще.

Ага, послушает. В разделе Crawl Control в Bing Webmaster Tools вы можете установить скорость сканирования и время дня, когда вы хотите, чтобы ваш сайт сканировался. «Стандартная» скорость сканирования обычно довольно низкая, поэтому, если ваш сайт большой и / или часто обновляется, вы можете увеличить его до «полной громкости».

Но не просто карту сайта. По словам Дуэйна Форрестера из Bing:

«Ваши карты сайта должны быть чистыми. У нас есть 1% допуска на грязь в карте сайта. Примеры грязи: если мы нажимаем на URL и видим перенаправление, код 404 или 500. Если мы видим больше, чем Уровень грязи 1%, мы начинаем терять доверие к карте сайта ».

Так что убедитесь, что ваша карта сайта чистая и свежая (ознакомьтесь с инструкциями ниже, чтобы узнать, как это сделать быстро). Чтобы Bing мог найти вашу карту сайта, вы можете включить путь к ней в файл robots.txt или отправьте свою карту сайта в Bing напрямую через свою учетную запись в Инструментах для веб-мастеров — в разделе Sitemaps щелкните Отправить a Sitemap и введите расположение файла карты сайта, например http://www.yoursite.com /sitemap.xml. Любые ошибки, возникающие во время обработки вашей карты сайта, помогут диагностировать проблемы в файле, если таковые имеются.

Как к:

1. Запустите WebSite Auditor и создайте проект для своего сайта.

2. Переключитесь на модуль Pages , щелкните правой кнопкой мыши заголовок любого столбца, чтобы войти в режим редактирования рабочего пространства, и добавьте дату кэша в столбец Bing .

Здесь вы увидите, когда каждая из ваших страниц была кэширована поисковой системой Bing в последний раз. Обычно эта дата не должна быть более двух недель назад. Если для некоторых ваших страниц написано «не кэшировано», это, скорее всего, означает, что Bing не проиндексировал эти страницы. Проверьте файл robots.txt на предмет проблем, которые могли вызвать это, и обратитесь в Центр веб-мастеров Bing, чтобы узнать о возможных причинах.

3. Теперь давайте создадим чистую карту сайта. Еще в модуле Индексирование в поисковых системах просмотрите свой список страниц. Убедитесь, что все страницы, которые вы собираетесь включить в карту сайта, имеют код ответа 2xx в столбце HTTP Status Code .

4. Создайте карту сайта, нажав кнопку Sitemap . Выберите страницы, которые вы собираетесь включить в карту сайта; убедитесь, что в столбце Инструкции для роботов указано Разрешено для всех .При желании вы также можете настроить приоритет каждой страницы и частоту изменения. Когда вы закончите, нажмите Далее , чтобы сохранить карту сайта на свой компьютер или загрузить ее прямо на свой сайт.

Легко создайте карту сайта и отправьте ее поисковым системам.

Скачать SEO PowerSuite

2. Простые ключевые слова

С тех пор, как Google представил свой алгоритм поиска Hummingbird в 2012 году, мы все больше слышим о семантическом поиске и намерениях пользователей, а не о ключевых словах в старом смысле слова.В отличие от Google, Bing не играет в семантическую игру. Исследования показывают, что он не слишком хорош для запросов с широким соответствием, поэтому здесь лучше всего подойдет простой таргетинг по ключевым словам. Для хорошего ранжирования ключевых слов в Bing вам придется оставить за дверью все отдаленно похожие термины.

«Дословное соответствие ключевых слов гораздо важнее для трафика Bing».

Итак, если вы думали, что можете сидеть сложа руки и положиться на то, что Google расшифровывает значение ваших страниц и выясняет ключевые слова, по которым вы должны ранжироваться (чего вы действительно, действительно не должны делать в любом случае), это просто не сработает для поиска Bing. рейтинг двигателя.Это означает, что исследование ключевых слов станет одним из самых важных шагов в процессе оптимизации, если вы хотите получить хороший рейтинг Bing.

Как к:

Предложения ключевых слов в окне поиска Bing — отличное место для начала. (Помимо оптимизации для Bing, этот метод предложения ключевых слов также отлично подходит для SEO в целом, даже если вы оптимизируете для Google — он дает вам множество вариантов ключевых слов, которых нет в Планировщике ключевых слов и Google Autocomplete.Вы обнаружите, что те предложения, которые вы получаете, также обычно распространены в Google, если вы проверите их объем поиска в Google Рекламе.) Не говоря уже о том, что «связанные поисковые запросы» Bing могут унять много работы, SEO для Bing может быть стало намного проще благодаря использованию самой поисковой системы в качестве инструмента SEO.

1. В программе отслеживания Rank Tracker SEO PowerSuite создайте проект для своего сайта.

2. Перейдите в модуль Keyword Research и нажмите Autocomplete Tools .

3. Выберите Bing в качестве метода исследования, введите пару ключевых слов для поиска и нажмите Next .

4. Повторите процесс для запросов, связанных с Bing.

Ознакомьтесь с предложениями поиска Bing в модуле исследования ключевых слов

6. Когда вы закончите исследование, вы можете выбрать ключевые слова, на которые вы будете ориентироваться, и добавить их в модуль Целевые ключевые слова .Не стесняйтесь также включать другие ключевые слова, на которые вы нацеливаетесь, или те, по которым вы уже ранжируетесь в Google.

7. Менее Целевые ключевые слова> Отслеживание рейтинга, проверьте свой рейтинг Bing по только что добавленным ключевым словам (не волнуйтесь, чуть позже мы будем проверять рейтинги Bing и Yahoo одновременно). Эти начальные ранги будут вашей отправной точкой; Как только вы начнете вносить изменения в свой сайт, вы сможете четко увидеть, какое влияние оказывает каждое из них.

Примечание

Если у вас нет Bing в качестве системы пользовательского поиска в рабочей области, вы можете добавить ее в настройках проекта.Перейдите в «Настройки »> «Предпочитаемые поисковые системы » и добавьте поисковую систему Bing в свой список.

Затем нажмите кнопку в правом верхнем углу, чтобы отредактировать видимые столбцы и добавить функции ранжирования, которые вы хотите проверить на Bing. Теперь пойдите и проверьте свой органический рейтинг в Bing.

Теперь вы добавляете Bing в свою рабочую область со статистикой, которая вам нужна, наряду с другими поисковыми системами по вашему выбору.

Скачать SEO PowerSuite

3.Внутреннее SEO

С оптимизацией результатов поиска Bing, поисковая оптимизация на странице становится более старомодной. Я не имею в виду «старую школу» в смысле спама, а скорее, в более прямом смысле: «все делают-поисковые-и-у нас-все в порядке».

  • Оптимизируйте заголовки и описания.

Bing уделяет большое внимание тегу заголовка. Имейте в виду, что Bing часто выбирает заголовки для результатов поиска самостоятельно, вместо того, чтобы извлекать заголовок непосредственно из тега HTML.Собственный совет Bing по выбору нужного заголовка для отображения в поисковой выдаче:

1) Сделайте заголовок HTML релевантным запросам, которые будут использоваться для поиска на вашем сайте, без излишней длины или повторяемости. Избегайте общих названий, таких как «Дом» или «О нас».

2) Если вы встраиваете OpenGraph и т. Д., Убедитесь, что он соответствует желаемому заголовку и что все поля верны, например, что имя вашего сайта правильное.

3) Если ваш сайт указан в некоторых крупных хорошо известных каталогах, убедитесь, что запись верна.

4) Не блокируйте нашего краулера. См. Инструкции по управлению поисковым роботом, чтобы узнать, как управлять поисковым роботом, но имейте в виду, что вам не следует блокировать Bingbot, если вы хотите, чтобы ваш контент был проиндексирован.

  • Используйте мета-ключевые слова (осторожно).

Помните мета-ключевые слова? Думай усерднее. Я дам тебе минутку.

Теперь, когда вы вспомнили, убедитесь, что вы не забыли о них: хотя в некоторых официальных заявлениях Дуэйн Форрестер указывал, что мета-ключевые слова больше не работают, есть некоторые свидетельства того, что они действительно работают.

И если вы все еще настроены скептически, вот недавний пример из реальной жизни от Levy Online, цифрового агентства:

«К нам пришел клиент с хорошими рейтингами в Google, но с очень низким рейтингом ключевых слов в Yahoo и Bing. Одна из первых вещей, которые мы заметили, — это отсутствие мета-ключевых слов и описаний. Когда мы завершили их заполнение, мы увидели заметное увеличение поисковой выдачи «.

Вот некоторые из улучшений рейтинга, которые агентство сразу заметило:

Google Bing Yahoo
1 0 1 0 1 +100
1 0 3 +33 3 +98
2 -1 3 +54 3 +98
1 +1 4 +57 4 +97
2 -1 7 +2 7 +94
1 +1 7 +26 7 +94
1 0 8 +60 8 +93
1 0 11 +50 11 +90
16 -4 11 +90 11 +90
10 +3 13 +23 13 +88

Неплохо, если вы спросите меня.

  • Включите ключевые слова в заголовки и содержание.

Использование релевантных и хорошо написанных ключевых слов в заголовках также имеет большое значение для Bing, особенно в h2 и h3. Также неплохо включить в ваш контент целевые термины; чем ближе к началу, тем лучше.

Конечно, это не означает, что вы должны набивать свои страницы ключевыми словами (мы не хотим ломать ваши позиции в Google, помните?). Попробуйте вставить целевые термины в важные HTML-теги, но используйте близкие варианты вместо одной и той же поисковой фразы.Излишне говорить, что вам всегда нужно в первую очередь думать о пользователе. Это кажется очевидным, но иногда легко забыть, почему вы вообще хотите занимать высокие позиции в поисковых системах.

Поиск изображений Bing стал отличаться тем, что в результатах поиска изображений появляются потрясающие высококачественные изображения. Так что добавление уникальных визуальных эффектов в ваш контент в высоком разрешении, но, конечно, в удобном для Интернета формате, стоит усилий. Не забудьте добавить описательные альтернативные тексты с некоторыми ключевыми словами, так вы наверняка получите больше обычного трафика из результатов поиска изображений.

Как к:

1. В программе SEO PowerSuite Website Auditor создайте или откройте проект для своего сайта.

2. На панели мониторинга Site Audit проверьте раздел на странице , чтобы увидеть, не обнаружены ли какие-либо проблемы (например, дублирование или пустые метатеги) в ваших заголовках и описаниях. Если вы обнаружите проблему, нажмите на фактор проблемы, чтобы узнать подробности.

Проверьте на странице проблемы SEO, такие как метатеги, дубликаты, слишком длинный заголовок и т. Д.

Не забудьте обратить внимание на страницы, на которых нужно исправить заголовки и описания.

3. Переключитесь на модуль Content Analysis . Выберите страницу, которую вы собираетесь оптимизировать на шаге 1, введите целевые ключевые слова на шаге 2 и выберите поисковую систему Bing на шаге 3.

4. После завершения анализа взгляните на Ключевые слова в заголовке, Ключевые слова в метаописании, Ключевые слова в теге мета ключевых слов, Ключевые слова в h2 и т. Д., чтобы убедиться, что эти теги содержат ваши целевые ключевые слова. Щелкните один из этих факторов для более детального просмотра и переключайтесь между Competitors , чтобы получить вдохновение из 10 страниц с самым высоким рейтингом в Bing, и Рекомендацией для лучших практик SEO.

Вы можете сравнить ваши заголовки, оптимизацию метаописания с вашими конкурентами.

5. Теперь, когда вы знаете, что вам нужно улучшить, перейдите в Content Analysis> Content Editor. Не стесняйтесь редактировать содержимое своей страницы прямо здесь, во встроенном редакторе WYSIWYG. Там вы можете применить к заголовкам теги h2 — H6 и получить рекомендации по использованию ключевых слов в заголовках и теле текста.

Вставьте URL-адрес страницы, которую вы хотите проанализировать, выберите режим браузера или текстовый режим и перейдите к редактированию страницы и проверьте оценку оптимизации.

6. Перейдите на вкладку Заголовок и метатеги . Здесь вы можете ввести свои новые ключевые слова заголовка, описания и метатега прямо в, с предварительным просмотром фрагмента в реальном времени ниже.Не стесняйтесь попробовать несколько вариантов и посмотреть, как они будут выглядеть в поисковой выдаче.

7. Когда вы закончите оптимизацию своей страницы, нажмите Сохранить страницу , чтобы сохранить готовый к загрузке HTML-файл на жесткий диск.

Скачать SEO PowerSuite

4. Рейтинг кликов

Bing довольно открыто говорит о пользовательских сигналах, играющих большую роль в их алгоритме ранжирования, и о том, насколько они эффективны для повышения ранжирования. Поведение пользователей измеряется с точки зрения рейтинга кликов в поисковой выдаче и «прилипания» (когда кто-то выполняет поиск, нажимает на результат, а затем нажимает кнопку «Назад», чтобы вернуться к поисковой выдаче).

«Мы хотим увидеть, покажем ли мы ваш результат на первом месте, получит ли он щелчок и вернется ли пользователь к нам в разумные сроки или он вернется почти мгновенно?

«Они возвращаются и нажимают на №2, и каковы их действия с №2? Кажется, им больше нравится №2 по ряду факторов, или это был тот же сценарий, что и №1? нажать на что-нибудь еще?

«Мы наблюдаем за поведением пользователей, чтобы понять, какой результат, который мы показали, им показался наиболее актуальным по их мнению, и их мнение выражается их действиями.«

Очевидно, чем больше кликают по вашему результату и чем меньше поисковики возвращаются к поисковой выдаче с вашей страницы, тем лучше.

Как к:

1. Если вы уже ранжируетесь в Bing по некоторым ключевым словам, проверьте текущий CTR ваших фрагментов в Bing Webmaster Tools, чтобы определить те, на которых вам нужно сосредоточиться в первую очередь. Хотя значения CTR для разных позиций в поисковой выдаче могут варьироваться в зависимости от типа запроса, вы можете обратиться к этому исследованию Internet Marketing Ninjas, чтобы узнать о средних показателях кликабельности, которые помогут вам определить низко висящие плоды.

2. Есть их список? Откройте свой проект в WebSite Auditor .

3. Перейдите в Content Analysis> Content Editor и начните составлять заголовок и описание. Убедитесь, что они четко сообщают пользователям о ценности перехода на вашу страницу. Если уместно, используйте призыв к действию и вместо простого описания того, о чем ваша страница, обратитесь непосредственно к поисковику и проинформируйте его о преимуществах перехода на вашу страницу, выбора продукта и т. Д., а пока не забывайте о своих ключевых словах. Если вы выполняете платный поиск, рассмотрите возможность A / B-тестирования фрагментов ваших объявлений Bing и включения информации, полученной в результате этих тестов, в свои обычные списки.

4. Когда вы будете довольны своим фрагментом, нажмите кнопку Загрузить PDF или стрелку вниз, чтобы экспортировать готовый HTML-файл на свой жесткий диск.

Скачать SEO PowerSuite

5. Обратные ссылки

Обратные ссылки являются важным фактором ранжирования для каждой поисковой системы.Однако в Google мы наблюдаем снижение корреляции между количеством ссылок и рейтингом, а это означает, что вы часто будете сталкиваться с сайтами с меньшим количеством ссылок, которые имеют более высокий рейтинг, чем сайты с обширным ссылочным профилем. Google больше полагается на PageRank (ссылочный вес, проходящий через ваши обратные ссылки), поэтому несколько качественных ссылок с высоким PageRank дадут вам больший прирост, чем сотни ссылок с сайтов с низким рейтингом PageRank.

Однако качество связи

в Bing — это немного другая история. Исследование Searchmetrics показало, что количество обратных ссылок на Bing гораздо выше коррелирует с рейтингом (0.29).

Более того, от 52 до 53% обратных ссылок веб-сайтов, входящих в топ-30 результатов Bing, содержат ключевые слова в тексте привязки (что примерно на 10% больше, чем в Google).

Очевидно, увеличение размера вашего ссылочного профиля — чрезвычайно эффективная тактика поисковой оптимизации для Bing. Это может не дать вам такого же ускорения в поиске Google, но и не повредит (при условии, что вы не забываете любой ценой избегать спама и выбирать релевантные сайты для создания ссылок).

Что касается якорей, то их «чрезмерная» оптимизация может работать для Bing, но это также может стоить вам вашего рейтинга в Google.Понятно, что не существует универсально безопасного порога для разнообразия якорей: это зависит от вашей ниши и типа ключевых слов, на которые вы нацеливаетесь. Но вот кое-что, по крайней мере, чтобы дать вам очень приблизительное представление.

В ходе исследования эффектов Penguin, Microsite Masters проанализировали тысячи сайтов, чтобы выяснить, виноваты ли сайты, рейтинг которых упал после Penguin, в чрезмерной оптимизации своих якорей. Интересно, что оказалось, что сайты, которые попали в цель, имели целевое ключевое слово для якорного текста в более чем 65% обратных ссылок, в то время как сайты с ключевыми словами в 50% своих якорей или меньше «почти гарантированно» не подвергались воздействию Penguin.

Как к:

1. Мы будем использовать SEO SpyGlass в качестве еще одного эффективного анализатора SEO на следующих этапах. Сначала создайте проект для своего сайта. Я рекомендую оставить настройки по умолчанию в мастере создания проекта как есть.

2. Переключитесь на Сводка , чтобы просмотреть свой профиль связи. Обратите внимание на анкорный текст, его разнообразие и использование ключевых слов в анкорах. Сделайте заметки о типах якорей, которые вы хотели бы больше использовать для своих будущих ссылок.

Получите полную информацию о вашем профиле обратной ссылки.

3. Перейдите в модуль Сравнение доменов и укажите URL-адреса своих крупнейших конкурентов в результатах поиска Bing. Через мгновение вы увидите сравнительную таблицу с важной статистикой по ссылочным профилям сайта.

Взгляните на профили обратных ссылок ваших конкурентов.

4. Теперь переключитесь на субмодуль Link Intersection , чтобы увидеть домены, которые ссылаются на сайты конкурентов, но не ссылаются на вас.Это идеальное место для поиска лучших ссылок в вашей нише; в частности, ищите сайты, которые ссылаются на нескольких ваших конкурентов — они, скорее всего, также будут готовы разместить ссылку на вас на своих страницах. Вы можете пометить эти домены, чтобы с ними можно было связаться позже.

Проверьте пересечение ссылок, чтобы найти домены, ссылающиеся на всех ваших конкурентов.

5. Теперь все готово к строительству! Запустите LinkAssistant и создайте проект.

6. Щелкните Искать потенциальных клиентов , выберите метод поиска и введите ключевые слова, по которым вы хотите найти потенциальных клиентов.

Ищите больше потенциальных клиентов по типам статей / обратных ссылок, которые вы хотите.

Через несколько мгновений приложение найдет для вас от десятков до сотен ссылок, а также контактную информацию веб-мастеров для каждой из них.

7. Пришло время для разъяснительной работы. Вы можете связаться с несколькими веб-мастерами одновременно, используя встроенный почтовый клиент LinkAssistant и шаблоны писем.Просто выберите потенциальных клиентов, которые вы нашли, и нажмите кнопку Электронная почта (вам необходимо указать данные и настройки своей учетной записи электронной почты).

8. В правом верхнем углу окна электронной почты выберите шаблон в зависимости от типа ссылок, которые вы собираетесь создать. Вы сразу увидите сообщение электронной почты; помните, что он использует переменные, поэтому каждое электронное письмо будет содержать веб-сайт потенциального клиента и другие детали, так что даже если вы обратитесь к сотням веб-мастеров сразу, каждое электронное письмо по-прежнему будет личным.Если вам нужно отредактировать шаблон электронного письма или создать новый с нуля, просто нажмите кнопку с изображением шестеренки справа от имени шаблона.

Разошлите индивидуальные информационные письма.

Скачать SEO PowerSuite

6. Социальные сигналы

Было много споров о том, использует ли Google социальные сигналы для органического ранжирования. Бинг, напротив, не уклоняется от признания этого.

«Социальные сети играют важную роль в сегодняшних усилиях по повышению рейтинга в результатах поиска.Наиболее очевидная роль, которую он играет, — это влияние. Если вы влиятельны в обществе, это приводит к тому, что ваши подписчики широко распространяют вашу информацию, что, в свою очередь, приводит к тому, что Bing видит эти положительные сигналы. Эти положительные сигналы могут повлиять на ваше органическое ранжирование в долгосрочной перспективе ».

Как к:

1. Запустите WebSite Auditor и создайте или откройте свой проект.

2. Переключитесь на модуль Pages и перейдите на вкладку Популярность в социальных сетях .Здесь вы найдете количество репостов в социальных сетях для каждой страницы вашего сайта, включая репосты в Facebook, закладки Pinterest и т. Д.

Быстро проверять активность в социальных сетях

Посмотрите, какая из ваших страниц лучше всего работает в социальных сетях. Эти данные могут быть невероятно полезны для выбора ваших основных целевых страниц — те, которые имеют больше социальных сигналов, имеют больше шансов быстро подняться в Bing и Yahoo.

Загрузите SEO PowerSuite, лучший анализатор SEO, который нужно попробовать пользователям Bing.

Если вам интересно, как вы можете заработать больше этих социальных сигналов, я боюсь, что эта тема заслуживает отдельного полного руководства.Ваши первые шаги обязательно должны включать в себя отслеживание новых упоминаний ваших сообщений и страниц, знакомство с пользователями, которые взаимодействуют с вашим контентом, и проведение конкурентных исследований. Awario — отличный инструмент для выполнения всего вышеперечисленного.

Поскольку Bing занимает приличную долю рынка поисковых систем, у вас есть все основания серьезно относиться к поисковой системе Microsoft, и я действительно надеюсь, что это руководство по Bing SEO, по крайней мере, заложило основу для вашей стратегии Bing. Как всегда, я с нетерпением жду отличного обсуждения и ваших отзывов в комментариях ниже.

П.С. Случайный забавный факт: в отличие от Google, алгоритм Bing не использует скорость страницы в качестве фактора ранжирования. Они считают, что страница с временем загрузки 4 секунды может быть лучше, чем страница с временем загрузки 1 секунда, при условии, что первая содержит весь контент, который хочет искатель. По словам Дуэйна Форрестера из Bing, чрезмерное внимание к времени загрузки снижает удобство работы пользователей и часто побуждает веб-мастеров удалять полезные функции. Законный момент, если вы спросите меня.

Почему Google — лучшая поисковая система и почему вас это должно волновать

Впервые опубликовано 11 марта 2016 г.

Во-первых, я не поддерживаю Google, я не фанат.Однако я ценю некоторые продукты, которые они предлагают, и предлагаемые ими маркетинговые возможности. Я думаю, это удивительно, как они выросли за последние два десятилетия и стали гигантами, которыми они являются сейчас.

Не все, что делает Google, хорошо, и есть некоторые фундаментальные деловые и этические проблемы, в которых, я считаю, они перешли черту. Как видно здесь.

Если вы ищете поисковые системы, которые предлагают лучшую конфиденциальность или даже другие результаты поиска, я могу вам помочь. Я упомянул другие отличные альтернативы поисковым системам, которые стоит попробовать.

Этот пост — мое мнение о том, почему компании должны использовать Google и свои поисковые продукты, чтобы их можно было найти в Интернете.

Что такое лучшая поисковая система?

Большинство из нас даже не задумывается о выборе поисковой системы. Мы просто «погугли». Google — самая популярная поисковая система в США, и не зря. Они потратили целое состояние, пытаясь создать популярную поисковую систему, которая быстро предоставляла бы лучшие результаты поиска.

Как предприятию, работающему в эпоху цифровых технологий, вам важно понимать, как поисковые системы (в частности, Google) собирают и распространяют информацию, которую они находят во всемирной паутине.Мы все должны спросить: «Google — лучшая поисковая система?» Или есть альтернативная поисковая система, которая лучше?

На сентябрь 2018 года SparkToro подсчитал, что из всех основных онлайн-платформ, какую долю поискового рынка они имеют в США. Ниже приведены данные о рынке поисковых систем, которые они обнаружили.

Цифровые медиа только развиваются, и было бы разумно расти и развиваться вместе с лидером отрасли. Присоединяйтесь ко мне, и я рассмотрю причины, по которым люди предпочитают Google при поиске в Интернете.

Скромное начало: кто и когда

Компания Google была основана Сергеем Брином и Ларри Пейджем, когда они были еще студентами Стэнфордского университета. Google был диссертацией, над которой они работали над своей докторской диссертацией. программа. Согласно их тезису, Google (в то время известный как Backrub) отличался от других поисковых систем тем, что он фокусировался на отношениях между веб-сайтами (в первую очередь на ссылках). Сосредоточение внимания на ссылках было значительным изменением по сравнению с другими поисковыми системами, где подход к ранжированию информации основывался на том, как часто определенные поисковые запросы появлялись на страницах результатов поисковой системы (SERP).Эта концепция произвела революцию в том, как с тех пор будет работать онлайн-поиск.

Когда была основана компания Google?

Google был официально запущен в 1996 году и быстро заработал себе репутацию поисковой системы со странным названием. Компания получила первоначальный денежный поток от инвесторов, таких как Джефф Безос из Amazon, а также от других интернет-предпринимателей. В 2004 году компания Google официально стала публичной.

Что нужно, чтобы стать лучшим

Google может рассчитать релевантность сайта по количеству страниц и ссылок, указывающих на исходный сайт.Успех Google привел к тому, что он стал самой используемой поисковой системой на рынке США, обрабатывая более 3 миллиардов страниц в день.

Итак, что насчет других поисковых систем? Где они могут сравниться с Google с точки зрения доли поискового рынка? Stat Counter собирал данные с 2015 по 2018 год, которые выявили тот факт, что почти 90% всех поисковых запросов принадлежат объектам Google.

Данные счетчика статистики

Как видите, Google — явный фаворит с точки зрения использования, но почему? Что привело к тому, что Google стал предпочтительным выбором пользователей? Вот некоторые из причин, по которым мы считаем Google ведущей / крупнейшей поисковой системой.

Менталитет, ориентированный на пользователя: получайте то, что я хочу, прямо сейчас!

Считается, что успех компании Google обусловлен ее желанием и способностью обеспечивать более качественные результаты для каждого пользователя. Понимание цели поиска и поиск наиболее точных и релевантных веб-сайтов, соответствующих каждому запросу, позволили Google выделиться среди конкурентов. Удовлетворенность онлайн — важная часть их основной бизнес-модели.

Google обеспечивает простые и лучшие результаты. Если пользователям нравятся результаты поиска, которые они находят на основе поисковых запросов, то пользователь будет счастлив.Счастливые пользователи превращаются в постоянных пользователей. Постоянные пользователи становятся лояльными к платформе.

Развитие сильного доверия через лучшие результаты

Обеспечение более качественных и релевантных результатов позволило Google считаться надежным ресурсом для поиска информации в Интернете. В результате пользователи начали покидать MSN, Yahoo, Alta Vista и другие платформы, чтобы пользоваться поисковой системой, которая быстро предлагала релевантные результаты поиска.

Доверие Google продолжало расти на протяжении многих лет:

  • Постоянно обновляя свои алгоритмы поиска (технология и процесс сбора релевантной информации)
  • Ориентация на пользователя, его намерения и их удовлетворение

В результате вышесказанное, имя Google стало нарицательным, о котором все знают.Большинство людей не проживут и дня без поиска в Google хотя бы одной вещи.

Локальный поиск: соответствие поисковому запросу пользователя

Малые предприятия составляют основу экономики США, и Google воспользовался этой информацией. Они объединили возможности поиска с близостью и геотаргетингом для создания индивидуальных результатов для пользователей.

Локальный поиск открыл конкурентные условия для всех предприятий, поскольку их можно было найти по их продуктам или услугам в зависимости от того, как далеко они находились от пользователя.Google предоставил пользователям лучшие результаты, основанные как на намерении поиска, так и на географической близости того места, где на самом деле выполнялся поиск. Эти персонализированные результаты привели к тому, что Google стал основным средством локального поиска.

Выполнив это, Google сделал еще один шаг, объединив результаты локального поиска с платформой Google Maps. Это позволило пользователям перемещаться по местным предприятиям и исследовать их с помощью своих смартфонов. Благодаря этому Google был и остается в состоянии помочь пользователям ориентироваться в любом месте.

Постоянное тестирование и улучшение: алгоритмы и искусственный интеллект

Google постоянно тестирует свои результаты поиска, чтобы меняться и адаптироваться по мере изменения привычек пользователей.Алгоритм Google — это скрытый секрет, который постоянно разрабатывается с использованием человеческого анализа и машинного обучения. Как всегда, конечной целью является улучшение результатов поиска.

Многие оптимизаторы поисковых систем пытались обойти систему, чтобы обойти алгоритм Google и занять более высокое место в поисковой выдаче. Хотя это может сработать в краткосрочной перспективе, Google почти всегда ловит и наказывает веб-сайты, которые активно используют методы черной шляпы. Таким образом Google гарантирует, что результаты не будут искажены и пользователи будут доверять им в достижении наилучших результатов.

Создание лучшей поисковой системы видео

YouTube, принадлежащий Google, является еще одним основным средством поиска видео. Как и телевидение, онлайн-видео оказывают большее сенсорное воздействие на пользователей. Видео позволяет пользователям видеть и слышать, но, в отличие от телевидения, онлайн-видео более доступны и интерактивны.

По мере развития таких технологий, как Wi-Fi, камеры и мобильные устройства, возможности загрузки, скачивания и просмотра видео будут расти. По мере роста этой тенденции наличие поисковой системы, которая может точно находить и выдавать то, что ищут пользователи, среди огромного количества видеофайлов, станет необходимостью.В этом YouTube преуспел.

Создание поисковой машины изображений

Поисковая машина Google Images была создана из-за того, что подавляющее число пользователей ищут Дженнифер Лопес в платье Versace (еще в 2001 году). Поисковая система Google была не в состоянии удовлетворить весь спрос, и в результате они разработали систему поиска изображений. Вы можете прочитать об этом здесь.

Поиск изображений Google — это огромная библиотека, способная извлекать изображения из содержания.Более того, эти изображения релевантны на основе поискового запроса пользователя. Используя сложные алгоритмы, Google может находить, интерпретировать и назначать изображения на основе поисковых запросов.

Как предприятиям следует использовать возможности Google

Поскольку Google является доминирующей поисковой системой, обслуживающей миллиарды пользователей каждый день, имеет смысл только то, что компании используют эту платформу для охвата своей целевой аудитории. Никогда раньше не было возможности продавать так конкретно или глобально для аудитории, которую можно отслеживать и понимать.

Интернет постоянно растет, поскольку все больше и больше людей и предприятий создают веб-сайты. Google упростил Интернет, создав выдающуюся поисковую систему, которой доверяют. В бизнесе есть несколько вещей, которыми вы должны воспользоваться, даже если вы не маркетолог.

Рэнд Фишкин из SparkToro представил результаты, показывающие, где пользователи Интернета ищут больше всего. Данные ошеломляют, поскольку вы видите, насколько доминируют Google и его дочерние компании.

Применение передовых методов SEO

Хотя это хорошо, что у большего числа компаний есть веб-сайты, этого недостаточно.Тот факт, что у вас есть веб-сайт для вашего бизнеса, не означает, что пользователи смогут найти ваш веб-сайт. Google подробно рассказал о том, что делает веб-сайт качественным и как веб-сайты должны быть структурированы. Следование этим рекомендациям помогает Google лучше понимать информацию о вашей компании и ранжировать ее в поисковой выдаче. Вы можете ознакомиться с рекомендациями Google по обеспечению качества здесь.

Хотите, чтобы ваш бизнес поднялся в рейтинге? В Интернете есть масса контента, посвященного поисковой оптимизации и способам повышения рейтинга в Google.Мы даже написали нашу справедливую долю советов по SEO, таких как:

Каждый бизнес должен применять передовые методы SEO на своем веб-сайте. Это вложение, которое поможет Google направлять более качественный трафик в ваш бизнес.

Рассмотрите возможность использования Google Рекламы

Google позволяет компаниям размещать рекламу в своих поисковых системах. Однако не у всех есть маркетинговая команда, которая поможет внедрить передовые методы SEO. И хотя SEO может быть своевременным, он не дает мгновенных результатов. Здесь может пригодиться Google Реклама.Google Реклама позволяет компаниям быстро создавать текстовые объявления и публиковать их в партнерских сетях Google. В этих объявлениях используются ключевые слова (аналогичные SEO), которые привлекают потенциальных пользователей к соответствующим объявлениям и направляют их на вашу бизнес-страницу. Хотя это может быть дорогостоящим, если вы не ориентируетесь на намерения пользователя, этот метод действительно помогает быстро генерировать трафик на ваш сайт. Чтобы начать работу с Google Реклама, мы предлагаем руководство AdEspresso!

Ознакомьтесь с Google Analytics

Google Analytics — это бесплатный ресурс, предоставляемый Google, который позволяет вам просматривать данные о посетителях, которые приходят на ваш сайт.Это отличный инструмент для понимания тех областей вашего сайта, которые привлекают пользователей. Это также полезный инструмент, если вы создаете профиль своего идеального клиента. Вооружившись этой информацией, вы можете создавать лучший контент и оптимизировать свой сайт, чтобы он мог лучше ранжироваться. Хотя Google Analytics может быть ошеломляющим, существуют бесплатные ресурсы, которые помогут вам лучше познакомиться с программой. Вот некоторые из наших фаворитов:

Be Local, Think Local

Как упоминалось ранее, одним из самых больших успехов Google стала ориентация на локальный поиск.Это дало малым предприятиям шанс повысить рейтинг благодаря поиску на основе местоположения.

Как малый бизнес, теперь вы можете занять более высокое место по сравнению с национальными компаниями, имеющими больше ссылок и контента. Локальный поиск предоставляет огромные возможности, которыми должен воспользоваться каждый бизнес. Google предлагает бесплатные ресурсы, чтобы помочь местным компаниям повысить рейтинг в зависимости от их местоположения.

Например, поиск Местные подрядчики в Ланкастере покажут результаты для Ланкастера, штат Пенсильвания, а не Ланкастера, штат Калифорния (из-за моего местоположения).Один из предоставляемых инструментов — Google Мой бизнес. Компании могут просто добавить свою информацию, чтобы помочь Google направлять на свои сайты более релевантный трафик. Он также может помочь пользователям, которые ищут ваш физический адрес.

В дополнение к Google My Business мы предлагаем использовать Google Search Console. Это позволяет вам просматривать проблемы со здоровьем или проблемы, которые Google видит на вашем веб-сайте.

Мы предлагаем также использовать консоль поиска Google, которая позволит вам увидеть проблемы со здоровьем или проблемы, которые Google видит на вашем веб-сайте.

Убедитесь, что Google знает, что ваш бизнес существует

Google — отличная платформа, но даже они понимают, что не могут сканировать всю сеть. Однако вы должны быть уверены, что они смогут просканировать веб-сайт вашей компании, когда попадут на вашу территорию.

Понимая, что важно для Google, и применяя эти передовые методы, вы можете повысить рейтинг своего бизнеса. Зная, что Google заботится о предоставлении пользователям наиболее релевантного контента в Интернете, компании могут оптимизировать свои веб-сайты в зависимости от клиента, которого они хотят привлечь.Наградой является то, что Google будет отображать информацию об этих компаниях в результатах поиска.

На приведенной ниже диаграмме от SparkToro показана доля рынка Google. Очевидно, что если компании хотят охватить свою аудиторию, им нужно использовать Google (потому что именно там находится аудитория).

Лучшие поисковые системы, альтернативы Google

Хотя Google является самой большой и доминирующей поисковой системой, существует множество других платформ, которые созданы для удовлетворения различных потребностей пользователей.Вот лучшие альтернативы поисковой системе!

Лучшая поисковая система для обеспечения конфиденциальности

DuckDuckGo

Известная как «поисковая система, которая не отслеживает вас», DuckDuckGo — это поисковая система, которая фокусируется на защите конфиденциальности пользователей и предотвращении персонализированных результатов поиска, основанных на профилирование и история пользователей.

Если вы ищете большую конфиденциальность в Интернете, это лучшая поисковая система. Однако, поскольку вас не будут отслеживать, вы также, вероятно, увидите рекламу, которая вам не интересна.Также возможно, что по запросам вы получите более низкое качество результатов поиска.

В феврале 2019 года у DuckDuckGo было в среднем 35 миллионов запросов в день.

Лучшие поисковые системы, альтернативные Google в США

Bing

Bing принадлежит Microsoft и является второй по величине поисковой системой, не принадлежащей Google, после всех других ресурсов Google в США.

Yahoo !

Помните этих парней? Еще в середине-начале 90-х Yahoo была самой популярной поисковой системой.Уже нет. Хотя Yahoo! действительно предоставляет результаты поиска, они основаны на движке Bing.

Yahoo! Перешел от поисковой системы к предоставлению веб-сервисов, таких как почта, форумы для ответов и финансовые активы.

Лучшие поисковые системы, альтернативные Google в мире

Baidu

Baidu — это поисковая система, которая преимущественно используется в азиатских странах. Baidu признана второй по величине поисковой системой в мире (после Google).

Яндекс

Яндекс — российский поставщик поисковых систем, который в основном используется в России и других странах Восточной Европы. Он признан пятой по величине поисковой системой после Bing и Yahoo!

Когда дело доходит до оптимизации веб-сайтов с использованием передовых методов SEO, мы — ваш универсальный магазин! Свяжитесь с нашими специалистами по поисковой оптимизации сегодня, чтобы мы могли повысить рейтинг вашего сайта в поисковой выдаче Google.

Противоречие Яндекс.Новости в России




В России с 2011 года Яндекс.Агрегатор новостей (Яндекс.Новости) — российский аналог Google News — подозревался в политической предвзятости в контексте протестов против фальсификации результатов выборов, за которыми последовал украинский кризис. В этой статье сначала описываются проблемы, связанные с автоматизированными системами рекомендаций новостей, их ролью как «алгоритмических привратников», а также вопросы, которые они поднимают с точки зрения разнообразия новостей и возможных манипуляций. Затем анализируется разногласие, возникшее вокруг Яндекс.Новостей, особенно с тех пор, как власти решили регулировать его деятельность с помощью закона, принятого в 2016 году.Наконец, он обеспечивает аудит агрегации Яндекс.Новостей в 2020 году путем количественного анализа своей базы источников и результатов пятерки лучших, представленных на главной странице Яндекса. Он показывает несоответствие разнообразия российской онлайн-медиасферы и узости выборки СМИ Яндекс.Новости. Это исследование вносит свой вклад в социологию цифровых платформ и изучение «управления с помощью алгоритмов», показывая, что агрегатор новостей Яндекса является ключевым активом в общей дисциплине правительства России в отношении средств массовой информации и цифровой публичной сферы в постоянных усилиях по утверждению «Цифровой суверенитет».

Содержание

Введение
1. Алгоритмическое управление воротами в экосистемах цифровых медиа: контекст и проблемы
2. Яндекс.Новости как политическая полемика: определение «правильной» агрегации новостей
3. Рейтинги Яндекса как ворота к алгоритму и его преобразованиям
Заключение


Введение

Россия — одна из немногих стран мира, где Google не доминирует в индустрии онлайн-поиска.В 2020 году русскоязычный аналог «Яндекс» занимал чуть менее половины доли рынка (около 45%) [1]. Яндекс уже давно пользуется определенной степенью автономии, а его основатели в разные моменты даже выражали политическое несогласие с Кремлем. Однако как защитник национальной экономики и ключевой игрок в организации информации она находилась под пристальным вниманием. Это особенно актуально после протестов 2011–2012 годов против фальсификации выборов и аннексии Крыма в 2014 году, которые также стали поворотными моментами для России из-за усиления контроля над СМИ, Интернетом и гражданским обществом (Oates, 2013; Soldatov и Бороган, 2015; Wijermars, Lehtisaari, 2020).

Речь идет об агрегаторе Яндекс.Новости («Яндекс.Новости») — российском эквиваленте Google News, запущенном в 2004 году — которому и посвящена данная статья. Когда они впервые появились, поисковые машины и системы рекомендаций, такие как агрегаторы, были разработаны как инструменты, которые сделали бы разнообразие контента в сети более управляемым. Однако, как показали обширные исследования, эти платформы занимают стратегическое место и стали ключевыми посредниками в передаче информации конечным пользователям граждан.Таким образом, они обладают властью в формировании восприятия социальной реальности, которую ученые, политики и гражданское общество все еще находятся в процессе точного определения. В качестве вклада в эти усилия мы хотели бы сместить перспективу в сторону менее изученного российского контекста. Наше исследование показывает, как российские власти пытались, как прямо, так и косвенно, дисциплинировать систему рекомендаций по новостям, предоставляемую Яндексом, в рамках более широких усилий по установлению контроля над распространением информации.

Сначала мы представляем роль и обязанности агрегаторов новостей в экосистемах цифровых медиа. Опираясь на более знакомую модель Новостей Google, мы разъясняем проблемы, возникающие при автоматических рекомендациях новостей, как часть более широкого набора вопросов, касающихся роли поисковых систем и платформ социальных сетей в обеспечении разнообразия средств массовой информации (Helberger, 2019) и в формировании публичной сферы посредством «алгоритмического контроля доступа» (Napoli, 2014; Nechushtai and Lewis, 2019). Алгоритмы часто критикуют за их непрозрачность и неподотчетность (Pasquale, 2015; Saurwein, et al., 2015), и, несмотря на давние заявления о нейтралитете со стороны этих субъектов, теперь становится все более очевидным, что вопросы, связанные с курированием новостей, не являются чисто техническими или коммерческими.

Затем мы проводим критический анализ платформы Яндекс.Новости и ее алгоритма (Kitchin, 2017; Seaver, 2019), который опирается на два разных типа доказательств: анализ противоречий и аудит алгоритмов.

Во второй части мы представляем политические разногласия, спровоцированные Яндексом.Новости 2010-х гг. Опираясь на социальные исследования науки и технологий (СТС), мы рассматриваем споры, связанные с социотехническими системами, как привилегированный путь исследования (Latour, 2005; Marres, 2007). Мы смотрим на внимание, привлеченное агрегатором, и возражения, выдвинутые политиками и конечными пользователями, уделяя особое внимание авариям, нарушениям и предполагаемым сбоям в работе; они представляют собой ключевые моменты для понимания роли этого алгоритмического «черного ящика» как оспариваемого производителя смысла (Bucher, 2016).В 2016 году законы, направленные на агрегаторов новостей, вынудили Яндекс ограничить результаты, отображаемые на своей новостной странице, официально зарегистрированными СМИ (Daucé, 2017). Опираясь на интервью с нынешними и бывшими членами компании Яндекс, со специалистами по поисковой оптимизации (SEO), а также с российскими журналистами и редакторами, столкнувшимися с платформой, мы показываем, что существуют три конкурирующих интерпретации того, что составляет «правильные» результаты агрегирования. Первый защищается самим Яндексом как «объективный» результат работы его алгоритмов.Другой — критика со стороны властей, для которых Яндекс.Новости могут продвигать «непатриотичные», «фейковые» или иным образом проблемные новости. Последний выдвигается журналистами, редакторами и специалистами по поисковой оптимизации, которые полагаются на свое понимание того, что можно считать «заслуживающим внимания», чтобы критиковать платформу.

В третьей части, чтобы протестировать сам алгоритм, мы сравниваем огромную базу данных партнеров Яндекс.Новости с рейтингом новостей, предоставленным алгоритмом для топ-5 новостей, представленных на главной странице Яндекса [2].Мы показываем несоответствие между разнообразием российской онлайн-медиасферы в базе данных и узостью выборки СМИ, представленной рейтингом Яндекс.Новостей в 2020 году, в которой исключительно доминирует небольшая группа из 14 СМИ (новостные агентства, финансируемые государством). СМИ и частные издания, «лояльные» правительству). Затем мы сравниваем узость результатов агрегатора с разнообразием контента, циркулирующего в социальных сетях. Этот контраст предполагает существование двух онлайн-медиа-сфер: в первой преобладают «зарегистрированные» медиа, агрегированные Яндексом.Новости, а второй — в социальных сетях, где «альтернативные» медиаисточники могут занять место.

Это исследование представляет собой тематическое исследование «управления с помощью алгоритмов» (Musiani, 2013; Just and Latzer, 2017; см. Также Gillespie, 2018) и помогает понять, как системы рекомендаций новостей могут быть подвержены определенным предубеждениям (Kulshrestha, et al. al., 2019; Trielli and Diakopoulos, 2019) или могут быть подвержены тонкой политической фильтрации (Jiang, 2014). Случай с «Яндексом» также дает представление об особенностях российской интернет-политики как утверждения «цифрового суверенитета» (Nocetti, 2015; Musiani, et al., 2019). Он раскрывает новые «кодексы поведения», включающие как компьютерный код, так и юридический кодекс (Lessig, 1999), которые могут быть установлены в сетевой публичной сфере в современных обществах. Это свидетельствует как о стратегическом характере поисковых платформ и алгоритмов сегодня (Pasquale, 2015), так и о способах, с помощью которых российское правительство все больше стремится утвердить свое господство над управлением Интернетом, понимаемым как измерение «информационной безопасности» (Maréchal, 2017). , демонстрируя, как информационные инфраструктуры могут контролироваться, чтобы косвенно регулировать онлайн-речь (Sivetc, 2019).

1. Алгоритмическое управление воротами в экосистемах цифровых медиа: контекст и проблемы

1.1. Автоматизированные рекомендательные системы новостей, разнообразие новостей и формирование публичной сферы

Агрегатор Яндекс.Новостей можно охарактеризовать как автоматизированную рекомендательную систему . Наиболее известным примером такой службы является агрегатор новостей Google, который был впервые запущен в 2002 году и выведен из стадии бета-тестирования в 2006 году [3].Первоначально сервис был нацелен на предоставление широкого обзора актуальных новостей путем предоставления пользователю «кластеров» связанных статей. Постепенно были разработаны версии для других языков и стран, и были добавлены такие функции, как оповещения по электронной почте, персонализация и рекомендации новостей. В 2021 году служба проиндексирует десятки тысяч новостных веб-сайтов по всему миру и будет интегрирована с основной поисковой службой.

Системы рекомендаций

существуют с первых дней Интернета и охватывают широкий спектр различных приложений, от покупок и электронной коммерции до музыки, фильмов и новостей (Jannach, et al., 2011; Ricci, et al. , 2015). Они включают автоматическую фильтрацию, которая может полагаться на различные параметры, но обычно опирается на действия пользователей (обратные ссылки, клики, поиски, выбор, предпочтения и т. Д.), Чтобы приблизить выбор соответствующей информации, которая может быть интересна этому же пользователю или другим пользователям. . Системы рекомендаций по новостям полагаются на различные методы, которые могут быть основаны в первую очередь на анализе самого контента (характера публикаций, включая, например, их «свежесть»), на активности, которую он генерирует (рейтинг кликов, показатели вовлеченности в социальных сетях). СМИ, такие как лайки, репосты и т. д.), о формах «совместной фильтрации» и паттернах интересов в данном сообществе или о предпочтениях пользователей — последний случай включает персонализацию агрегированных новостей на основе собранных поведенческих данных, которые могут определяться самостоятельно или предполагаться ( Карими, и др. , 2018). Как правило, рекомендательные системы новостей комбинируют эти подходы в различной степени, в зависимости от того, можно ли легко отследить пользователя (, например, , вошел в систему или иным образом идентифицирован как уникальный пользователь).

Помимо оценки релевантности и продвижения контента, к которому другие проявили интерес, или контента, аналогичного предыдущим интересам, рекомендация новостей также требует предоставления качественной выборки . Этот параметр сложнее определить, поскольку он включает в себя выборку элементов, которые могут быть вне зоны прямой видимости или внимания пользователей. Один из ключевых показателей качества основан на разнообразии новостей, которые может предоставить агрегатор.Такой критерий можно оценить с точки зрения удовлетворенности пользователей; однако он также включает в себя гораздо более широкое обсуждение роли и ответственности СМИ как центрального института демократии, который, как ожидается, будет адекватно информировать граждан, а также предоставит разнообразный общественный форум для обсуждения идей и мнений (Helberger, 2019). Более того, ключевые параметры этого разнообразия включают такие аспекты, как множественность охватываемых тем, а также разнообразие редакционной политики, идеологических точек зрения, жанров повествования и т. Д.(Helberger, и др. , 2018). Еще одна проблема, связанная с этим, заключается в том, могут ли автоматизированные рекомендательные системы смещать в отношении определенных типов контента, недостаточно отражая их в результатах (Kulshrestha, et al. , 2019). Действительно, общая картина может показаться разнообразной, но ключевые вопросы могут быть упущены (, например, , крупный коррупционный скандал), некоторые темы могут иметь сравнительно меньший вес (, например, , политика или спорт), или их редакционная обработка может преуменьшить их значение. важность ( e.грамм. , сосредоточив внимание на менее важных, но более интересных аспектах).

С самого начала «политика поисковых систем» была представлена ​​как решающий вопрос, имеющий решающие последствия для формирования публичной сферы (Introna and Nissenbaum, 2000). Агрегаторы новостей, которые обеспечивают видимость «автоматически» выбранных новостных сообщений, также стали объектом пристального внимания из-за их все более центральной роли и растущей силы, которую они используют в медиа-экосистемах. В настоящее время существует множество различных каналов распространения новостей, включая поисковые системы и агрегаторы новостей, а также социальные сети.В результате издатели становятся все более зависимыми от цифровых платформ (Nielsen and Ganter, 2018). Все такие цифровые посредники, по сути, сами становятся привратниками вместе с журналистами (Napoli, 2014), часто используя поведение пользователей для формирования общей картины «курируемых потоков» информации (Thorson and Wells, 2016, 2015).

Google, а также Яндекс, в целом представляли свои сервисы как «нейтральные», но такие претензии на объективность подвергались критике по разным причинам.В течение последнего десятилетия из-за их все более мощных функций персонализации некоторые из основных веб-сервисов и особенно поисковые системы Google подозревались в улавливании пользователей «пузырями фильтров» и «эхо-камерами» (Pariser, 2011; Bozdag, 2013). Из-за того, что пользователи не обращают внимания на определенные типы информации или альтернативные точки зрения, а иногда и на усиление существующих предубеждений или предубеждений, эти услуги оказываются в процессе подрыва общественной сферы. Алгоритмы поиска и автоматизированные системы рекомендаций также подвергались критике за продвижение теорий возмущения и заговора, например, алгоритм рекомендаций YouTube был представлен как «великий радикализатор» [4].Однако реальность этих явлений трудно точно оценить (Flaxman, et al. , 2016; Bruns, 2019), особенно для поисковых систем (которые, как было даже показано, увеличивают информационное разнообразие, см. Fletcher and Nielsen, 2018). . В случае с Новостями Google даже функции персонализации не уменьшают разнообразия новостей (Haim, et al. , 2018). Однако, хотя отдельных пузырей фильтров может быть трудно эмпирически оценить, «алгоритмическое курирование новостей по-прежнему вызывает беспокойство по поводу разнообразия источников, поскольку оно может сконцентрировать внимание общества на узком диапазоне привилегированных каналов.»[5].

1.2. Обучаете алгоритм управления новостями?

Прежде чем более внимательно присмотреться к Яндекс.Новостям, стоит отметить, что отношения новостных агентств с Google News были сложными. Агрегаторы новостей обеспечивают видимость новостного контента в обмен на доступ к публикациям, и хотя Новости Google являются поставщиком трафика (Calzada and Gil, 2020), они также могут восприниматься как самостоятельные средства массовой информации, извлекающие выгоду из контента (заголовки и «Фрагменты» текста), предоставленные СМИ [6].Помимо этих проблем с авторским правом и бизнес-моделью, агрегаторы новостей влияют на публикацию самой новости: контент должен соответствовать критериям, оцениваемым их алгоритмами с точки зрения релевантности, «свежести», частоты обновлений, метаданных, обратных ссылок, удобства для мобильных устройств и т. Д. Редакторы развертывать стратегии поисковой оптимизации (SEO), чтобы гарантировать, что на их контент эффективно ссылаются и продвигают, постоянно отслеживая аналитику аудитории, чтобы понять, что «работает», а что нет, какие истории пользуются популярностью, а другие — нет.В зависимости от того, насколько сильно новостной веб-сайт полагается на него для трафика (и, следовательно, для доходов от рекламы), ему необходимо будет адаптировать свой контент и адаптировать свои стратегии публикации, чтобы его «подхватили» платформы, что напрямую влияет на работу. журналистов и общепринятые представления о «ценности новостей» или «примечательности» (Boyer, 2013; Belair-Gagnon and Holton, 2018; Diakopoulos, 2019a).

Алгоритмы, развернутые на этих платформах, могут поэтому восприниматься как «невидимая рука», решающая, какие темы будут выделены как актуальные, а какие новостные агентства будут выдвигаться на первый план в соответствии с иногда непостижимыми критериями, что сильно влияет на природу самой журналистики в процесс, поскольку профессионалы корректируют форму и характер публикуемого контента, чтобы удовлетворить эти ограничения (Brake, 2017; Christin, 2020).Роль, которую играют алгоритмы в сортировке новостей, управлении видимостью и внимании, постановке вопросов и постановке повестки дня, все чаще подвергается сомнению, особенно с учетом того, что

«Алгоритмы отслеживания тенденций могут отражать то, что популярно, одновременно повышая осведомленность среди еще более широкого круга людей, по сути, помогая привлечь внимание заинтересованной общественности к проблеме. С другой стороны, вопросы могут возникнуть, когда новостная лента не уведомляет своих пользователей о важных гражданских беспорядках, продолжая развлекать и отвлекать внимание на популярные события.»[7]

Влияние поисковых систем на выбор и предпочтения пользователей может иметь далеко идущие последствия, а в серии контролируемых экспериментов было даже показано, что они могут повлиять на неопределившихся избирателей (Epstein and Robertson, 2015).

Учитывая его центральную роль в распространении новостей сегодня, Google регулярно подозревают в том, что он обеспечивает доступ к незаконным источникам (, например, , спорная имидж-доска 4chan после стрельбы в Лас-Вегасе в 2017 году) [8] или в политической предвзятости некоторых типов («левых») источников новостей (Diakopoulos, 2019b).Также утверждалось, что трафик, указанный поисковыми системами, по-видимому, приносит пользу в основном небольшому количеству уже хорошо заметных национальных новостных провайдеров, тем самым укрепляя уже существующие иерархии СМИ и подрывая претензии на больший плюрализм (Hindman, 2018, 2008; Hong and Kim, 2018). Это также может относиться к агрегации новостей: недавно было показано, что для Новостей Google только пять новостных организаций составляют почти половину всех рекомендованных новостей, а устаревшие СМИ преобладают в рекомендациях (Nechushtai and Lewis, 2019; см. Также Bui, 2010 ).

В российском политическом контексте вопрос, поднятый агрегатором Яндекс.Новостей, стоит еще более остро: можно ли им манипулировать по политическим причинам — либо путем прямого вмешательства в результаты, либо путем обмана его алгоритма? Или его можно было бы дисциплинировать с помощью нормативных ограничений для достижения аналогичных результатов? Решение этих вопросов включает в себя оценку не только того, достаточно ли разнообразен доступный объем информации, но и того, могут ли некоторые новости, которые считаются важными для широкой публики, при определенных обстоятельствах намеренно не допускаются к широкому распространению через агрегатор.На практике эта цель могла бы быть достигнута, если бы автоматически «рекомендуемые» новости поступали только из контролируемых источников.

2. Яндекс.Новости как политическая полемика: определение «правильной» новостной агрегации

Яндекс.Новости с 2014 года специально подвергались различным политическим и юридическим инициативам. Таким образом, мы предлагаем обзор новых нормативных актов и их обсуждение в прессе. Более того, подозрения в отношении сервиса усугублялись наблюдениями журналистов и пользователей, которые во время конкретных событий обнаружили несоответствие между их общим представлением о том, что считается новостью, и автоматическим выбором, предоставленным Яндексом.Поэтому мы также приводим примеры того, что считалось подозрительной деятельностью, как на основе опубликованных журналистских расследований, так и на основе полунаправленных интервью, которые мы провели с ключевыми участниками, такими как журналисты, редакторы, специалисты по поисковой оптимизации и бывшие сотрудники Яндекса. Полемика заставляет некоторых из них разрабатывать стратегии обхода платформы.

2.1. Яндекс.Новости в российском контексте

Яндекс (сокращение от Another iNDEX) — это имя, данное Аркадием Воложом и Ильей Сегаловичем технологиям полнотекстового поиска, поддерживающим русский язык, которые они разработали в Comptek International.Поисковая система Yandex.ru была запущена в 1997 году — примерно в то же время, что и Google, но в совершенно другом экономическом контексте — а в следующем году была добавлена ​​контекстная реклама. Тем не менее, Россия — одна из немногих стран, где поиск не является монополистом Google, где Яндекс владеет более 45%, что делает его признанным национальным чемпионом российской цифровой экономики. В 2000 году Яндекс стал независимой компанией, и теперь это частная глобализированная компания, зарегистрированная в Нидерландах.Она котируется на NASDAQ с 2011 года. Это крупнейшая технологическая компания России, и ее выручка за пять лет выросла более чем в три раза — с 60 миллиардов рублей в 2015 году до 218 миллиардов рублей в 2020 году [9].

По словам журналистов в 2017 году: «На первый взгляд« Яндекс »и Кремль действительно представляют собой две разные России, но практически не пересекаются» [10]. Сооснователь Яндекса Илья Сегалович и некоторые его коллеги активно участвовали в акциях протеста против результатов выборов в конце 2011 и 2012 годов.Однако с тех пор российское правительство усилило давление на компанию (Oates, 2013). Яндекс считается ключевым национальным активом, обеспечивающим определенную независимость от иностранных (особенно американских) веб-компаний. Его деятельность сдерживается политическими, правовыми, техническими и экономическими средствами (Vendil Pallin, 2017). В 2009 году владельцы «Яндекса» продали «золотую акцию» (приоритетную акцию) Сбербанку, контролируемому государством российскому сберегательному банку, предоставив правительству де-факто права вето по стратегическим вопросам.Однако расходящиеся стратегии недавно привели к передаче этой «золотой акции» недавно созданному Фонду общественных интересов — реструктуризация его управления призвана успокоить как инвесторов, так и Кремль: этот шаг гарантировал, что Яндекс не попадет под иностранный контроль, при этом позволяя ему работать на мировых рынках [11].

Несмотря на критику, определенная лояльность по отношению к государству также принесла компании определенные преимущества. Например, Яндекс выиграл антимонопольный конфликт с Google и, как ожидается, получит выгоду от нового российского закона, согласно которому предварительная установка российского программного обеспечения на смартфоны является обязательной [12].Согласно этому закону, Google не будет разрешено предварительно устанавливать свои приложения на телефоны Android, что дает «Яндексу» возможность разрабатывать свои продукты.

Помимо своей поисковой системы в Интернете, Яндекс разработал множество других сервисов, таких как интернет-портал или сервис электронной почты, а также более специфические предприятия, такие как Яндекс.Такси (служба такси, которая объединилась с Uber в 2017 году). , Яндекс.Карты (карты и геолокация), Яндекс.Музыка (стриминг музыки) или Яндекс.Еда (доставка еды). Среди них Яндекс.Новости или Яндекс.Новости, агрегатор новостей, которому мы посвящены.

Яндекс.Новости представляют собой подборку тем и статей, которые призваны отразить темы, наиболее широко освещаемые в СМИ в данный момент. Для этого он обрабатывает информацию, публикуемую рядом (в основном российских) онлайн-СМИ. Яндекс.Новости были запущены в 2004 году и первоначально были пилотным проектом, возглавляемым группой компьютерных ученых и лингвистов, которых наняли для разработки распознавания именованных сущностей и извлечения из новостей [13].Команда Яндекс.Новостей утверждает, что алгоритм работает без вмешательства человека. Новости от партнеров собираются по темам в процессе кластеризации алгоритмов. Робот анализирует ключевые слова и факты и группирует их по темам, используя три основных критерия: цитируемость, новизну и информативность [14].

Лев Гершензон, бывший руководитель службы, окончил кафедру теоретической и компьютерной лингвистики Московского университета социальных наук (РГГУ).Он присоединился к команде разработчиков Яндекс.Новостей в 2004 году, когда в Яндексе работало всего около 200 человек. На тот момент Google News уже существовали, но, по словам Гершензона, «в Яндексе мы были сильнее и привлекательнее для пользователей. Поэтому мы разместили пятерку лучших на главной странице, а Google никогда этого не делал »[15]. Действительно, одним из ключевых аспектов обсуждения Яндекс.Новостей является то, что топ-5 его агрегированных результатов постоянно отображается на русскоязычной версии главной страницы Яндекса, прямо над окном поиска, что обеспечивает этой небольшой подборке новостей массовую ежедневную аудиторию. и привлечение значительного трафика к избранным публикациям (см. рис. 1).

Рисунок 1: Верх главной страницы Яндекс, скриншот, 11 марта 2021 года.

Хотя Google, например, также предоставляет выбор «Главных новостей» в своей поисковой системе, они относятся к конкретным поисковым запросам и появляются вместе с остальными результатами только после ввода запроса. Поэтому топ-5 особенно важен для понимания того, как Яндекс как платформа функционирует как система рекомендаций по новостям.В 2017 году, по словам технического директора Яндекса Григория Бакунова, «Ежедневная аудитория пяти новостей, которые появляются на главной странице Яндекса, такая же, как и у домашней страницы — примерно 20 миллионов человек, в зависимости от дня. Ежедневно страницу Яндекс.Новостей посещают шесть миллионов »[16].

2.2. Правовые ограничения: кураторство новостей при доминировании

Споры, возникшие после 2012 года, положили конец убеждению в объективности агрегатора. 2012 год стал решающим годом для свободы слова в России и «переломным моментом» в регулировании Интернета (Lonkila, et al., 2020). В течение десяти лет публичная сфера казалась процветающей и оставалась относительно свободной, особенно онлайн. Кульминацией этого стал резкий всплеск противостояния после всеобщих выборов 2011 года, на которых были зафиксированы массовые фальсификации. Волна протестов, которая также последовала за арабской весной, вызвала резкую реакцию властей, которые начали постепенное ужесточение правил, регулирующих публичное выражение мнений (Денисова, 2017).

Одной из наиболее значительных мер было введение в соответствии с законом в 2012 году черного списка цензурированных веб-сайтов, к которым теперь требовалось предотвращать доступ к которым интернет-провайдеры [17].Первоначально он был нацелен на детскую порнографию, информацию, связанную с производством и распространением наркотиков, а также на информацию, поощряющую самоубийства. Однако понятие «запрещенная информация» было расширено до «подстрекательства к незаконным действиям» или «пропаганды экстремизма», а в 2014 году использовалось для блокировки оппозиционных веб-сайтов, таких как Grani.ru, Kasparov.ru или блог лидера оппозиции в Livejournal. Алексей Навальный. Список управляется и регулярно обновляется Роскомнадзором, органом по надзору за коммуникациями и СМИ, который также выдает лицензии средствам массовой информации в России.Более того, поисковые системы больше не могли ссылаться на эти веб-сайты. Поэтому Яндекс был вынужден удалить их из результатов поиска.

Контроль над публичной сферой снова усилился в 2014 году, во время конфликта с Украиной и оккупации Крыма. Особые взгляды подвергались тщательной проверке в контексте сильной патриотической риторики. Власти начали кампании в СМИ с участием как государственных средств массовой информации, так и уже печально известной «армии троллей», чтобы поддержать пророссийские мнения и подорвать доверие к любым проукраинским голосам (Fedor, 2015; Mejias and Vokuev, 2017).В то время — в глобальном контексте, который включал в себя разоблачения Сноудена о слежке за Интернетом американскими спецслужбами — Путин заявил, что Яндекс начинался как проект под влиянием Запада, и что Интернет в целом был «особым проектом ЦРУ». .

Яндекс.Новости, в частности, оказались в центре политической полемики после того, как власти обвинили их в пристрастности к информации, которая не соответствовала официальной версии.Сайт «Правда.ру» поинтересовался, а «Яндекс зажигает« Майдан »в России?» (имеется в виду протесты в Киеве, которые привели к смене режима в Украине) [18]. Газета возмутилась выбранными агрегатором новостей заголовками и утверждала, что ее деятельность необходимо законодательно регулировать. В мае 2014 года пресс-секретарь Путина Дмитрий Песков заявил, что Яндекс.Новости должны быть зарегистрированы как СМИ, что поставит их под контроль Роскомнадзора.

Это привело к принятию в 2016 году закона об агрегаторах новостей, призванного распространить контроль на таких посредников и конкретно нацеленного на Яндекс.Новости [19]. Агрегаторы новостей, получающие более миллиона посетителей в день, несут юридическую ответственность за любой контент, опубликованный в их результатах (и рискуют наложить большие штрафы в случае нарушений), если выбранные СМИ официально не зарегистрированы в Роскомнадзоре. Между Яндекс.Новостями и СМИ были заключены официальные соглашения, в 2016 году было заключено 6700 новых «партнерских отношений». Закон вступил в силу 1 января 2017 года, и, как следствие, все незарегистрированные СМИ (включая несогласные, такие как Mediazona) а также все зарубежные СМИ (такие как BBC на русском языке, а также изгнанные СМИ, такие как Медуза) исчезли из топ-5 результатов, представленных на главной странице Яндекса, а также из Яндекс.Новости.

После принятия закона Татьяна Исаева, возглавляющая Яндекс.Новости с 2012 года, объявила о своем уходе из компании. В интервью Meduza она утверждала, что закон сделал ее работу менее интересной и что сами цели агрегатора — выделение важных новостей и предоставление пользователям доступа к различным точкам зрения — были подорваны: «Агрегатор действительно предназначен для того, чтобы охватить [новостную] картинку одним взглядом. Если эта картина одинакова во всех частях, то совершенно непонятно, зачем нужен агрегатор »[20].Исаева также отметила, что ситуация в Крыму была критическим моментом для агрегатора, который получал новости из России и Украины и представлял радикально разные взгляды на конфликт:

На одной странице собраны заголовки, прямо противоречащие друг другу. И было совершенно непонятно, о ком мы вообще говорим, когда в одной и той же истории одни и те же люди в одном заголовке назывались сепаратистами, в другом — ополченцами, в третьем — защитниками, а в четвертом… некоторые плохие слова. И произошло это потому, что технически сюжеты российского вопроса могли освещаться украинскими СМИ на абсолютно тех же основаниях, что и заголовки российских СМИ. И это в целом было вполне оправдано до сих пор, потому что журналисты освещают очень похожие темы в России и на Украине. И когда мы увидели это возмущение, мы поняли, что искажаем точку зрения людей, потому что сервис не был готов к такому повороту — для информационной войны прецедентов не было.[21]

Как следствие, сервис стал «невозможным для использования», и Яндекс решил разделить медиа на «внутренние» и «иностранные» для каждой из двух стран — а затем убедиться, что « внутренние »СМИ оказались бы выше в результатах: зарегистрированные российские новостные агентства в России и украинские источники в Украине.

Несмотря на принятие закона, агрегатор Яндекс по-прежнему подвергается критике со стороны властей. В августе 2019 года депутаты Госдумы обвинили Яндекс в распространении «фейковых новостей» после того, как неточная статья ежедневной газеты «Коммерсантъ » попала в топ рейтинга Яндекс.Подборка новостей. В статье говорилось, что Дума рассматривает вопрос о запрете на использование старых автомобилей, что вызвало всеобщее возмущение и побудило депутатов дать разъяснения, согласно которым эта рекомендация касалась только профессиональных автомобилей, а не личных. Однако новость оставалась лидером отбора даже после того, как она была категорически опровергнута, в результате чего некоторые депутаты нацелились на агрегатор новостей. Андрей Исяев обвинил Яндекс в «преднамеренном обострении общественно-политической ситуации» и «иностранном вмешательстве», а Адалби Шхангошев сказал, что позвонил генеральному директору Яндекса Елене Буниной и попросил ее пересмотреть алгоритм агрегатора новостей — в ответ Яндекс пригрозил закрыть его служба агрегации [22].Этот новый скандал возник в сложной политической обстановке для правительства, когда летом оппозиционные движения провели демонстрации, чтобы осудить отказ в регистрации на выборах в местную Думу.

2.3. Обыгрывать алгоритм? Критика и подозрение в отношении Яндекс.Новостей

Уже несколько лет журналисты и политические активисты также утверждают, что рейтинг Яндекс.Новостей необъективен, но по разным причинам. По их словам, предвзятость может исходить от самого агрегатора, который подрывает информацию об оппозиции, или от официальных субъектов, которые научились вводить алгоритм в заблуждение.

По словам одного из наших собеседников, журналиста из Коммерсант , «алгоритм используется властными газетами, которые публикуют новости, продвигаемые алгоритмом» [23]. Эти методы включают в себя расширение границ поисковой оптимизации (SEO) и игру с алгоритмами Яндекс.Новостей путем искусственного создания нескольких источников информации. Их можно понимать как использование уязвимостей платформы с целью повышения прозрачности.Аналогичным образом было показано, что веб-сайты «нежелательных новостей» увеличивают свою «обнаруживаемость» в поиске Google (на этот раз за счет оптимизации ключевых слов) в целях дезинформации (Bradshaw, 2019). Такие попытки формирования результатов поиска на самом деле стары, как сам поиск, и алгоритмы обычно обновляются через регулярные промежутки времени, чтобы противостоять этим манипуляциям, которые, однако, продолжают появляться.

Например, во время выборов в Мосгордуму в 2014 году, согласно расследованию РБК, десятки неизвестных медиа-сайтов писали одни и те же новости о предполагаемых успехах Сергея Собянина, мэра Москвы с 2010 года и кандидата на переизбрание — и новость попала в топ результатов Яндекс.Новости. Мэрия Москвы научилась влиять на службу [24]. Во-первых, несколько сотен районных газет, городских веб-сайтов и веб-сайтов государственных органов (многие из которых созданы недавно) были зарегистрированы в «Базе данных СМИ и официальных источников» Яндекса. Тогда любые положительные новости в пользу мэра Москвы рассылало в издательства ОАО «Московские информационные технологии» (принадлежит властям Москвы). Они будут переписывать новости, чтобы гарантировать, что статьи не будут идентифицированы алгоритмом Яндекса как дубликаты перед публикацией на этих местных веб-сайтах.

Независимые журналисты и политические активисты осудили прогрессивное удержание агрегатора акторами, защищающими «патриотическую» позицию (законодатели, региональные администрации, официальные СМИ …). Ведущие защитники онлайн-свобод, которые изначально поддерживали агрегатор Яндекс.Новости, скептически отнеслись к тому, что он может остаться свободным от политического вмешательства. Они собирают доказательства его предвзятости и осуждают его пристрастие.

«Закон об агрегаторах» в 2016 году закрепил эту пристрастность, жестко ограничив источники новостей, которые Яндекс может продвигать.Например, в марте 2017 года крупные демонстрации прошли в Москве и по всей России. Первоначальные протесты вспыхнули после того, как Фонд борьбы с коррупцией Алексея Навального (ФБК) выпустил видео-расследование, демонстрирующее многочисленные примеры предполагаемых хищений со стороны экс-премьер-министра Дмитрия Медведева. В Москве была арестована тысяча человек — но, что удивительно, по словам журналиста Алексея Ковалева, протесты практически не упоминались на главной странице Яндекс.Новостей и даже в местной ленте новостей по Москве [25].Яндекс утверждал, что его алгоритмы не были изменены, но что это было следствием закона об агрегаторах, который значительно сократил количество доступных источников — таким образом, демонстрируя, как такая правовая инициатива может функционировать как механизм косвенного контроля (Wijermars, 2021 г.).

Политические подозрения в отношении агрегатора новостей вновь проявились в апреле 2020 года. TJournal (российский веб-сайт, посвященный технологиям) показал, что поисковая система Яндекс и Яндекс.Новостные службы возвращали только негативный контент при поиске Алексея Навального [26]. На вопрос TJournal Яндекс сказал, что приоритет, отданный негативным публикациям о Навальном, был «экспериментом». В 2021 году, после того как Навальный вернулся из Германии и был приговорен к тюремному заключению, в Москве вспыхнули демонстрации. Активисты, с которыми мы беседовали, подчеркнули конфиденциальность Яндекс.Новостей в отношении этих событий. Активист, близкий к Навальному, еще в 2018 году считал, что: «Яндекс.Новости транслируют государственную пропаганду.Агрегатор уничтожен ( сломан, ) »[27]. Некоторые из этих наблюдателей отмечают, что Яндекс избегает конфликтов с государственными органами, чтобы не подвергать опасности свою многочисленную деятельность (Яндекс.Такси, Яндекс.Еда и др.) [28].

Все эти подозрения приводят к делегитимации алгоритма в глазах журналистов, а также веб-профессионалов и программистов, которые ищут способы обойти его. Некоторые из них сейчас считают сервис бесполезным. Как заметил в 2016 году Лев Гершензон: «Агрегаторы имеют смысл (…) только тогда, когда есть что агрегировать. Если все независимые, интересные, профессиональные издания федерального масштаба можно пересчитать по пальцам, то ракетная техника для их агрегирования и обработки не нужна — их можно просто добавить в закладки »[29]. Идею закрытия сервиса, похоже, рассматривали сами руководители Яндекса. По словам известного журналиста А. Плющева из «Эхо Москвы»: «Ну, вы знаете, я как-то разговаривал с главой« Яндекса »А. Воложом, и это было до того, как был принят закон об агрегаторах.И он мне сказал, что если закон будет принят, он закроет службу. (…) Ну, закон немного смягчили, а сервис, как видите, не закрыли. Я все еще сомневаюсь, что это было правильное решение. Потому что, ну, я думаю, к сожалению, государство сделало все возможное, чтобы манипулировать как СМИ, так и извлечением в поисковых системах »[30]. В мае 2018 г. в открытом письме генеральному директору Яндекса Елене Буниной А. Плющев посоветовал ей закрыть сервис Яндекс.Новости или переименовать его в Яндекс.Пропаганда [31].

Другой сценарий касается разработки альтернативного агрегатора. В 2019 году из-за границы основатель Telegram Павел Дуров объявил о намерении разработать агрегатор новостей на своей платформе: «У нас есть шанс создать первый эффективный и бесплатный агрегатор новостей в истории Интернета», — сказал Дуров. «Мы можем начинать рекомендовать статьи из блока« Рекомендуемые статьи »после прочтения каждой статьи в Telegram, постепенно вводя ее в эксплуатацию с ежечасным выбором и глобальным поиском по всем новостям мира» [32].П. Дуров объявил, что его агрегатор будет вне контроля российских спецслужб и политической цензуры, в отличие от местных операторов [33]. Он пригласил разработчиков Яндекс.Новости поучаствовать в создании своего сервиса [34] и объявил конкурс на разработку алгоритма из конкурса Data Clustering Contest [35].

Подводя итог, агрегатор утверждает, что он нейтрален и объективен, но, с одной стороны, власти осуждают его склонность выражать недовольство и дестабилизировать политическую ситуацию, а с другой стороны, журналисты, веб-профессионалы и активисты подчеркивают его институциональную основу для продвижения «лояльная» повестка дня.Ни закон, ни правила Яндекса не позволяют понять, как работает алгоритм. Эта неопределенность относительно относительного веса каждой новости в алгоритме открывает пространство разногласий для участников, которые взаимодействуют с алгоритмом.

3. Рейтинг Яндекса как шлюз к алгоритму и его преобразованиям

В этом разделе мы представляем аудит алгоритма агрегирования (Kitchin, 2017). В соответствии с аналогичными подходами, когда прямой доступ к алгоритму «черного ящика» или самой обработке данных невозможен (Jiang, 2014; Robertson, et al., 2018; Нечуштай и Льюис, 2019; Trielli and Diakopoulos, 2019), он основан на анализе заявленных входных данных, с одной стороны, и наблюдаемых выходных данных, с другой. Таким образом, мы полагались как на источники новостей, которые предположительно использовались Яндекс.Новостями, так и на результаты, представленные его функцией «Топ-5» на главной странице Яндекса, собранные за несколько периодов времени, как подробно описано ниже. Затем мы использовали эту информацию для оценки разнообразия источников в избранных публикациях как ключевого аспекта новостного плюрализма, используя в данном случае разнообразие источников (и из-за сильного предписывающего эффекта топ-5 Яндекс) в качестве показателя разнообразия охвата. — и.е. , внимание, привлеченное этими источниками (Helberger, 2012; Helberger, et al. , 2018).

3.1. Из базы источников Яндекс.Новости в рейтинг

Хотя сам алгоритм сложно исследовать, можно посмотреть на входные данные, которыми питается агрегатор. База данных «партнерских» СМИ, на которую официально опирается Яндекс.Новости, находится в открытом доступе в Интернете [36] и впервые была опубликована в марте 2004 года. На тот момент она включала 460 ссылок (информационные агентства, интернет-СМИ, печатные издания, радио и телевидение). Интернет-сайты) [37].В декабре 2019 года в него вошли 7107 веб-сайтов, составляющих медийную панораму, в которой работает Яндекс.Новости. Для сравнения, в Google News указано 4500 англоязычных источников. База данных Яндекса не только включает СМИ, официально зарегистрированные в Роскомнадзоре, но объединяет зарегистрированные или незарегистрированные СМИ, прогосударственные или независимые источники, российский и зарубежный контент, государственные и частные веб-сайты. Полная база данных очень разнородна и отражает все разнообразие российского Интернета (Таблица 1).

01 9090 9090 9049 1% 901 9049 9049 Интернет-СМИ 0 100%
Таблица 1: Описание базы данных Яндекс.Новостей по типам источников.
СМИ Ежедневные газеты 220 3% 56%
Ежемесячные газеты 212 3% 3%
Еженедельные журналы 78 1%
Новостные агентства 481 7%
Радио 65 1%
Телеканалы 264 4%
Другие интернет-источники Официальные источники 520 7% 44%
политика, спорт , культура…) 2,631 37%
Другое 18 0%
Итого 7,107 90

Что касается медиаисточников, то база данных включает в себя официально зарегистрированные СМИ, такие как ежедневные газеты Российская газета, Известия, Московский комсомолец , государственные информационные агентства (РИА Новости, ТАСС …), веб-сайты телеканалов и интернет-СМИ, а также административные источники и тематические коммерческие веб-сайты.Более того, некоторые газеты зарегистрировали все свои местные редакции, что потенциально повысило их вес в базе данных. Комсомольская правда зарегистрирован 55 раз во всех местных отделениях. То же самое наблюдается в отношении Спутник (15), Московский Комсомолец, (19 обращений), РИА (28) или официального телеканала ГТРК (46). В Москве местные интернет-СМИ зарегистрированы в каждом районе. Из СМИ, считающихся более либеральными, только «Коммерсантъ » (19) и РБК (18) имеют разветвленную сеть редакций в регионах.Остальные СМИ обычно имеют только одну редакцию в Москве. Важность региональных СМИ, зарегистрированных в базе данных, позволяет Яндекс.Новостям предлагать рейтинги региональных новостей. Это также может поднять определенные новости в рейтинге за счет эффекта ретрансляции региональных редакций новостей, как обсуждалось ранее в случае выборов в Московскую городскую Думу 2014 года.

Независимые СМИ также остаются в базе данных, в том числе оппозиционные СМИ, не аккредитованные в Роскомнадзоре, такие как Медуза, Медиазона, Дождь TV (tvrain.ru), правозащитная НПО ОВД-Инфо , пресс-служба бывшего олигарха и политического оппонента Михаила Ходорковского в изгнании или даже сайты Kasparov.ru и Grani.ru, запрещенные Роскомнадзором в 2014 году. руководитель Грани.ру Юлия Березовская поясняет: «Яндекс.Новости действительно предпочли не выгнать нас, несмотря на запрет (в отличие от Rambler News), но они настолько нас« принизили »(…), что наше присутствие в этом агрегатор носит лишь символический характер »[38]. Таким образом, общедоступная база данных является пережитком цифровых свобод 2000-х годов.С 2016 года «На главной странице сервиса и в топе Яндекс.Новостей можно показывать только публикации, имеющие регистрацию СМИ. Те, кто не продолжает появляться в поисковой выдаче Яндекс.Новостей — таких источников около семи тысяч », — поясняет Григорий Бакинов из« Яндекса »[39].

База данных отражает разнообразие российского цифрового пространства с географической, тематической и даже политической точки зрения. Вероятно, он позволяет использовать различные сервисы, предлагаемые Яндексом, в том числе региональный рейтинг новостей и информационные сервисы, настроенные Яндексом.Приложение Dzen, сервис персональных рекомендаций, который с 2016 года создает поток контента, который автоматически подстраивается под интересы пользователей.

В 2019 году в базе данных мало информации об относительном политическом весе СМИ, которые могут войти в топ-5 Яндекс.Новостей. На вопрос «Откуда мы можем узнать вес (партнера)?» Яндекс отвечает «никуда». Поскольку мы не можем получить доступ к самому алгоритму, который остается секретным, анализ его вариантов ранжирования позволяет лучше понять результаты, производимые роботом.

В течение июня 2020 года мы провели количественный анализ новостей, отобранных Яндекс.Новостями и представленных в топ-5 новостей на главной странице Яндекса (таблица 2). Мы проводили систематический парсинг новостей: в период с 1 по 30 июня 2020 года каждые два часа автоматически собирали рейтинг Яндекс.Новостей и отображали всего 3011 ссылок [40]. Данные были собраны на сервере, расположенном во Франции, но мы контролировали возможные функции персонализации и локализации, проверяя в разные моменты новости с результатами, появляющимися для пользователя из России, и не обнаружили никакой разницы.Оказалось, что за этот период в пятерку лидеров вошла лишь небольшая группа из 14 СМИ — крайне узкая выборка, учитывая более 7000 источников, перечисленных в базе Яндекс.Новостей. Затем мы продлили анализ на период с июня по декабрь 2020 года и получили те же результаты, при этом те же 14 СМИ оказались в топ-5 за этот период. Наконец, мы классифицировали эти 14 СМИ в соответствии с их типом, характером собственности и их общим редакционным позиционированием, как подробно описано ниже и имеет цветовую кодировку в таблице.

30 Независимые зарегистрированные СМИ -регистрация СМИ

Медиа ГруппПотанин) 151 0 Частное
Таблица 2: СМИ, цитируемые в рейтинге Яндекс.Новостей
(1–30 июня 2020 г. и июнь – декабрь 2020 г.).
Цветовой код таблицы
Государственные СМИ Частные «лояльные» патриотические СМИ Частные «лояльные» либеральные СМИ

30 Независимые зарегистрированные СМИ

СМИ Тип Собственность Количество цитирований
1–30 июня 2020
Число цитирований июнь 2020 г.
РИА Новости Агентство печати Государственное 494 3,816
Газета.ru Интернет-газета Частная (Рамблер Медиа Групп / В. Потанин) 386 3282
Известия Газета Частная (Национальная Медиа Группа)
РБК Газета Частная (Григорий Березкин) 296 2,211
Лента.ру Интернет-газета 267 2,010
RT на русском языке Интернет-телеканал Государственный 255 2,222
Коммерсант 049 204 1,593
Regnum Пресс-служба Частный (Борис Соркин) 179 1,569
1,353
ТАСС Агентство печати Государство 115 1,271
Вести.ru Служба новостей на телевидении, радио и в Интернете Государственная 96 767
Ведомости Газета Частный (Иван Еремин) 1 BFM.ru Радио Частный (Егор Альтман) 67 622
Интерфакс Агентство печати
3 3

Данные наглядно показывают концентрацию информации на Яндексе.Новости среди нескольких крупных медиа-игроков: государственных агентств печати, государственных СМИ, ведущих газет и основных онлайн-изданий. Избыточное представительство конкретных новостных издателей также было показано в случае с Google News (Schroeder and Kralemann, 2005; Haim, et al. , 2018), но не до такой степени. Это гораздо более узкий диапазон, чем результаты, наблюдаемые Нечуштаем и Льюисом (2019) в случае Google News, например, в США, где, хотя небольшая выборка из 14 изданий также доминировала в агрегаторе, большое количество других публикаций также фигурировало. в результатах.Trielli и Diakopoulos (2019), просмотрев окно Google Top Stories в США, обнаружили, что только 20 источников новостей составили более половины представленных статей и что при выборе источников можно было наблюдать «левый идеологический перекос». ; однако, опять же, значительный длинный хвост из более чем 650 других источников новостей появлялся по крайней мере один раз в оставшейся половине из 6 302 ссылок, собранных за месячный период.

Более того, хотя между этими 14 основными СМИ можно обнаружить нюансы, очевидно, что в 2020 году «официально санкционированные» СМИ легче достигли высот Яндекса.Действительно, большинство публикаций в 14 выбранных изданиях имеют отношение к Кремлю: они либо напрямую финансируются государством, либо находятся в частной собственности «лоялистских» фигур или организаций и, таким образом, косвенно «управляются» властями. С 2014 года панорама российских СМИ обычно делится на «государственные» и «независимые частные» [41]. Границы этих разных категорий размыты и спорны. Действительно, если государственные СМИ четко определены (РИА Новости, RT, Российская газета, , ТАСС, Интерфакс), то «независимые частные» СМИ труднее классифицировать.Чтобы облегчить чтение Таблицы 2, мы предлагаем здесь две категории для их квалификации. «Частные лояльные« патриотические »СМИ» относятся к общим новостным СМИ, которые были преобразованы изнутри в результате ухода и замены их редакционных коллективов в период с 2012 по 2014 год. Они официально остаются «фасадом», но подверглись враждебным поглощениям с заменой их команд. лояльными властям журналистами (Chupin, Daucé, 2017; Daucé, 2020; Kovalev, 2020). В основном это касается «Ленты».ru или Газета.ru. «Частные лояльные« либеральные »СМИ» относятся к общим новостным и деловым СМИ, которые раньше считались «либеральными», но политический состав которых был реорганизован в период с 2018 по 2020 годы (в основном это РБК, Коммерсант, Ведомости ). Яндекс.Новости работают в контексте экономических и политических перестановок в российском медиапространстве, в результате чего различные типы ограничений привели к сужению медиа-спектра (Wijermars, Lehtisaari, 2020). Как следствие, основные источники, используемые Яндекс.Новости, на основе которых алгоритм строит картину ежедневных новостей в Интернете, претерпели глубокие изменения. И наоборот, независимые СМИ все больше отодвигаются на второй план, поскольку они не получают выгоды от трафика, указанного Яндекс.Новостями, а, следовательно, и от доходов от рекламы, что снижает разнообразие воздействия, но также делает их менее жизнеспособными с коммерческой точки зрения (Ковалев, 2020; Wijermars, 2021).

3.2. Рейтинг Яндекс.Новостей в российских социальных сетях

В западных странах «социальные сети становятся центральным элементом того, как люди воспринимают новости» (Hermida, et al., 2012). В России в начале 2010-х годов произошла конвергенция онлайн-новостей и социальных сетей (Панченко, 2011). Однако с 2016 года мы наблюдаем растущий разрыв между восприятием новостей в Яндекс.Новостях и в социальных сетях. Чтобы показать эту дифференциацию медийных пространств, мы опирались на разные источники: анализ аудитории компании «Медиалогия» (который измеряет как цитируемость СМИ, так и их тираж в социальных сетях) [42], исследования потребления новостей Социологическим центром Левады [42]. 43], а также показатели, производимые самими СМИ.

С января 2017 года Медиалогия предлагает два рейтинга СМИ. Первый, рейтинг Citation Index, основан на базе данных СМИ Medialogia, которая включает около 43 400 источников: телевидение, радио, газеты, журналы, информационные агентства, интернет-СМИ и блоги. При расчете рейтинга новостные агрегаторы не учитываются. Второй основан на гиперссылках, которыми делятся и комментируются в социальных сетях (Twitter, Facebook, ВКонтакте и т. Д.) [44]. Как поясняет представитель Медиалогии:

Второй рейтинг «появился в ответ на просьбу СМИ сравнить свои показатели в социальных сетях.Рейтинг Citation Index показывает качество контента и доверие к СМИ в профессиональной среде, в то время как данные социальных сетей отражают интерес пользователей к контенту СМИ и их доверие ». [45]

В июне 2020 года рейтинг Citation Index достаточно согласовывался с рейтингом Яндекс.Новостей, тогда как данные социальных сетей существенно различались (см. Таблицу 3).

92 io 9 на русском языке Коммерсантъ Regnum Regnum 4

06

9149 9146

Таблица 3. Четырнадцать самых цитируемых СМИ в пятерке лидеров Яндекса, в индексе цитирования Medialogia и в социальных сетях в июне 2020 года.
июнь 2020 Рейтинг Яндекса
(по данным авторов)
Медиалогия: Индекс цитирования в СМИ Медиалогия: Гиперссылки 1 9016 916 6 в социальных сетях РИА Новости ТАСС РИА Новости
2 Газета.ру РИА Новости Openmedia.io
3
4 РБК РБК Russian.rt.com
5 Лента.ру Известия МБХ Медиа
RBC.ru
7 Коммерсантъ Russian.rt.com ТАСС
8 s0007 Regnum
9 Российская газета Ведомости Знак.com
10 ТАСС Forbes Zona.media
11 Вести.ру 360tv.ru Радио Свобода 949006
Комсомольская правда Tsargrad.tv
13 BFM.ru Gazeta.ru Lenta.ru
14
14 9014ij8 .ком

Цветовой код таблицы
Государственные СМИ Частные «лояльные» патриотические СМИ Частные «лояльные» либеральные СМИ Независимые зарегистрированные СМИ СМИ

В июне 2020 года некоторые интернет-источники ссылались на российские социальные сети, такие как «Медуза».io, OpenMedia.io, МБХ Медиа или Mediazona никогда не попадают в топ-5 рейтинга Яндекса, так как не были зарегистрированы в Роскомнадзоре [46]. Считается, что большинство из них критикуют политику государства. Несоответствие между узким выбором СМИ в Яндекс.Новостях и большим плюрализмом в социальных сетях показывает расхождение между двумя разными медиа-пространствами в России: зарегистрированные медиа-сайты, агрегированные Яндекс.Новостями, с одной стороны, и новостное содержание из альтернативных незарегистрированных СМИ, циркулирующие в социальных сетях, с другой.По имеющимся данным, эти два медиапространства привлекают разную аудиторию. Исследование медиа-потребления, проведенное Социологическим центром Левада в России в феврале 2020 года, показало, что люди старше 40 лет получают информацию в основном с официальных веб-сайтов или с телевидения, а молодые люди (18–39 лет) получают ее в основном из социальных сетей. [47].

Лучшие независимые СМИ в социальных сетях отражают предпочтения этой аудитории. Рейтинг также отражает стратегии распространения самих СМИ.Исключенные из рейтинга Яндекса с 2016 года, они проводят акции по распространению информации в социальных сетях. Пример Meduza здесь очень поучителен. Meduza — это интернет-газета из Риги, созданная Галиной Тимченко после того, как она была уволена с новостного сайта Lenta.ru в 2014 году. Согласно ее собственным показателям, в 2020 году 69 процентов ее аудитории были моложе 45 лет [48]; кроме того, трафик поступал в основном из прямых подключений и социальных сетей, что представляет собой знак почета, поскольку трафик является «сертифицированным органическим» (рис. 2). Медуза не получает трафик от Яндекс.Новостей (по сравнению с Лента.ру, , Коммерсант, , РБК, которые более зависимы от агрегатора). Он активно присутствует в социальных сетях, о чем свидетельствуют данные, представленные в его медиа-ките для рекламодателей.

Альтернативным, несогласным или независимым СМИ становится все труднее работать в официально регулируемом российском медиапространстве, по данным Яндекс.Новостей. Некоторые из них были полностью запрещены, в то время как другие столкнулись с резким падением трафика, что повлекло за собой сокращение доходов от рекламы.Большинство из них прибегли к другим бизнес-моделям (платный доступ, подписка, сбор средств и т. Д.), Что привело к фрагментации альтернативного медиа-пространства и новому рыночному неравенству в доступе к независимым новостям. Эти средства массовой информации также мигрировали и переместились в другие пространства и новые типы распространения, распространяя свой контент в социальных сетях, таких как Facebook, Twitter, Instagram или Telegram.

Заключение

Новейшая история Яндекс.Новости в России подчеркивают, как регулирование платформ может быть использовано для создания формы «алгоритмического управления» СМИ и публичной сферой. Первоначально представленный как техническое средство для «объективного» учета разнообразия онлайн-контента, агрегатор вызвал в 2010-х годах технополитические споры: власти критиковали его за продвижение «непатриотичных» или «фейковых» новостей, в то время как журналисты, наоборот, Интернет-профессионалы и конечные пользователи все больше подозревали, что неудобных истин будет трудно достичь его высшего рейтинга.Принятие в 2016 году закона об агрегаторах новостей, разрешающего отображать только официально «зарегистрированные» источники, четко продемонстрировало намерение приручить платформу, чтобы ограничить заметность протестов и недовольства в публичной сфере. Это регулирование имело место в сложной цифровой экосистеме, которая включает различные уровни контроля доступа, включая Яндекс.Новости и другие платформы, Наблюдательный орган за телекоммуникациями Роскомнадзор, а также средства массовой информации и журналистов.

Различные типы доказательств, представленные в этом исследовании — нормативная политика, общественные разногласия и итоговый аудит алгоритма — указывают на то, что Яндекс как система рекомендаций по новостям соблюдает как юридические, так и технические «кодексы поведения», гарантируя, что информация, которую он продвигает, и усиливается остается под контролем. В результате в 2020 году сервис обеспечил видимость только 14 средствам массовой информации, которые сами находятся под пристальным контролем российских властей через Роскомнадзор. Жесткий контроль рейтинга алгоритма очевиден по сравнению с Новостями Google, которые, хотя и отводят почетное место небольшому выбору крупных изданий, также составляют длинный хвост разнообразных публикаций и в любом случае не отображают выборку по умолчанию. новости на своей домашней странице поисковой системы.Таким образом, Яндекс.Новости представляют собой лишь фасад информационного плюрализма. Более того, он больше не отражает разнообразие контента, который все еще циркулирует в российском цифровом пространстве. Хотя на уровне Яндекс.Новостей пока нельзя продемонстрировать явную цензуру, агрегатор, похоже, является важным звеном в машине ужесточения контроля, осуществляемого властями над всей экосистемой российских СМИ.

Однако управление с помощью алгоритмов остается несовершенным и происходит в сложном техническом, политическом, правовом и экономическом контексте, где национальные и международные платформы сосуществуют и конкурируют.Журналисты и издатели ищут альтернативные каналы для распространения информации, полагаясь на социальные сети, такие как Telegram или Twitter. Более того, несмотря на новые нормативные ограничения, споры вокруг Яндекс.Новостей периодически возникают в периоды политической напряженности. Российские власти оправдывают свои усилия по контролю над повесткой дня СМИ и восстановлению своего суверенитета над публичной сферой, осуждая информацию, представленную как «непатриотичную», «фальшивую» или иным образом проблематичную. Парадоксально, но это исследование также подчеркивает, как медиаплееры и профессионалы в области новостей, наряду с новыми препятствиями, с которыми они сталкиваются, постепенно вырабатывают критические взгляды на роль и функционирование платформ и их алгоритмов, раскрывая политические ставки этих ключевых инфраструктур.

Об авторах

Франсуаза Досе — профессор Школы перспективных исследований в области социальных наук (EHESS) и директор Центра российских, кавказских и восточноевропейских исследований (CERCEC).
Эл. Почта: dauce [at] ehess [dot] fr

Бенджамин Лавлак — доцент i3-SES, Telecom Paris, France.
Эл. Почта: benjamin [dot] loveluck [at] telecom-paris [dot] fr

Банкноты

1. Statcounter , по адресу https://gs.statcounter.com/search-engine-market-share/all/russian-federation, по состоянию на 20 марта 2021 г.

2. Мы благодарим Фабриса Демартона (CNRS / CERCEC) за его помощь в извлечении этой базы данных и извлечении результатов с домашней страницы Яндекса.

3. К. Бхарат, «А теперь, новости», Официальный блог Google (23 января 2006 г.), https://googleblog.blogspot.com/2006/01/and-now-news.html.

4. З. Туфекчи, «YouTube, великий радикализатор», New York Times (10 марта 2018 г.), https: // www.nytimes.com/2018/03/10/opinion/sunday/youtube-politics-radical.html; см. также O’Callaghan, et al. , 2015.

5. Триелли и Диакопулос, 2019, с. 3.

6. Это вызвало бурные дискуссии в большинстве стран, которые обычно находили урегулирование, за исключением Испании, где служба закрыта из-за введения «налога на ссылки», требующего от Google уплаты пошлины за отображение фрагментов текста.

7. Diakopoulos, 2019a, p. 183.

8. А. Робертсон, «Не пора ли Google после промаха 4chan опустить главные новости?» The Verge (3 октября 2017 г.), https: // www.theverge.com/2017/10/3/16413082/google-4chan-las-vegas-shooting-top-stories-algorithm-mistake.

9. Финансовые результаты Яндекса за 2020 год, https://ir.yandex/financial-releases?year=2020&report=q4.

10. Э. Осетинская, «Яндекс, история успеха в России и высокотехнологичный тигр Путина», комментарий для Moscow Times (27 сентября 2017 г.), https://themoscowtimes.com/articles/yandex- а-русская-история-успех-и-путины-хай-тек-тигр-59029.

11. М. Седдон, «Яндекс согласовывает реструктуризацию с Кремлем», Financial Times (18 ноября 2019 г.), https: // www.ft.com/content/999e3ca6-09db-11ea-bb52-34c8d9dc6d84.

12. 16 марта 2021 года Дума приняла в третьем (окончательном) чтении законопроект о штрафных санкциях за продажу смартфонов, планшетов и персональных компьютеров без предустановленного российского программного обеспечения. Счет № 757430-7. Поправка к статье 14.8 КоАП РФ, https://sozd.duma.gov.ru/bill/757430-7.

13. Л. Гершензон, интервью с авторами, январь 2020 г.

14. Эти принципы доступны по адресу https: // яндекс.ru / Promo / News / index.

15. Там же.

16. «Протесты не в топе», Радио Свобода — Крымские реалии, (29 марта 2017 г.), https://ru.krymr.com/a/28397904.html.

17. Федеральный закон № ФЗ-139 от 28 июля 2012 г.

18. «Яндекс разжигает Майдан в России?» Правда , http://www.pravda.ru/topic/yandex-617/, по состоянию на 25 августа 2016 г.

19. Федеральный закон № ФЗ-208 от 23 июня 2016 г.

20. Интервью с Татьяной Исаевой, Медуза (24 октября 2016 г.), https: // meduza.io / feature / 2016/10/24 / ощущения-что-от-медиасреды-отстали-нет.

21. Там же.

22. «Депутаты попали в Яндекс.Новости», Коммерсантъ, (16 августа 2019 г.), https://lenta.ru/news/2019/08/16/ya_novosti/.

23. Интервью с Д., Москва, сентябрь 2019 г.

24. Ж. Ульянова, Д. Луганская, «Расследование РБК: как чиновники перехитрили Яндекс», (22 октября 2014 г.), http://top.rbc.ru/technology_and_media/22/10/2014/5447a659cbb20f1d5d33b94d.

25. А. Ковалев, «Не слышу зла, не вижу зла, не сообщайте о зле», Moscow Times (27 марта 2017 г.), https://www.themoscowtimes.com/2017/03/27/hear- нет-зла-не-злой-отчет-нет-зла-a57550.

26. «Яндекс всеми своими сервисами рисует образ Навального», TJournal (26 апреля 2020 г.), https://tjournal.ru/news/162614-yandeks-vsemi-svoimi-servisami-risuet-obraz-navalnogo .

27. Интервью с А., активистом Фонда борьбы с коррупцией, Москва, сентябрь 2019.

28. Интервью с Д., Москва, сентябрь 2019 г.

29. Л. Гершензон, «Нечего агрегировать», Республика (20 апреля 2016 г.), https://republic.ru/posts/66965.

30. Интервью с Александром Плющевым, Москва, март 2019.

31. https://t.me/PlushevChannel/2533.

32. Ерёменко Э., Брызгалова Э. Дуров создаст агрегатор новостей, Ведомости (7 июня 2019 г.), https://www.vedomosti.ru/technology/articles/2019/06/07/803708- дуров-создст.

33. См. Статью Ксении Ермошиной и Франчески Мусиани в этом номере.

34. Ерёменко Е., Брызгалова Е., ст. соч.

35. Первый этап конкурса прошел в ноябре 2019 года, второй этап — в мае 2020 года.

36. См. Https://yandex.ru/news/smi.

37. https://yandex.ru/company/press_releases/2004/0311.

38. Обмен письмами с Юлией Березовской, 27 мая 2020 г.

39. «Протесты не в топе», Радио Свобода — Крымские реалии, (29 марта 2017 г.), https: // ru.krymr.com/a/28397904.html.

40. Мы проанализировали код главной страницы Яндекса и обнаружили, что в любой момент времени было представлено 10 новостных ссылок. Поэтому мы создали сценарий Node.js для сбора этих 10 ссылок каждые два часа: четыре ссылки занимают места с 1 по 4 в пятерке лучших, а пятое место, вероятно, будет занимать шесть других ссылок на ротационной основе. использует две основные библиотеки Node: Puppeteer для удаления и Mongoose для регистрации базы данных. После ручного анализа html-кода домашней страницы и нескольких других страниц веб-сайта мы написали код javascript для очистки содержимого 10 главных новостей (заголовок, дата, имя источника, URL-адрес источника, рейтинг на домашней странице).Затем данные были зарегистрированы в базе данных Mongodb с использованием библиотеки Mongoose.

41. См., Например, «Медиа-компас: меняющийся медийный ландшафт России» (2 апреля 2014 г.). Опубликовано Calvert Journal (при поддержке некоммерческой зарегистрированной в Великобритании благотворительной организации, созданной в 2009 году) по адресу https://www.calvertjournal.com/features/show/2234/russian-media-independent-compass.

42. Медиалогия — первая в России автоматизированная система мониторинга и анализа СМИ в реальном времени, созданная в 2003 году.Он был приобретен банком ВТБ в 2019 году. До сделки основным владельцем была группа IBS, принадлежащая Анатолию Карачинскому и Сергею Мацоцкому. По словам новых владельцев, «Медиалогия» поможет улучшить маркетинговые стратегии своих клиентов («ВТБ Приобрел контрольный пакет в Медиалогии & squo;», РБК (17 января 2019 г.), https://www.rbc.ru/ rbcfreenews / 5c4040da9a7947c79d040b64).

43. Левада-центр — российская неправительственная социологическая и социологическая организация (названа в честь ее основателя, профессора Юрия Левады).Он считается одним из немногих независимых центров социологических исследований в России.

44. См. Сайт Медиалогии: https://www.mlg.ru/ratings/media/federal/5766/.

45. Обмен письмами с Н., сотрудником Медиалогии, 15 декабря 2020 г.

46. https://www.mlg.ru/ratings/media/socmedia/7492/.

47. Левада-центр, «Источники новостей и доверие СМИ» (27 февраля 2020 г.), https://www.levada.ru/cp/wp-content/uploads/2020/ 02 / СМИ_таблица.pdf. Эти результаты согласуются с исследованием медиапотребления в России, проведенным аудиторской компанией Deloitte в 2020 году, «Медиапотребление в России — 2020», на https://www2.deloitte.com/content/ плотина / Deloitte / ru / Документы / технологии-медиа-телекоммуникации / русский / медиа-потребление-россия-2020.pdf.

48. https://meduza.io/static/ads/mediakit-eng.pdf.

Список литературы

Валери Белэр-Ганьон и Эйвери Э.Холтон, 2018. «Граничная работа, нарушители СМИ и аналитика в редакциях новостей: анализ роли компаний, занимающихся веб-аналитикой, в производстве новостей», Цифровая журналистика , том 6, номер 4, стр. 492–508.
doi: https://doi.org/10.1080/21670811.2018.1445001, по состоянию на 22 апреля 2021 г.

Доминик Бойер, 2013. Информационная жизнь: создание новостей в цифровую эпоху . Итака, Нью-Йорк: Издательство Корнельского университета.
doi: https://doi.org/10.7591/cornell/9780801451881.001.0001, по состоянию на 22 апреля 2021 г.

Энгин Боздаг, 2013. «Предвзятость в алгоритмической фильтрации и персонализации», Этика и информационные технологии , том 15, номер 3, стр. 209–227.
doi: https://doi.org/10.1007/s10676-013-9321-6, по состоянию на 22 апреля 2021 г.

Саманта Брэдшоу, 2019. «Оптимизация дезинформации: алгоритмы игровых поисковых систем для усиления нежелательных новостей», Internet Policy Review , volume 8, number 4.
doi: https://doi.org/10.14763/2019.4.1442, по состоянию на 22 апреля 2021 г.

Дэвид Р. Брейк, 2017. «Невидимая рука необъяснимого алгоритма: как Google, Facebook и другие технологические компании меняют журналистику», В: Джингронг Тонг и Ши-Хун Ло (редакторы). Цифровые технологии и журналистика: международная сравнительная перспектива . Чам, Швейцария: Palgrave Macmillan, стр. 25–46.
doi: https://doi.org/10.1007/978-3-319-55026-8_2, по состоянию на 22 апреля 2021 г.

Axel Bruns, 2019. Реальны ли пузырьки в фильтрах? Кембридж: Polity Press.

Тайна Бухер, 2016. «Ни черный, ни ящик: способы познания алгоритмов», В: Себастьян Кубичко и Энн Каун (редакторы). Инновационные методы в исследованиях СМИ и коммуникации . Чам, Швейцария: Palgrave Macmillan, стр. 81–98.
doi: https://doi.org/10.1007/978-3-319-40700-5_5, по состоянию на 22 апреля 2021 г.

CamLy Bui, 2010. «Как онлайн-контролеры охраняют нашу точку зрения — включение новостных порталов и ранжирование СМИ и событий», Global Media Journal , том 9, номер 16, стр.1–41 и https://www.globalmediajournal.com//open-access/how-online-gatekeepers-guard-our-view-news-portals-inclusion-and-ranking-of-media-and-events. .pdf, по состоянию на 22 апреля 2021 г.

Joan Calzada и Ricard Gil, 2020. «Чем занимаются агрегаторы новостей? Данные из Google News в Испании и Германии », Marketing Science , volume 39, number 1, pp. 134–167.
doi: https://doi.org/10.1287/mksc.2019.1150, по состоянию на 22 апреля 2021 г.

Angèle Christin, 2020. Метрики в действии: журналистика и оспариваемое значение алгоритмов .Принстон, Нью-Джерси: Издательство Принстонского университета.

Иван Чупин и Франсуаза Досе, 2017. «Прекращение работы журналистов в России: политические конфликты и обычные процедуры переговоров в редакциях новостей», Laboratorium , том 9, номер 2, стр. 39–58.
doi: https://doi.org/10.25285/2078-1938-2017-9-2-39-58, по состоянию на 22 апреля 2021 г.

Françoise Daucé, 2020. «Маскировка Интернета? Дизайн и контроль веб-сайтов в России », Digital Icons , номер 20, https: // www.digitalicons.org/issue20/disguising-the-internet-website-design-and-control-in-russia, по состоянию на 22 апреля 2021 г.

Françoise Daucé, 2017. «Политические конфликты вокруг Интернета в России: пример Яндекс.Новости», Laboratorium , том 9, номер 2, стр. 112–132.
doi: https://doi.org/10.25285/2078-1938-2017-9-2-112-132, по состоянию на 22 апреля 2021 г.

Анастасия Денисова, 2017. «Демократия, протест и публичная сфера в России после антиправительственных протестов 2011–2012 годов: на кону цифровые медиа», Медиа, культура и общество , том 39, номер 7, стр.976–994.
doi: https://doi.org/10.1177/0163443716682075, по состоянию на 22 апреля 2021 г.

Николас Диакопулос, 2019a. Автоматизация новостей: как алгоритмы переписывают медиа . Кембридж, Массачусетс: Издательство Гарвардского университета.

Николас Диакопулос, 2019b. «Аудит показывает, что Google отдает предпочтение небольшому количеству крупных изданий», Columbia Journalism Review (10 мая), https://www.cjr.org/tow_center/google-news-algorithm.php, по состоянию на 22 апреля 2021 г.

Роберт Эпштейн и Рональд Э.Робертсон, 2015. «Эффект манипулирования поисковой системой (SEME) и его возможное влияние на результаты выборов», Труды Национальной академии наук США , том 112, номер 33 (18 августа), стр. E4512 – E4521.
doi: https://doi.org/10.1073/pnas.1419828112, по состоянию на 22 апреля 2021 г.

Юлия Федор, 2015. «Введение: российские СМИ и война в Украине», Журнал советской и постсоветской политики и общества , том 1, номер 1, стр.1-2, на https://spps-jspps.autorenbetreuung.de/files/00-fedor.pdf, по состоянию на 22 апреля 2021 г.

Сет Флаксман, Шарад Гоэль и Джастин М. Рао, 2016. «Фильтровать пузыри, эхо-камеры и потребление новостей в Интернете», Public Opinion Quarterly , том 80, номер S1, стр. 298–320.
doi: https://doi.org/10.1093/poq/nfw006, по состоянию на 22 апреля 2021 г.

Ричард Флетчер и Расмус Клейс Нильсен, 2018. «Автоматическая интуиция: влияние использования поисковых систем на баланс и разнообразие новостного репертуара», Цифровая журналистика , том 6, номер 8, стр.976–989.
doi: https://doi.org/10.1080/21670811.2018.1502045, по состоянию на 22 апреля 2021 г.

Tarleton Gillespie, 2018. «Регулирование платформ и ими», В: Жан Берджесс, Элис Марвик и Томас Поэлл (редакторы). Справочник по социальным сетям Sage . Лондон: Сейдж, стр. 254–278.
doi: http://dx.doi.org/10.4135/9781473984066.n15, по состоянию на 22 апреля 2021 г.

Марио Хаим, Андреас Грефе и Ханс-Бернд Брозиус, 2018. «Взрыв пузыря фильтра? Влияние персонализации на разнообразие новостей Google », Цифровая журналистика , том 6, номер 3, стр.330–343.
doi: https://doi.org/10.1080/21670811.2017.1338145, по состоянию на 22 апреля 2021 г.

Натали Хельбергер, 2019. «О демократической роли рекомендателей новостей», Цифровая журналистика , том 7, номер 8, стр. 993–1012.
doi: https://doi.org/10.1080/21670811.2019.1623700, по состоянию на 22 апреля 2021 г.

Натали Хелбергер, 2012 г. «Разнообразие освещения как цель политики», Journal of Media Law , том 4, номер 1, стр. 65–92.
doi: https://doi.org/10.5235/175776312802483880, по состоянию на 22 апреля 2021 г.

Натали Хелбергер, Кари Карппинен и Люсия Д’Акунто, 2018. «Разнообразие экспонирования как принцип построения рекомендательных систем», Информация, коммуникация и общество , том 21, номер 2, стр. 191–207.
doi: https://doi.org/10.1080/1369118X.2016.1271900, по состоянию на 22 апреля 2021 г.

Мэтью Хиндман, 2018. Интернет-ловушка: как цифровая экономика создает монополии и подрывает демократию .Принстон, Нью-Джерси: Издательство Принстонского университета.

Мэтью Хиндман, 2008. Миф о цифровой демократии . Принстон, Нью-Джерси: Издательство Принстонского университета.

Соунман Хонг и Наён Ким, 2018. «Будет ли Интернет способствовать демократии? Поисковые машины, концентрация читателей онлайн-новостей и электронная демократия », Журнал информационных технологий и политики , том 15, номер 4, стр. 388–399.
doi: https://doi.org/10.1080/19331681.2018.1534703, по состоянию на 22 апреля 2021 г.

Лукас Д. Интрона и Хелен Ниссенбаум, 2000. «Формирование сети: почему важна политика поисковых систем», Информационное общество , том 16, номер 3, стр. 169–185.
doi: https://doi.org/10.1080/01972240050133634, по состоянию на 22 апреля 2021 г.

Дитмар Яннах, Маркус Занкер, Александр Фельферниг и Герхард Фридрих, 2011. Рекомендательные системы: введение . Кембридж: Издательство Кембриджского университета.

Минь Цзян, 2014. «Бизнес и политика поисковых систем: сравнительное исследование результатов поиска Baidu и Google по интернет-событиям в Китае», New Media & Society , том 16, номер 2, стр.212–233.
doi: https://doi.org/10.1177/1461444813481196, по состоянию на 22 апреля 2021 г.

Наташа Джаст и Майкл Латцер, 2017. «Управление с помощью алгоритмов: построение реальности путем алгоритмического отбора в Интернете», Медиа, культура и общество , том 39, номер 2, стр. 238–258.
doi: https://doi.org/10.1177/0163443716643157, по состоянию на 22 апреля 2021 г.

Можган Карими, Дитмар Яннах и Майкл Юговач, 2018. «Новостные рекомендательные системы — обзор и дороги впереди», Обработка информации и управление , том 54, номер 6, стр.1 203–1 227.
doi: https://doi.org/10.1016/j.ipm.2018.04.008, по состоянию на 22 апреля 2021 г.

Роб Китчин, 2017. «Критическое мышление и исследование алгоритмов», Информация, коммуникация и общество , том 20, номер 1, стр. 14–29.
doi: https://doi.org/10.1080/1369118X.2016.1154087, по состоянию на 22 апреля 2021 г.

Алексей Ковалев, 2020. «Политическая экономика создания новостей в российских СМИ: собственность, кликбейт и цензура», Журналистика (14 августа).
doi: https://doi.org/10.1177/14648841964, по состоянию на 22 апреля 2021 г.

Джухи Кульшреста, Мотаххаре Эслами, Джоннатан Мессиас, Мухаммад Билал Зафар, Саптарши Гхош, Кришна П. Гуммади и Кэрри Карахалиос, 2019. «Количественная оценка систематической ошибки поиска: исследование политической предвзятости в социальных сетях и поиске в Интернете», Информационный поиск, том 22, номера 1–2, с. 188–227.
doi: https://doi.org/10.1007/s10791-018-9341-2, по состоянию на 22 апреля 2021 г.

Бруно Латур, 2005. Повторная сборка социального: введение в теорию сетей акторов . Оксфорд: Издательство Оксфордского университета.

Лоуренс Лессиг, 1999. Кодекс и другие законы киберпространства . Нью-Йорк: Основные книги.

Маркку Лонкила, Лариса Шпаковская и Филипп Торчинский, 2020. «Оккупация Рунета? Ужесточение государственного регулирования русскоязычного раздела Интернета », В: Мариэль Вейермарс и Катя Лехтисаари (редакторы). Свобода слова в новой медиасфере России .Абингдон: Рутледж, стр. 17–38.

Натали Марешаль, 2017. «Сетевой авторитаризм и геополитика информации: понимание российской интернет-политики», Медиа и коммуникации , том 5, номер 1, стр. 29–41.
doi: http://dx.doi.org/10.17645/mac.v5i1.808, по состоянию на 22 апреля 2021 г.

Noortje Marres, 2007. «Проблемы заслуживают большего уважения: вклад прагматиков в исследование участия общественности в полемике», Social Studies of Science , volume 37, number 5, pp.759–780.
doi: https://doi.org/10.1177/0306312706077367, по состоянию на 22 апреля 2021 г.

Улисес А. Мехиас и Николай Е. Вокуев, 2017. «Дезинформация и СМИ: случай России и Украины», Медиа, культура и общество , том 39, номер 7, стр. 1027–1042.
doi: https://doi.org/10.1177/0163443716686672, по состоянию на 22 апреля 2021 г.

Франческа Мусиани, 2013 г. «Управление с помощью алгоритмов», Обзор интернет-политики , том 2, номер 3.
doi: https: // doi.org / 10.14763 / 2013.3.188, по состоянию на 22 апреля 2021 г.

Франческа Мусиани, Бенджамин Ловлак, Франсуаза Досе и Ксения Ермошина, 2019. «Цифровой суверенитет»: может ли Россия отрезать свой Интернет от остального мира? » The Conversation (28 октября), https://theconversation.com/digital-sovereignty-can-russia-cut-off-its-internet-from-the-rest-of-the-world-125952, доступ 13 Май 2020.

Филип М. Наполи, 2014. «Автоматизированные медиа: взгляд институциональной теории на алгоритмическое производство и потребление медиа», Теория коммуникации , том 24, номер 3, стр.340–360.
doi: https://doi.org/10.1111/comt.12039, по состоянию на 22 апреля 2021 г.

Эфрат Нечуштай и Сет С. Льюис, 2019. «Какими привратниками новостей мы хотим, чтобы машины были? Пузырьки фильтров, фрагментация и нормативные размеры алгоритмических рекомендаций », Компьютеры в поведении человека , том 90, стр. 298–307.
doi: https://doi.org/10.1016/j.chb.2018.07.043, по состоянию на 22 апреля 2021 г.

Расмус Клейс Нильсен и Сара Энн Гантер, 2018. «Работа с цифровыми посредниками: тематическое исследование отношений между издателями и платформами», New Media & Society , том 20, номер 4, стр.1,600–1617.
doi: https://doi.org/10.1177/1461444817701318, по состоянию на 22 апреля 2021 г.

Жюльен Носетти, 2015. «Подход России к политике в области« диктатуры закона »в отношении интернет-политики», Internet Policy Review , том 4, номер 4.
doi: https://doi.org/10.14763/2015.4. 380, по состоянию на 22 апреля 2021 г.

Сара Оутс, 2013. Революция остановилась: политические ограничения Интернета на постсоветском пространстве . Оксфорд: Издательство Оксфордского университета.
doi: https: // doi.org / 10.1093 / acprof: oso / 9780199735952.001.0001, по состоянию на 22 апреля 2021 г.

Дерек О’Каллаган, Дерек Грин, Маура Конвей, Джо Карти и Падрейг Каннингем, 2015. «Вниз по (белой) кроличьей норе: крайне правые и онлайн-рекомендательные системы», Social Science Computer Review , том 33, номер 4 С. 459–478.
doi: https://doi.org/10.1177/0894439314555329, по состоянию на 22 апреля 2021 г.

Эли Паризер, 2011. Пузырь с фильтрами: что скрывает от вас Интернет .Нью-Йорк: Penguin Press.

Фрэнк Паскуале, 2015. Общество черного ящика: секретные алгоритмы, управляющие деньгами и информацией . Кембридж, Массачусетс: Издательство Гарвардского университета.

Франческо Риччи, Лиор Рокач и Браха Шапира (редакторы), 2015 г. Справочник по рекомендательным системам . Нью-Йорк: Спрингер.
doi: https://doi.org/10.1007/978-1-4899-7637-6, по состоянию на 22 апреля 2021 г.

Рональд Э. Робертсон, Дэвид Лазер и Кристо Уилсон, 2018. «Аудит персонализации и состава политически связанных страниц результатов поисковых систем», WWW ’18: Proceedings of the World Wide Web Conference 2018 , pp.955–965.
doi: https://doi.org/10.1145/3178876.3186143, по состоянию на 22 апреля 2021 г.

Флориан Саурвейн, Наташа Джаст и Майкл Латцер, 2015. «Управление алгоритмами: варианты и ограничения», информация , том 17, номер 6, стр. 35–49.
doi: https://doi.org/10.1108/info-05-2015-0025, по состоянию на 22 апреля 2021 г.

Роланд Шредер и Мориц Кралеманн, 2005. «Журналистика ex machina — Google News Germany и ее процессы отбора новостей», Journalism Studies , том 6, номер 2, стр.245c247.
doi: https://doi.org/10.1080/14616700500057486, по состоянию на 22 апреля 2021 г.

Ник Сивер, 2019. «Знание алгоритмов», В: Джанет Вертези и Дэвид Рибес (редакторы). digitalSTS: Полевое руководство для исследований в области науки и технологий . Принстон, Нью-Джерси: Издательство Принстонского университета, стр. 412–422.

Людмила Сивец, 2019. «Государственное регулирование онлайн-речи в России: роль владельцев интернет-инфраструктуры», Международный журнал права и информационных технологий , том 27, номер 1, стр.28–49.
doi: https://doi.org/10.1093/ijlit/eay016, по состоянию на 22 апреля 2021 г.

Андрей Солдатов и Ирина Бороган, 2015. Красная паутина: войны Кремля в Интернете . Нью-Йорк: PublicAffairs.

Кьерстин Торсон и Крис Уэллс, 2016. «Курируемые потоки: структура для отображения воздействия СМИ в цифровую эпоху», Теория коммуникации , том 26, номер 3, стр. 309–328.
doi: https://doi.org/10.1111/comt.12087, по состоянию на 22 апреля 2021 г.

Кьерстин Торсон и Крис Уэллс, 2015 г.«Каким образом контроль за воротами по-прежнему имеет значение: понимание медиа-эффектов в эпоху контролируемых потоков», В: Тимоти Вос и Франсуа Хайндерикс (редакторы). Контроль доступа в переходный период . Нью-Йорк: Рутледж, стр. 25–44.
doi: https://doi.org/10.4324/9781315849652, по состоянию на 22 апреля 2021 г.

Каролина Вендил Паллин, 2017. «Интернет-контроль через собственность: пример России», Постсоветские дела , том 33, номер 1, стр. 16–33.
doi: https://doi.org/10.1080/1060586X.2015.1121712, по состоянию на 22 апреля 2021 г.

Mariëlle Wijermars, 2021. «Российский закон« Об агрегаторах новостей »: контролируйте ленту новостей, контролируйте новости», Journalism (15 января).
doi: https://doi.org/10.1177/14648849219

, по состоянию на 22 апреля 2021 г.

Мариэль Вийермарс и Катя Лехтисаари (редакторы), 2020 г. Свобода слова в новой медиасфере России . Абингдон: Рутледж.


История редактирования

Поступила 2 апреля 2021 г .; принята 7 апреля 2021 г.



Эта статья находится под международной лицензией Creative Commons Attribution-NonCommercial-ShareAlike 4.0.

Кодексы поведения для алгоритмических рекомендаций новостей: полемика с Яндекс.Новостями в России
Франсуаза Досе и Бенджамин Лавлак.
Первый понедельник , том 26, номер 5 — 3 мая 2021 г.
https://firstmonday.org/ojs/index.php/fm/article/download/11708/10131
doi: https: //dx.doi. org / 10.5210 / fm.v26i5.11708

Как вы реализуете поиск по сайту — # 58 от Михаила — поддержка

digitalcraftsman:

Swiftype кажется хорошей альтернативой Google CSE.Их бесплатного плана для частных лиц должно быть более чем достаточно для небольших сайтов, таких как блоги.

Swiftype также был бы моим предпочтением, но теперь их самый дешевый план начинается с 299 долларов в месяц, и больше нет доступных бесплатных или более дешевых планов (см. «Swiftype молча отказывается от бесплатных планов»).

Альтернативой, у которой в настоящее время действительно есть бесплатный план, является Algolia, но, насколько я понимаю, вам нужно будет предоставить «объекты без схемы» самостоятельно, что намного сложнее, чем я хотел бы выполнять поиск самостоятельно.

Что мне нравится в Swiftype, так это то, что они без проблем сканируют ваш сайт и создают для вас поисковый индекс. Это особенно полезно для людей со статическим хостингом (например, S3), поскольку таким инструментам, как Bleve, нужен сервер.

Качество поисковой системы
Кроме того, Swiftype сами являются «создателями поисковых систем» и, вероятно, улучшат сами поисковые инструменты. В этом обсуждении, кажется, упускается из виду качество различных поисковых систем, но я думаю, что это довольно важный момент.

Если я посмотрю на Bleve, то вижу, что поиск по запросу «search» возвращает результаты, которые не включают «search», а при использовании «search» в качестве запроса ни одна из страниц, соответствующих «search», не отображается. Другими словами, Bleve не считает «поиск» и «поиск» синонимами, и я думаю, что это проблема.

(Например, Google перечисляет текущую тему в качестве первого результата при поиске по запросу «hugo site search» и «hugo site search», и я считаю, что хорошая поисковая система Hugo должна делать то же самое.)

DuckDuckGo slow to index
Проблемы, о которых говорит Стиобхарт при медленном индексировании с помощью DDG, я также испытал с этой поисковой системой. Таким образом, единственный способ достаточно простой реализации поиска для разработчиков, не работающих на Go, — это пользовательский поиск Google.

Альтернативы Swiftype?
Может быть, кто-нибудь знает об альтернативе Swiftype (бесплатной или доступной), которая управляет нашим поиском?

Как поисковые роботы индексируют ваш веб-сайт

Если вы когда-нибудь задумывались, как поисковые системы находят ваш сайт, ответ прост: они рассылают сканеры.Сканеры поисковых систем, созданные для имитации взаимодействия пользователей с вашим сайтом, просматривают структуру вашего контента и возвращают его для индексации.

Когда вы создаете свой веб-сайт, чтобы этим ботам было проще находить и анализировать важную информацию, вы не просто настраиваете свой веб-сайт на более высокий рейтинг; вы также создаете удобство для пользователей.

Мы кратко рассмотрели процесс сканирования в статье Как работают поисковые системы? Руководство по пониманию алгоритмов поисковых систем, но здесь мы делаем еще один шаг вперед.В этой статье подробно рассказывается об основных функциях поисковых роботов: вы узнаете о различных типах поисковых роботов, о том, как они работают, и о том, что вы можете сделать для их оптимизации.

В конце концов, задача каждого поискового робота — узнать как можно больше о том, что предлагает ваш веб-сайт. Повышение эффективности этого процесса гарантирует, что вы всегда будете отображать в поисковой выдаче самый актуальный контент.

Что такое сканер поисковой машины?

Сканеры поисковых систем, также называемые ботами или пауками, — это автоматизированные программы, которые поисковые системы используют для просмотра содержимого вашего веб-сайта.Руководствуясь сложными алгоритмами, они систематически просматривают Интернет, чтобы получить доступ к существующим веб-страницам и обнаружить новый контент. После сбора данных с вашего веб-сайта поисковые роботы возвращают их в свои соответствующие поисковые системы для индексации.

Пример поискового робота

На протяжении этого процесса сканеры просматривают HTML, внутренние ссылки и структурные элементы каждой страницы вашего веб-сайта. Затем эта информация объединяется и формулируется в исчерпывающую картину того, что может предложить ваш веб-сайт.

Как работают поисковые роботы?

Поисковые системы периодически рассылают этих ботов для сканирования и повторного сканирования вашего сайта. Когда сканер просматривает ваш сайт, он делает это методично, следуя правилам и структурам, определенным вашим файлом robots.txt и картой сайта. Эти элементы дают роботу инструкции, какие страницы следует просматривать, а какие игнорировать, и предоставляют актуальную информацию о составе вашего сайта.

Когда сканер заходит на ваш сайт, первое, на что он смотрит, — это ваши роботы.txt файл. В этом файле описаны конкретные правила, по которым части вашего веб-сайта должны и не должны сканироваться. Если вы не настроите это правильно, возникнут проблемы со сканированием вашего сайта, и его будет невозможно проиндексировать.

Две основные функции, на которые следует обратить внимание в файле robots.txt: allow и disallow :

  • Установка URL-адреса на allow означает, что веб-сканеры вернут их для индексации.
  • Установка для URL-адреса disallow означает, что поисковый робот будет их игнорировать.

Для большей части создаваемого содержимого следует установить значение разрешить — следует игнорировать только частные страницы, такие как учетные записи пользователей или страницы групп, содержащие личную информацию.

Вот шаблон того, как написать этот файл:

User-agent: [имя поискового робота]
Разрешить: [строки URL, которые нужно сканировать]
Disallow: [строки URL, которые вы не хотите сканироваться]

После того, как вы определили части вашего веб-сайта, к которым могут обращаться поисковые роботы, они будут перемещаться по вашему содержанию и структуре ссылок, чтобы проанализировать базовую структуру вашего веб-сайта.Чтобы сделать этот процесс более эффективным, сканеры просматривают вашу карту сайта.

Карта сайта — это файл XML, в котором перечислены все URL-адреса вашего веб-сайта. Он обеспечивает структурный обзор каждой страницы и направляет поискового робота по вашему сайту как можно быстрее и эффективнее. Карта сайта также может использоваться для присвоения приоритета определенным страницам вашего веб-сайта, сообщая сканеру, какой контент вы считаете наиболее важным. Поступая так, вы даете поисковым системам указание повысить воспринимаемую важность ранжирования.

Подумайте о веб-сканерах как о картографах или исследователях, стремящихся нанести на карту каждый уголок недавно открытого суши. Их экспедиция может выглядеть примерно так:

  1. Ползунки начинают работу с поисковой системы, чтобы подготовиться к своему путешествию.
  2. Они отправляются в каждый уголок Интернета в поисках данных (веб-сайтов), чтобы заполнить свою карту.
  3. Используя файлы robots.txt и карты сайта, сканер просматривает содержимое вашего сайта, чтобы составить полную картину того, что он содержит.
  4. Сканеры берут то, что они узнали на своем пути, и возвращают это домой поисковой системе.
  5. Затем они добавляют любую новую информацию о вашем сайте в основную карту поисковой системы, которая затем будет использоваться для индексации и ранжирования вашего контента в соответствии с рядом различных факторов.
  6. Оттуда сканеры делают все это снова, и снова, и снова, и снова.

В условиях постоянно меняющегося ландшафта веб-сайтов в Интернете поисковые роботы должны регулярно выполнять каждый из этих шагов, чтобы иметь самую свежую информацию.Для этого большинство поисковых роботов будут проверять ваш сайт каждые несколько секунд, гарантируя, что любые сделанные вами обновления будут своевременно проиндексированы, ранжированы и представлены поисковикам в поисковой выдаче.

При создании или обновлении своего веб-сайта подумайте о том, что вы можете сделать, чтобы поисковым роботам было как можно проще заполнять свои карты.

Топ-5 поисковых роботов

Каждая основная поисковая система на планете имеет собственный веб-сканер. Хотя каждый из них функционально выполняет одни и те же задачи, существуют небольшие различия в том, как каждый из них сканирует ваш сайт.Понимание этих различий поможет вам создать веб-сайт, адаптированный для каждой поисковой системы.

Googlebot

Как самая популярная поисковая система в мире, протоколы Google являются стандартом для большинства программ-роботов. Их сканер, одноименный робот Googlebot, на самом деле состоит из двух отдельных программ-роботов, одна из которых имитирует пользователя настольного компьютера, а другая — мобильного пользователя, названных Googlebot Desktop и Googlebot Smartphone соответственно. Оба бота будут сканировать ваш сайт примерно каждые несколько секунд.

По словам Нила Пателя, одна из лучших вещей, которые вы можете сделать для оптимизации своего сайта для робота Googlebot, — это упростить задачу: «Робот Googlebot не сканирует JavaScript, фреймы, DHTML, Flash и контент Ajax, а также добрый старый «HTML». Создание вашего сайта таким образом может иметь большое значение для упрощения работы и для ваших читателей — правильно отформатированный HTML-код обрабатывается намного быстрее и надежнее, чем другие протоколы.

Это означает, что ваш сайт будет работать быстрее, что является положительным сигналом, на который Google обращает внимание при ранжировании вашего сайта.В результате оптимизации вашего сайта для сканирования вы также увеличиваете его рейтинг. Помните об этом, когда читаете, как роботы других поисковых систем проверяют ваш сайт. Можно настроить структуру вашего веб-сайта, чтобы напрямую обращаться к каждому из них. Далее, Bingbot.

Bingbot

Первичный поисковый робот Bing называется Bingbot (, здесь вы увидите тему с именами) . У них также есть сканеры AdIdxBot и BingPreview для рекламы и страниц предварительного просмотра соответственно.Однако, в отличие от Google, у Bing нет отдельного сканера для мобильных сайтов.

Хотя Bingbot следует многим из тех же стандартов, что и Google, у вас есть дополнительный контроль, когда дело доходит до того, как и когда Bing сканирует ваш сайт. Bing оптимизирует время сканирования на основе собственных алгоритмов, но позволит вам настроить это время с помощью инструмента управления сканированием.

Управление сканированием через Bing

Этот элемент управления гарантирует, что у вас не возникнет проблем со скоростью сайта во время высокого входящего трафика.Bing также включает много информации о том, как они проводят этот процесс, в свои рекомендации для веб-мастеров.

Изучение этих рекомендаций поможет вам адаптировать свой сайт к их поисковому роботу, что поможет вам увеличить трафик и улучшить взаимодействие с посетителями. Когда вы понимаете, как Bing использует свой веб-сканер, это также помогает вам понять нашу следующую поисковую систему.

DuckDuckBot

DuckDuckBot — программа-обходчик для поисковой системы DuckDuckGo, ориентированной на конфиденциальность.Хотя DuckDuckGo использует API Bing для отображения релевантных результатов поиска, а также примерно 400 дополнительных источников, их собственный сканер по-прежнему выполняет часть работы по проверке вашего веб-сайта.

Основное отличие сканера заключается в том, что он в первую очередь отдает приоритет наиболее безопасным веб-сайтам. Хотя нетрудно понять, что вы должны использовать безопасный протокол SSL для своего веб-сайта, как для безопасности, так и для преимуществ SEO, DuckDuckBot уделяет внимание безопасности как наиболее важному фактору ранжирования.

Если вы ориентируетесь на рейтинги в DuckDuckGo, вам нужно понять, как сделать ваш сайт максимально безопасным. Это означает отказ от инвазивного отслеживания JavaScript или рекламных платформ для интеллектуального анализа данных. Но это может быть полезно, если ваша целевая аудитория заботится о безопасности / конфиденциальности.

Просто имейте в виду, что отслеживание результатов поиска на определенной платформе может быть проблематичным, если вы не будете осторожны. Не стоит навешивать на свой сайт слишком узкий таргетинг.

Baiduspider

Baiduspider — это веб-сканер китайской поисковой системы Baidu.Baiduspider — один из самых частых поисковых роботов в Интернете, который следует учитывать в первую очередь, когда вы ориентируетесь на определенную международную аудиторию. У них также есть особые правила чтения файла robots.txt.

Когда вы создаете файл robots.txt для Baiduspider, у вас есть возможность проиндексировать свой сайт и, в то же время, заблокировать следующие функции:

  • Переход по ссылкам на странице
  • Кэширование страницы результатов
  • Просмотр изображений

Такая специфичность дает вам больше контроля, чем многие другие поисковые роботы, о которых мы сегодня говорим.Baidu также сообщает нам, что они используют несколько различных агентов для сканирования определенных типов контента. Это дает вам возможность создавать еще более точные правила на основе бота, который, по вашему мнению, активно сканирует ваш сайт.

Яндекс-бот

Яндекс-бот — это краулер для российской поисковой системы Яндекс. Подобно Baidubot, они используют один и тот же сканер для всего Интернета с разными агентами для определенных типов контента. Кроме того, есть специальные теги, которые вы можете добавить на свой сайт, чтобы упростить индексацию Яндексом.

Самым заметным из этих трекинговых тегов является Яндекс.Метрика . С помощью этого тега у вас есть возможность напрямую увеличить скорость сканирования Яндекс. Привязка его к вашей учетной записи Яндекс веб-мастера делает еще один шаг вперед, еще больше увеличивая скорость.

Когда вы думаете о том, как настроить таргетинг на конкретных поисковых роботов с помощью инфраструктуры вашего веб-сайта, учтите, что каждый из них ищет более или менее одно и то же, с небольшими изменениями в том, как они это делают.Создание логичного сайта, структурированного в соответствии с правилами, о которых мы говорили в статье «Как работают поисковые роботы?» раздел, с которым легко взаимодействовать, гарантирует, что у вас будет максимальный рейтинг с этой точки зрения.

Оптимизация вашего сайта для поисковых роботов

Поисковые роботы применяют очень систематический подход к проверке вашего сайта. Понимание того, как они собирают информацию и возвращают ее для индексации, помогает повысить ваш рейтинг.Любые оплошности в процессе могут не только повредить вашему рейтингу, но и сделать ваш сайт невидимым для поисковых систем.

Самое важное, что вам нужно сделать, — это создать стандартизированный файл robots.txt и обновленную карту сайта. Это гарантирует, что в соответствии с плиткой robots.txt будут сканироваться только соответствующие страницы вашего веб-сайта. И вы всегда сможете продемонстрировать правильную структуру ссылок и их приоритет в своей карте сайта. Чтобы упростить эту задачу, вы можете определить свою карту сайта прямо в файле robots.txt:

User-agent: [имя поискового робота]
Разрешить: [строки URL, которые нужно сканировать]
Disallow: [Строки URL, которые не нужно сканировать]

Карта сайта: https://www.yourdomain.com/sitemap.xml

Просто убедитесь, что вы используете правильную структуру URL, основанную на провайдере вашего веб-сайта.

Для большинства ботов, с которыми вы встретитесь, скорость сканирования будет оптимизирована на основе определенных правил в алгоритмах поисковых систем. Но всегда полезно перепроверить скорость сканирования, когда у вас есть такая возможность.Bing, DuckDuckGo и Baidu предоставляют инструменты для проверки и обновления скорости сканирования в зависимости от того, что лучше всего подходит для вашего сайта. Если ваш сайт получает приток трафика утром в будние дни, регулировка скорости сканирования позволяет вам указать роботу замедлить работу в это время и сканировать больше поздно вечером.

Используя эту логику, вы можете спланировать график публикации для создания общедоступного контента непосредственно перед тем, как поисковые роботы сделают свою работу. Таким образом вы обеспечите максимально быстрое сканирование, индексирование и ранжирование каждой новой страницы, которую вы создаете.

Еще один способ обеспечить такой уровень эффективности сканирования — использовать внутренние ссылки. Когда вы соединяете похожие страницы вместе логичным и простым способом, это дает поисковым роботам простой способ быстрее просматривать контент. Это позволяет им составить более полную картину общей ценности вашего сайта.

Внутреннее связывание для модели Hub and Spoke через Animalz

Не забывайте и о возможностях внешнего связывания. Когда на вас ссылаются из доменов с более широкими полномочиями или с более длительным сроком владения в Интернете, это дает поисковым роботам повод для обеспечения максимальной актуальности вашей страницы.Многие из этих программ будут отдавать приоритет веб-сайтам с более высоким рейтингом и надежностью домена, поэтому чем больше ссылок вы сможете собрать, тем более привлекательным будет ваш сайт.

Сканирование — это первый шаг к повышению рейтинга вашего контента в поисковых системах. Важно оптимизировать этот процесс, чтобы любой сканер поисковой системы, который попадает на ваш сайт, мог быстро проанализировать структуру и вернуться домой, чтобы добавить ее в индекс. Таким образом, вы на один шаг приблизитесь к тому, чтобы ваш сайт попал в поисковую выдачу.

Упростите сканирование вашего сайта

Когда сканер поисковой системы просматривает ваш сайт, он делает это во многом так же, как и пользователь. Если правильно проанализировать данные сложно, вы настраиваете себя на более низкий рейтинг. Зная основную технологию и протоколы, которым следуют эти сканеры, вы с самого начала сможете оптимизировать свой сайт для повышения его рейтингового потенциала.

Оптимизация возможности сканирования вашей страницы, вероятно, является одним из самых простых технических изменений, которые вы можете внести на свой веб-сайт с точки зрения SEO.Если ваша карта сайта и файл robots.txt в порядке, любые внесенные вами изменения будут отображаться в поисковой выдаче как можно скорее.

Как поисковые системы используют искусственный интеллект для получения результатов

Поисковые системы невероятны. Вы переходите к своему любимому, вводите несколько ключевых слов, и поисковая система волшебным образом обыскивает весь Интернет, чтобы найти наиболее релевантный результат поиска для каждого поискового запроса.

За исключением того, что это, конечно, не волшебство.

Это алгоритмы и множество идей от множества гениальных людей.

И мы начали интересоваться:

В какой степени поисковые системы используют искусственный интеллект и машинное обучение, имея за плечами все блестящие умы?

Благодаря тем же поисковым системам я смог найти отличное исследование, объясняющее, как работают возможности поисковой системы AI.

Поисковые системы используют искусственный интеллект для контроля качества

Раньше некоторые «специалисты по SEO» обыграли систему с помощью сомнительных методов, которые мы стали называть «методами черной шляпы SEO».«

Сюда входят агрессивное наполнение ключевыми словами, маскировка, невидимый текст — список можно продолжить. Независимо от техники, у них была одна цель: обыгрывать каждую страницу результатов поисковой системы (SERP), которую они могли.

Конечно, это наносило ущерб поисковым системам, потому что страницы, которые были на вершине их результатов, не обязательно были самого высокого качества.

В настоящее время они обновили свои алгоритмы и используют ИИ, чтобы отделить высококачественный контент от низкокачественного спама.

Мы подозреваем, что по мере развития ИИ он полностью возьмет на себя эту ответственность и полностью устранит потребность в оценщиках качества человека.

Поисковые системы используют ИИ для создания алгоритмов ранжирования

Искусственный интеллект не только защищает поисковые системы от манипуляций, но также помогает им с их алгоритмами ранжирования.

Невозможно сказать, насколько большую роль в этом играет ИИ, но поисковые системы определенно используют искусственный интеллект для улучшения своих алгоритмов ранжирования.

Если говорить более конкретно, эта конкретная область искусственного интеллекта включает в себя обучение ранжированию алгоритмов.

Машины учат создавать оптимальный список из набора возможных результатов, изучая каждую переменную с течением времени.

Например, если один результат в поисковой системе занимает третье место, но имеет более высокий рейтинг кликов, чем параметры над ним, поисковая система извлечет уроки из этой аномалии и поднимет этот результат на вершину.

Поисковые системы используют НЛП и анализ изображений для понимания поисковых запросов

Поисковые системы — это компьютерные приложения, но они должны понимать человеческий язык, чтобы находить пользователям информацию, которую они ищут.

Это учебное приложение по обработке естественного языка (NLP), области искусственного интеллекта, предназначенной для обучения компьютеров пониманию нашей письменной речи.

По крайней мере, и Google, и Microsoft используют NLP, чтобы понять своих пользователей.

В ходе исследования Вашингтонского университета был изучен Яндекс, четвертая по величине поисковая система в мире, и было обнаружено, что в ней есть несколько передовых приложений НЛП и машинного обучения.

Разработчики Яндекса обнаружили, что они могут взять все предыдущие поисковые запросы своих пользователей и использовать их для оптимизации будущих поисков.

Создав эти персонализированные результаты поиска, они увеличили рейтинг кликов примерно на 10%.

Search Engine Journal также указывает, что поиск Google использует некоторые из тех же методов, оптимизируя результаты поисковых систем на основе последних предыдущих запросов, и позволяет пользователям выполнять поиск только по фотографии (которая использует другое поле искусственного интеллекта).

Что это значит для SEO?

Вот большой вопрос для маркетологов: как ИИ изменит наши методы оптимизации для SEO?

Это довольно просто.Поисковые системы предназначены для того, чтобы находить пользователей то, что они ищут. С машинным обучением они дойдут до того момента, когда они найдут именно это.

Это отлично подходит для маркетологов, потому что означает, что победит лучший и наиболее релевантный контент.

Выбор правильных ключевых слов и следование лучшим методам SEO будут оставаться важными, но по мере того, как поисковые системы станут более интеллектуальными, релевантность и качество контента будут главными факторами ранжирования.

По мере того, как поисковые системы с искусственным интеллектом собирают больше данных, они начинают лучше предоставлять результаты.Это не означает, что вам нужно обыгрывать алгоритм. Никто никогда не узнает точно, что входит в алгоритм искусственного интеллекта, на котором работает любая отдельная поисковая система.

Но это означает следующее:

Поисковые системы оптимизируют что-то очень простое. Они хотят, чтобы пользователь чаще и чаще использовал их поисковую систему.

Для этого им нужно подать лучший результат. Если они этого не сделают, пользователи уйдут в другое место.

Поисковые системы, как бренды и люди, должны защищать репутацию.Они не хотят допустить плохого качества результатов.

Это влияет на все, от ключевых слов и качества контента до скорости загрузки страницы и ее восприятия.

Нет никаких сомнений в том, что тактика продвинутой поисковой оптимизации важна.

Но когда вы думаете о своей стратегии SEO в мире, где прежде всего искусственный интеллект, задайте себе следующий вопрос:

Является ли мой контент чем-то, чем Google хочет служить своим пользователям? Если вы думаете, что ответ положительный, значит, вы уже на правильном пути.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Copyright © 2021
Дропшиппинг в России.
Сообщество поставщиков дропшипперов и интернет предпринимателей.
Все права защищены.
ИП Калмыков Семен Алексеевич. ОГРНИП: 313695209500032.
Адрес: ООО «Борец», г. Москва, ул. Складочная 6 к.4.
E-mail: [email protected] Телефон: +7 (499) 348-21-17