Собрать семантику: Правильно собрать семантическое ядро для продвижения сайта — SEO на vc.ru

Содержание

Семантическое ядро для контекстной рекламы: как собрать семантику?

Автор Сергей Шевченко На чтение 7 мин Просмотров 192 Опубликовано

Для получения хороших результатов от запуска интернет-рекламы, необходимы ресурсы и время на её оптимизацию. Но одним из важнейших этапов в настройке любой кампании является составление семантического ядра для контекстной рекламы.

Именно грамотная работа в этом направлении является залогом высокой эффективности кампании. Плохо подобранная семантика будет потреблять огромные ресурсы без адекватной отдачи.

Что такое семантическое ядро для контекстной рекламы?

Семантическое ядро для рекламной кампании представляет собой перечень словосочетаний, по которым пользователи, заинтересованные в продукте, смогут увидеть объявление.

Важно! Именно на этапе создания ядра начинается конкурентная борьба за покупателя. От того, как хорошо Вы чувствуете клиента, понимаете его потребности и можете предугадать формулировки его запросов в поиске, зависит продуктивность кампании.

Три четверти успеха закладывается на уровне семантики, а значит именно её качеству следует уделить особенно пристальное внимание.

Почему важно собрать качественную семантику для рекламной кампании?

Грамотно распоряжаться маркетинговым бюджетом, привлекать наибольшее количество целевых посетителей позволяет подбор эффективных ключевых слов. Но как собрать семантическое ядро для контекстной рекламы профессионально, и что это даёт рекламодателю?

Профессионально подобранные ключевые запросы позволяют в дальнейшем получать определённые выгоды:

  1. Отказ от неконвертируемых запросов. В процессе формирования семантического ядра некоммерческие ключи, которые не приводят к заключению сделки, отсекаются. Невозможно получить максимальное число лидов по высокочастотному или неконкретному запросу. Например, если запустить объявление по ключевому словосочетанию «машинная штукатурка», то, не уделив должного внимания минус-словам, есть риск получить аудиторию, которая ищет «машинная штукатурка как сделать самому» или «машинная штукатурка фотографии». При внимательном подходе к формированию семантики подобные ключи добавляются в минус-слова и тем самым отсекаются. Потенциально эффективные для получения целевого трафика словосочетания при этом не страдают;
  2. Рациональное расходование бюджета. Качественно подобранная семантика позволяет минимизировать количество нецелевых переходов по объявлению. Вследствие этого средства тратятся только на тех посетителей, которые заинтересованы в сделке. А формирование списка низкочастотных ключевых фраз позволяет собрать менее конкурентные и, следовательно, более дешёвые целевые запросы;
  3. Повышение конверсии. Правильно сформированное семантическое ядро позволяет максимизировать эффект от кампании, что неизбежно выражается в росте продаж;
  4. Аналитика. Последующая работа со список словосочетаний заключается в его оптимизации, ведь, как бы профессионально и скрупулёзно не были подобраны запросы, среди них обязательно будут такие, которые формируют лиды хуже других. Анализ с использованием статистики в Google Analytics позволяет выявлять их и выключать, а также дополнять перечень минус-слов.

Основные способы сбора семантики для контекстной рекламы

 

Сбор семантического ядра для контекстной рекламы можно осуществлять двумя способами.

Первый подразумевает отказ от специальных инструментов для формирования перечня ключей и основан исключительно на догадках о том, как могут искать пользователи тот или иной продукт. Такой подход опасен. Основываясь лишь на собственных умозаключениях, можно упустить много высокоэффективных ключей или включить в семантику фразы с нулевой частотностью.

Второй метод заключается в применении инструментов, которые позволяют оценить реальную картину — фактические запросы аудитории. Они помогают получить информацию о конкурентах, скрупулёзно собрать семантику и сформировать исчерпывающий перечень запросов. Релевантность рекламы при таком подходе значительно увеличивается.

Совет! Увеличить отдачу рекламной кампании и составить качественное семантическое ядро, можно, комбинируя оба подхода.

Как составить семантическое ядро для рекламной кампании?

Чтобы собрать ключевые запросы, необходимо выполнить несколько шагов, логическую последовательность которых менять не рекомендуется.

Собираем маркерные запросы

Маркеры или группообразующие слова (их ещё называют базисами или кластерами) — это слова, служащие источником для парсинга, в процессе которого подбирается основной набор фраз или словосочетаний.

Например, перечень, собранный по маркеру «газонокосилка»‎ выглядит так:

Важно! Для парсинга следует подобрать все варианты фраз, используемых с целью продвижения в контекстной рекламе для конкретной кампании.

В качестве примера для садовой техники маркерами являются «культиваторы», «триммеры», «аэраторы» и пр.

Используем планировщик ключевых слов от Google Ads

В блоке «Инструменты и настройки» этого сервиса есть инструмент под названием «Планировщик ключевых слов». Пользоваться им можно бесплатно.

Формировать список ключей можно двумя способами:

  • Самостоятельно задать базовые слова;
  • Ввести домен интернет-ресурса или адрес отдельной страницы.

Здесь также можно найти данные об усреднённом ежемесячном количестве запросов и уровне конкуренции по ним:

Используем инструменты для автоматизации

Для того чтобы собрать ключевики вручную, используя планировщик Google Ads, требуется время. Сэкономить ресурсы помогут специальные сервисы автоматизации. Такие инструменты помогают сгруппировать в таблице не только ключевые фразы, но и добавить в неё показатели конкуренции и частотности.

Key Collector — один из примеров таких программ. Инструмент платный и предлагает широкие функциональные возможности для тех, кто занимается семантикой на профессиональном уровне и имеет дело с ядрами, содержащими более полутысячи ключей.

Софт позволяет оперативно спарсить и собрать частотности. Из него можно быстро выгрузить готовый массив данных для последующей работы, правда сам инструмент доступен только в рамках одного устройства.

Выгружаем семантику из Google Analytics

Чтобы составить семантическое ядро для контекстной рекламы, можно воспользоваться накопленной статистикой по органическому трафику, экспортировав в Excel запросы за максимально большой промежуток времени из Google Analytics. Для этого Вам нужно будет связать между собой аккаунты Analytics и Search Console. Далее эта функция доступна в подраразделе «Запросы» раздела «Search Console» в меню «Источники трафика».

Подглядываем у конкурентов

Способ с выгрузкой ключей из органики применим только к сайтам с историей. Если же ресурс новый, и такого трафика ещё не существует, то можно воспользоваться информацией о запросах конкурирующих компаний.

Помогают в этом несколько сервисов. Удобнее всего для Google Ads воспользоваться сервисом Serpstat. В ней наиболее полная база ключевых слов на русском языке как из платной выдачи, так и из органики Google.

Serpstat даёт возможность проанализировать конкурентов, контекстные объявления и семантику по ним. Сервис может работать с разных устройств в мультипользовательском режиме, поэтому подходит для тех, кто планирует применять его в команде.

Смотрим поисковые подсказки

Подсказки в поиске — неочевидный, но очень хороший источник для дополнения семантики. Их можно выгрузить, используя специальные программы или напрямую из поисковой выдачи Google.

Обе описанные выше программы — Key Collector и Serpstat — имеют соответствующий функционал.

Особенности составления семантического ядра для КМС Google

Формирование семантического ядра для КМС имеет свои особенности. Важно помнить следующие правила:

  • Для рекламы в КМС нет необходимости в сборе низкочастотных фраз, поскольку в этой сети поисковые запросы как таковые отсутствуют;
  • Применение минус-слов должно быть крайне аккуратным, так как они могу сильно сократить трафик;
  • При настройке показов в КМС используйте широкое соответствие – фразовое и точное вхождение значительно сократит количество показов.

Какие ошибки допускают при сборе семантики для контекстной рекламы?

В работе над семантикой для контекстной рекламы наиболее часто встречаются следующие ошибки:

  • Создание страниц исключительно под ключи. Бесконечно расширять структуру ресурса не нужно. Гораздо эффективнее использовать похожие по смыслу или идентичные ключевые фразы для одной страницы;
  • Упор на наиболее конкурентные фразы и стремление получать большую часть трафика именно по ним. Такие ключи можно оставить, но попытки обогнать по ним конкурентов малоэффективны и слишком затратны;
  • Неиспользование низкочастотников. Наиболее заинтересованные посетители оказываются на сайте именно по таким ключевым словосочетаниям, что помогает быстрее подняться в выдаче поисковиков;
  • Желание максимально автоматизировать процесс. Инструменты только группируют слова по определённым критериям, но проанализировать их качество можно только вручную.

Применяя почерпнутые из статьи знания и информацию, вы сможете профессионально подойти к составлению семантического ядра, что станет залогом успешности Вашей рекламной кампании.

Как вручную собрать семантику?, видеосовет 12

Один из способов сборки семантического ядра — ручной. Он не имеет никакой автоматизации. Рассмотрим этот способ на конкретном примере.

Возьмем простой сайт с тематикой лотерейных автоматов. Уже из беглого обзора сайта очевидны основные ключевые слова: «лотерейный автомат», «лотерейные автоматы» или перефразированное «автоматы для лотереи». Для удобства поместив эти запросы в Excel-файл, продолжаем изучение сайта. Изучаем разделы меню на предмет сбора семантических данных. В пункте меню «оборудование» в заголовках видим слова, которые могут нам подойти. Это «игровое оборудование», «лотерейное оборудование», «продажа оборудования для лотереи». Вносим их в Excel -файл.

К запросу «игровое оборудование», который можно отнести также к детской тематике, нужно задать специфическое слово, потому меняем этот запрос на «игровое лотерейное оборудование» и добавляем вариацию «игровое оборудование для лотереи». Возвращаемся к сайту и продолжаем поиски. Изучаем подразделы «терминалы», «лотерейные аппараты» и «консоли», которые также подходят к тематике. Аналогичным образом продолжаем искать запросы и добавляем слова, встречающиеся в каждом запросе коммерческого сайта, такие как «цена», «купить», «продажа». Объединяем эти типичные запросы с ранее найденными ключевыми словами, превращая их в соответствующие словосочетания, например: «купить лотерейные автоматы», «автоматы для лотерей купить» и т.п.

Что еще может помочь нам в ручном сборе семантики? Конечно, это сервис Яндекса — WordStat. Выбираем регион продвижения, например «Москва и область», и вводим запрос «лотерейные автоматы». Сервис показывает нам вариации запросов с ключевыми словами, которые вводились пользователем.

WordStat выдает информацию в двух колонках — левой и правой. В основном семантика собирается из левой колонки, но если у запроса есть какая-то другая форма — она будет отражена в правой. Ищем по колонке запросы, подходящие под нашу тематику. Находим запросы, которые ранее упустили, и добавляем в список. Сервис также показывает частотность запросов, которую мы вписываем отдельно по каждому ключу. С помощью частотности можно определить вид запроса, она также пригодится в чистке семантического ядра и в целом поможет в продвижении.

Частотность бывает общая и точная. Общая частотность показывает, сколько раз в месяц запрос, содержащий ключевое слово, был введен пользователями, а точная частотность показывает, сколько раз был введен именно такой запрос «лотерейные автоматы», а не вариации, например: «лотерейных автоматов», «купить лотерейные автоматы» и т.п. Чтобы получить точную частотность, достаточно заключить нашу фразу в кавычки и поставить перед каждым словом восклицательный знак.

Полученную информацию включаем в файл с семантикой. Помочь со сбором семантики могут также подсказки и подсветки самого поиска Яндекса. Чтобы получить подсказку, вводим в поиск ключевое слово и из всплывающего окна, предлагающего похожие запросы, выбираем подходящие. Для того чтобы собрать информацию при помощи подсветки, вводим ключевое слово и смотрим на выдачу. Отсеиваем все, что уже внесено в наш список, ищем слова, которые расширят его. Например, «лотомат». Добавляем его и вариации вроде «купить лотомат» и «продажа лотоматов» в список. В итоге получаем семантическое ядро с запросами, общей и точной частотностью.

Как собрать семантику сайта и не переплачивать за рекламу

Статья для всех, кто не хочет платить за неэффективную рекламу

Итак, вы запустили лендинг или сайт и хотите получить первые лиды (пользователей, готовых совершить покупку) быстро и желательно недорого. Для этого нужно собрать семантику, или семантическое ядро — ключевые слова, соответствующие подходящим поисковым запросам пользователей. Рассмотрим наиболее простой и надежный метод, которым пользуются профессионалы.

  1. Регистрируем новый почтовый ящик на Яндекс.Почта.
  2. Переходим на страницу Яндекс.Вордстат.
  3. Устанавливаем регион поиска в зависимости от географии бизнеса. Это можно сделать, нажав на кнопку «Все регионы» под поисковой строкой справа.
  4. Попробуем набрать поисковый запрос «купить автомобиль», в ответ Wordstat выдает два окна. В левом окне мы видим наш запрос и все запросы, которые входят в него в порядке убывания по частоте поиска в месяц. В правом — похожие по смыслу запросы (здесь, правда, далеко не все подойдет для работы).
  5. Маленький лайфхак: заходим в настройки браузера, выбираем «Расширения», через поиск находим плагин Yandex Wordstat Helper и устанавливаем его, перезапускаем браузер. После установки на странице Вордстата у каждого запроса появится черный плюсик, при нажатии на который слова будут добавляться в окно слева.
  6. Проходимся по релевантным запросам, добавляя их в левое окно с помощью установленного плагина.
  7. После того, как все слова собраны, переносим их в Excel.

Попробуем собрать семантику для небольшого производства сладостей, не содержащих сахара. При запросе «сладости без сахара» в Вордстате получаем много неинтересных с точки зрения бизнеса результатов: «сладости без сахара рецепт», «сладости без сахара своими руками». Наша задача — сузить семантику, чтобы рекламное сообщение показывалось тем, кто планирует их купить: «сладости без сахара купить», «полезные сладости купить» и т.д.

Настало время для самого долгого и ответственного этапа — сбора минус-слов (это те слова или словосочетания, по которым мы не хотим показывать рекламу).

Для этого прямо в поисковой строке ставим знак минус («-») и без пробелов вводим ненужные слова из списка ниже. Для уже знакомых нам сладостей это может выглядеть так: «купить полезные сладости -недорого, -дешево, -на развес» и т.д. Чем точнее на данном этапе вы отберете минус-слова, тем эффективнее будет работать реклама.

После ввода каждого нового минус-слова можно обновлять выдачу. Далее экспортируем минус-слова в Excel, а оставшиеся в выдаче слова с помощью плагина добавляем в свой список.

Вот еще лайфхак: для удобства подбора слов можно использовать несколько операторов:

  • «+предлог» обеспечивает учет предлогов во фразах
  • квадратные кавычки «[запрос]» фиксируют порядок слов
  • восклицательный знак «!ключевое !слово» фиксирует окончание слова

О типах запросов и настройке рекламы мы расскажем в следующих статьях.

Как быстро собрать семантику и узнать конкурентов


Введение

Услуга: ремонт мелкой небытовой техники — ноутбуков, планшетов, телефонов, автомагнитол, фотоаппаратов.

Регион: Луганск.

Год: 2013.

Предварительная подготовка

Собираем матрицу запросов с маркерами.


Базовый список характеристик:

  • «Коммерческое действие» — купить, заказать, продажа, аренда, ремонт и т.д.
  • «Объект действия» — что покупаем, заказываем, продаём, сдаём, ремонтируем. 
    В примере — телефоны, ноутбуки, планшеты.
  • «Конкретнее» — виды или типы объекта действия.
    В примере указаны бренды, могут быть и характеристики.
  • «Как» — дополнительный важный функционал услуги. 
    Для ремонта — стоимость, скорость и гарантии.
  • «Где» — место оказания услуги, топоним. В примере — Луганск.
    Для Москвы добавим сокращение «мск», для Санкт-Петербурга — «спб», «петербург», «питер».

Генерируем семантику по маркерам и делаем кластеризацию

Основные:

  • «Действие» — «Объект»;
  • «Действие» — «Объект» — «Где».

По виду:

  • «Действие» — «Конкретнее» только для брендов каждого вида техники,
    в примере просто перемножены первые попавшиеся;
  • «Действие» — «Объект» — «Конкретнее»;
  • «Действие» — «Объект» — «Конкретнее» — «Где».

Автоматизируем рутину

Полезный макрос для генерации одного столбца на другой в конце статьи.
Клёвая веб-версия.

Еще одна, продвинутая, от Евгения Трофименко. Подходит и для генерации ссылок

Результат

Базовая семантика c небольшой кластеризацией.

Недостатки

Много пустышек — надо отсеивать. Но нет нецелевых запросов 😉 
Малый охват семантики — надо расширять.

Маркерные запросы основной группы добавляем в КейКоллектор. 
В дополнение — Букварикс или другие базы. 
Парсим ключевые слова. Очищаем стандартными списками стоп-слов. 
Группируем руками или сервисами — Раш Аналитикс, Топвизор, Джаст-Мэджик.

Получаем конкурентов

Полученный список запросов по группам добавляем в Оллпозишнс.
После анализа позиций и частотности открываем вкладку «Конкуренты». 
Копируем список конкурентов, проценепересечения по запросам и видимость.

Анализируем — в сервисе массового сравнения сайтов или Чектрасте.

Получаем эксельку с кучей данных.
Делаем выводы, считаем сроки и стоимость проекта.

Скачать эксельку с макросом.




Комментарии:


← SEO-совет №2: как быстро переиндексировать доноров ∙ Мысли с круглого стола по теме «Перспективы потокового продвижения» →

9 подходов / Блог компании Click.ru / Хабр

Собрать семантику для контекста — это часть дела. Ее еще нужно упорядочить — чтобы можно было удобно и эффективно управлять кампаниями. Но как группировать ключи? Мы собрали 9 подходов. Здесь нет правильных и неправильных — все они применимы в тех или иных ситуациях, и все имеют как плюсы, так и минусы. Об этих подходах полезно знать, чтобы протестировать их и, возможно, найти точки роста.


Содержание статьи

1. Все ключи — в одну группу объявлений

Самый простой способ — отправляем все ключи в одну группу и пишем для нее одно или несколько объявлений. Хотя такой метод и кажется каким-то неправильным, он имеет право на жизнь.


По всем этим ключам в одной группе может показываться объявление с рекламой онлайн-курсов копирайтеров

Когда подходит


  • Вы запускаете рекламу одного оффера с узкой семантикой и одной целевой страницей.
  • Ставки по ключевым фразам плюс-минус одинаковые.
  • Целевая аудитория однородна и вам нет смысла писать много объявлений, чтобы триггерить разные сегменты.
  • Вы хотите расширить семантику в узкой нише и запускаете рекламу в широком соответствии по базовым ключам, а потом собираете запросы, по которым были переходы, и по ним уже расширяете ядро.

В большинстве же случаев такой способ группировки неэффективен. Он приведет к хаосу в аккаунте. Лучше потратить время на систематизацию семантики.

Плюсы:


  • Не нужно тратить время на разбивку ключевых фраз на группы и написание объявлений для каждой из них.
  • Можно быстро запустить кампанию, чтобы, например, протестировать идею или найти новые запросы.
  • Не нужна кросс-минусовка, потому что нет разных групп, а значит, и пересекающихся ключевых слов в них.

Минусы:


  • При большом количестве ключей в одной группе чисто физически сложно управлять кампанией.
  • Эффективность группы объявлений «размазывается», и вам не с чем будет сравнивать результаты.
  • При добавлении в группу разнородных ключей снижается качество и рейтинг объявлений. Вам сложнее будет занять более высокую позицию без повышения ставки.
  • Когда ключевых фраз много и они совершенно разные, не получится вписать их в заголовки и тексты объявлений для повышения кликабельности.
  • Для разных фраз могут быть разные ставки, и мы переплатим за клики там, где можно было бы сэкономить (или не получим переходов по дорогим запросам).

2. Группировка по продуктовому принципу

Заносим в одну группу ключевые фразы, которые относятся к конкретному товару/услуге/категории. Например, первая группа будет про двигатели, а вторая — про подвеску. Так мы можем показывать релевантные объявления пользователям, которые ищут одни и те же товары или услуги с помощью разных поисковых запросов.


С помощью запросов «ремонт двигателя», «ремонт мотора» и «ремонт движка» пользователи ищут одну и ту же услугу

Когда применять

Метод используется, например, при подборе ключевых слов с помощью Планировщика ключевых слов Google. Вводите название товара/услуги и получаете запросы, в том числе синонимы. Если добавить в одну группу собранные «Планировщиком» слова, получите группировку по продуктовому принципу.


Подбор слов через «Планировщик ключевых слов»

Часто таким способом пользуются рекламодатели, которые настраивают контекст для себя и не имеют большого опыта работы с семантикой. Зашли в Планировщик — сгруппировали руками по продукту — запустили рекламу.

Если же вы собрали семантику в несколько тысяч запросов, то заниматься группировкой синонимов трудозатратно и не имеет смысла. Лучше разнести их по отдельным группам путем группировки по морфологии (см. пункт 3).

Также способ не подойдет, если ставки по синонимичным фразам отличаются в разы или много неоднозначных по смыслу запросов, которые важно проработать, чтобы исключить нецелевые показы.

Плюсы:


  • Группировка проста для понимания и реализации — есть отдельные группы объявлений под разные товары, услуги и категории.
  • При группировке по продуктовому принципу при составлении объявлений удобно использовать генераторы — например, бесплатный генератор из YML (о нем мы рассказывали). Загружаете YML-фид, настраиваете шаблон, получаете объявления и разбрасываете их по группам.

Пример настройки шаблона объявления в генераторе из YML

Минусы:


  • С таким подходом в одну группу могут попасть поисковые запросы, которые вводят пользователи с разными намерениями.
  • Ставки по синонимичным запросам будут отличаться. В этом случае, объединяя запросы, мы не можем эффективно назначать ставки на уровне группы объявлений.

Разная ставка для одинаковых по своей сути запросов


  • Если мы объединяем в группе много синонимов, придется составлять много разных объявлений. Как вариант, можно использовать динамическую вставку ключевых слов — это частично решит проблему.

Пример настройки динамической вставки ключевых слов в Google Ads


3. Группировка на основе морфологической схожести

Распределяя ключи этим способом, отправляем в одну группу фразы с одинаковыми или однокоренными словами. В итоге синонимичные запросы с разными словами попадут в разные группы, и мы получим несколько групп объявлений для одних и тех же товаров и посадочных страниц.


В группы попадают максимально похожие запросы

Когда применять

Группировка на основе морфологической схожести — это системная работа с ключами. Подходит практически для любых тематик с обширной семантикой, особенно если много однокоренных слов.

Создавая релевантные объявления под запросы, мы повышаем кликабельность. Кроме того, одинаковые по своей сути, но разные по морфологии запросы обычно имеют разную цену клика. Разнося их по группам, мы более гибко управляем ставками.

Плюсы:


  • Это универсальный способ группировки — подходит для любых ниш.
  • Делая отдельную группу для каждой морфемы, мы можем точно вписать ключевые фразы в заголовки и тексты объявлений, что повысит их релевантность и кликабельность.
  • Такая группировка позволит получить детальную статистику по группам и гибко управлять рекламой. Например, мы будем знать, какая группа более эффективна: «купить рено» или «купить renault».
  • Семантику удобно группировать — это можно сделать в том же Excel. А если использовать, например, Key Collector, то сгруппировать фразы по этому принципу можно еще быстрее.

Минусы:


  • В группу могут попасть запросы с однокоренными словами, которые вводят пользователи с разными намерениями. Например, «купить ноутбук» — это запрос розничного покупателя, а «купить ноутбуки» — может быть запросом оптового клиента.
  • Из-за того, что синонимы разносятся по разным группам, объявления из разных групп могут показываться по одним и тем же запросам. Чтобы избежать конкуренции между ними, нужно провести кросс-минусовку.

4. Группировка по намерениям (интенту) пользователей

Люди, которые вводят в поиске название вашего товара или услуги, руководствуются разными намерениями — одним нужен товар для личного пользования, другим — оптовая партия, третьим — вообще монтаж.

Так мы получаем три группы объявлений — для тех, кому нужны:


  • двери в свою квартиру;
  • оптовая партия дверей;
  • услуги по установке.

Запросы с разным интентом разносим в разные группы

А если бы мы сгруппировали эти ключи по морфологическому принципу и взяли за основу фразу «межкомнатные двери», то они бы попали в одну группу.

Есть разные механики группировки по интенту. Самый простой вариант — в группы заносятся слова в широком соответствии. Но в этом случае сложно контролировать показ объявлений по нужным словам. Потребуется длительная и тщательная минусовка.

Есть подход IBAGs, который предложили в Store Growers. Суть в том, что каждый ключ заносится в группу в трех типах соответствия: точном, фразовом и с модификатором (для Google Ads). Широкое соответствие не используется. В этом случае уменьшится процент нецелевых показов.

IBAGs является вариацией SKAG-подхода (мы еще остановимся на нем) — с той лишь разницей, что в каждой группе не один ключ в трех типах соответствия, а несколько ключей в тех же трех типах соответствия.

Когда применять

Группировка по поисковому интенту может принести лучший результат, чем по продуктовому или морфологическому принципу. Но она требует больше ресурсов. Поэтому метод целесообразно использовать:


  • в сложных нишах с длительным сроком принятия решения о покупке/заказе, высокой конкуренцией и дорогим трафиком;
  • в любых нишах — при небольшом объеме семантического ядра, когда не придется тратить недели на группировку.

Плюсы:


  • Объединяя ключи по намерениям, мы можем написать для группы более релевантное объявление, чем при группировке по продуктовому принципу. Это повысит CTR, рейтинг объявления и конверсию.
  • Анализируя намерения пользователей, мы уделяем больше внимания смыслу поисковых запросов, а значит, не добавим в одну группу похожие морфологически, но разные по смыслу фразы.

Минусы:


  • Группировка более затратна по времени и сложнее автоматизируется, чем разделение по морфологическому принципу, потому что нужно просмотреть все запросы и выбрать слова со схожими намерениями. И это основной минус. Частично решить проблему трудоемкости помогает кластеризация — на ней мы остановимся отдельно.
  • При таком подходе в группу попадут разные слова. Не все из них получится вписать в заголовки и тексты объявлений. Но при желании можно или увеличить количество объявлений, или использовать динамическую вставку ключевых слов.

Разные по морфологии слова с похожим интентом


5. Группировка по этапам воронки продаж

Этот метод — частный случай группировки по интенту. На разных этапах воронки продаж — потребность, осведомленность, интерес, желание, покупка — люди вводят в поиск разные запросы, и информация им нужна разная. Группируя ключевые фразы по этому принципу, мы отправим в разные группы запросы пользователей, которые:


  • осознают потребность, но еще не знают, что ее можно закрыть нашим продуктом;
  • только интересуются продуктом;
  • уже хотят его купить.

Пользователи, которые вводят запросы из первой группы, пока только хотят узнать, поможет ли им процедура, из второй — уже интересуются ценой, из третьей — близки к заказу

В зависимости от возможностей и бюджета можно охватить потенциальных покупателей на всех этапах воронки продаж или выбрать некоторые из них.

Плюсы:


  • Собирая в одну группу запросы пользователей, которые находятся на одном этапе воронки, мы показываем им релевантные объявления и ведем на соответствующую целевую страницу.
  • Захватывая верхние этапы воронки, мы можем получить переходы дешевле, чем по коммерческим запросам нижних этапов. А потом подвести пользователей к покупке контентом, рассылками, ремаркетингом.

Минус:


  • Трудоемкость — нужно выстроить воронку, определить намерения и систематизировать ключи.

6. Кластеризация ключевых фраз

В описанных выше способах мы использовали разные критерии группировки: продукт, интент, морфологию. Но можно зайти с другой стороны — довериться алгоритмам поисковых систем и их пониманию схожести поисковых запросов.

Используя этот способ, группируем запросы на основе схожести результатов поисковой выдачи по ним. Логика в том, что если результаты первой страницы органической выдачи по конкретным запросам совпадают, то поисковые системы считают, что они закрывают одну и ту же потребность. А значит, есть смысл определить их в одну группу.


Фрагмент кластеризованного семантического ядра

Когда использовать

Кластеризация удобна, когда нужно быстро сгруппировать огромную семантику.

Этот метод также можно использовать как вспомогательный при группировке по интенту. Вы получите укрупненные кластеры, которые потом вручную разнесете по группам объявлений.

Плюсы:


  • Объявления, созданные под кластеры, будут релевантны ключевым словам не только с точки зрения интента и морфологии, но и алгоритмов ПС.
  • Этот способ группировки хорошо автоматизируется. Для этого используются кластеризаторы — например, наш. Он группирует фразы для Яндекса и/или Google, можно задать точность числом, диапазоном или выбрать условия кластеризации. В отчете будут не только группы слов, но и их частотности. Как работать с инструментом — читайте в гайде.

Минусы:


  • Кластеризаторы ускоряют процесс, но потратить время на «чистку» групп все-таки придется.
  • Если хотите запустить рекламу в Яндекс.Директе и Google Ads, кластеризовать запросы нужно для каждой рекламной системы отдельно. В теории можно, конечно, использовать результаты, полученные для Яндекса, для рекламы в Google Ads, но это нарушает логику процесса — выдача в поисковых системах разная.
  • Бывает сложно подобрать оптимальную точность кластеризации. При низкой (2–3) получаем слишком широкие кластеры, при высокой (6–7) они будут раздроблены. Оптимальной считается точность 4–5, но все равно нужно смотреть на результаты и подбирать точность.

7. Группировка методом SKAG

При такой группировке в каждую группу объявлений добавляется одна ключевая фраза, которая прописывается в трех типах соответствия: точном, фразовом и с модификатором широкого соответствия. Таким образом, мы можем анализировать CTR и оставлять в группе только то соответствие, которое работает наиболее эффективно.


Пример SKAG-группировки

Правда, после того как Google сделал похожими алгоритмы срабатывания фразового соответствия и модификатора широкого соответствия, позиции SKAG пошатнулись, и мнения PPC-специалистов разделились. Одни считают, что SKAG стал нежизнеспособен и нужно перестраивать кампании, ориентируясь на намерения пользователей, другие — что метод по-прежнему жив, просто требует более детальной и тщательной оптимизации.

Когда применять

Когда важно добиться максимальной релевантности объявлений и эффективности рекламной кампании, чтобы повысить ROI.

Но надо понимать, что затраты на создание и управление SKAG-группами могут превысить эффект от их использования. Поэтому применять подход нужно при условии, что вы точно знаете, что делаете.

Плюсы:


  • Способ простой для понимания.
  • Для автоматизации есть скрипты — например, вот и вот.
  • При SKAG-подходе объявления идеально заточены под ключевые слова. Обычно достигается высокий Quality Score.
  • Кампанию проще оптимизировать, видя детальную статистику по каждой фразе.
  • Ориентируясь на единственную фразу в группе, удобнее добавлять минус-слова.
  • После правильной оптимизации можно добиться высокой эффективности.

Минусы:


  • На написание объявлений под каждый ключ уходит много времени. Можно использовать генератор объявлений для Яндекса и Google. Конечно, объявления получаются не идеальными, но могут стать шаблонами для дальнейшей правки.
  • Нужна серьезная кросс-минусовка. Автоматизация доступна в бесплатном медиапланере Click.ru — перекрестная минусовка проводится по умолчанию при подборе семантики.
  • Сложно тестировать объявления — из-за дробления групп и трафика по ним придется составлять много разных вариантов и долго собирать статистику.
  • Такую кампанию придется регулярно и долго оптимизировать руками, чтобы добавить в список минус-слов большинство нецелевых запросов.
  • Группы с низкочастотными ключами могут получить статус «мало показов».
  • Большим количеством групп сложно управлять.

8. Группировка методом Альфа/Бета

Разновидность SKAG-группировки, которую разработал и описал в своей книге «Контекстная реклама, которая работает» ведущий мировой эксперт по Google Ads Перри Маршалл. Она заключается в том, что из работающей бета-кампании выбираем фразы, которые принесли больше всего конверсий, и переносим их в точном соответствии в новую альфа-кампанию. В бета-кампании такие ключи заносим в список минус-слов.

Далее мы делаем это регулярно — выбираем наиболее эффективные ключи из старой кампании и в точном соответствии переносим в новую.


Мы создали 10 групп объявлений, в каждой из которых — один ключ в точном соответствии

Когда применять

Способ подходит для сложных ниш, когда важно искать пути наращивания конверсий при оптимальных расходах.

Плюсы:


  • Постоянно пополняя альфа-кампанию высокоэффективными фразами, мы наращиваем общее количество конверсий.
  • Выделяя больший бюджет на альфа-кампанию с конверсионными фразами, мы можем максимизировать результат.

Минусы:


  • Фраза, которая показала хороший коэффициент конверсии в бета-кампании, может «просесть» в альфа-кампании. С увеличением бюджета и количества кликов коэффициент конверсий может снизиться.
  • Нужно регулярно переносить конверсионные фразы в альфа-кампанию и делать минусовку в бета-кампании. При большом количестве ключей это трудоемко.

9. Группировка методом STAG

Способ группировки STAG (Single Theme Ad Groups) позиционируется как противоположный SKAG, более современный. Распределяя ключевые фразы этим методом, формируем группы из ключей, которые относятся к одной узкой теме. Можно добавить столько фраз, сколько есть для конкретной темы в нашей семантике.

Причем для группировки выбирается один четкий критерий (тема) — например, цена, характеристики и т. п.


Пример группировки семантики по методу STAG по критериям «скачать» и «бесплатно»

У метода есть вариация — 20KAG. Особенность в том, что в одну группу объявлений нельзя добавить более 20 фраз. Способ появился с подачи британского агентства One PPC. Логика подхода в том, что ограничение в 20 фраз соответствует рекомендациям Google по работе с ключевыми словами.

Плюсы:


  • На создание объявлений уходит меньше времени, чем при создании групп для каждого ключа.
  • Если правильно выделить темы и сформировать группы, можно создать релевантные объявления и подобрать максимально подходящие целевые страницы.

Минусы:


  • Четко разделить семантику на тематические группы получается не всегда.
  • Если не учесть намерения пользователей и этап воронки продаж, есть риск показать объявления пользователям, которые ищут совсем другое.

Так какой способ группировки выбрать?

Выбрать какой-то один способ группировки ключевых слов для контекстной рекламы и сказать, что он наиболее эффективный, сложно. Все зависит от цели кампании, количества ключевых слов, специфики ниши, поведения ЦА, бюджета и т. п.

Например, если семантика небольшая, можно руками разнести ключи по интенту или поэкспериментировать со SKAGами. Если же имеете дело с тысячами запросов, тут нужна автоматизация — например, группировка по морфологии или кластеризация.

Также можно комбинировать несколько способов, тестировать и находить эффективные решения.

Как собрать семантику для нового рынка, если не знаешь иностранных языков


Спикер: Сергей Бездорожев, SEMrush. 

Доклад был представлен на конференции Optimization 2020, организованной компанией «Ашманов и партнеры»

Какие задачи решает исследование ключевых слов для новых рынков

Исследование семантики необходимо для того, чтобы:

  • Оценить количество поисковых запросов для органики и понять, есть ли какой-то экономический смысл входить в исследуемый регион.
  • Оценить стоимость платной рекламы. 

Локализация сайта и его продвижение стоит денег, также как и в PPC стоит денег каждый клик. Именно поэтому так важно внимательно оценивать запросы, по которым идет реклама, их важность и для SEO и для платного трафика трудно переоценить.

Сработает ли, если не заморачиваясь, отправить тексты на перевод агентству?

НЕТ

Не сработает. Потому что есть большая разница между переводом и локализацией сайта. 

Дословный перевод, даже отредактированный, не учитывает профессиональную тематику, пропускает некоторые элементы страницы, не адаптирует инфографику и скриншоты. Локализация же предполагает полную адаптацию контента под новый рынок, исследование ключевых слов, локализацию всех элементов страницы – создание родного интерфейса для носителей языка.

Если переводом занимаются обычно только переводчики и редактора, то локализацией – только переводчик в паре с SEO-специалистом. Причём последний может даже не иметь знания иностранных языков.

На какие грабли можно наступить при сборе семантики 

Возьмем, например, словосочетание «кофе в зернах» и переведем на французский язык.  Онлайн-переводчик предлагает нам фразу café en grain. Проверяем её частотность — 12 100, вроде бы все отлично.


Однако, если проверить другую вариацию, grain de café, что в буквальном смысле означает «зерновой кофе», мы увидим совсем другую цифру, на 6 000 выше:


Безусловно, есть разница между 12 тыс. и 18 тыс. Прямой перевод часто имеет частотность ниже.  Поэтому обязательно нужно проверять релевантность по SERPам, ибо будет печально выбрать не самый высокочастотный вариант, таргетироваться на него и вкладывать туда деньги. 

Важно учитывать грамматику, словообразование и даже диалекты, это очень влияет на частотность запросов. Многие думают, какая разница, единственное там или множественное число, главное, что это ключевик и выдача по нему одинаковая. На самом деле это очень важно, а для многих языков и вовсе критично, так как традиционно какие-то вещи принято называть  во множественном числе, чего переводчик попросту может не знать. 


Таким же критичным может быть наличие или отсутствие артикля или даже пробела. Например, для немецкого или испанского языков, где по всем этим вариантам ключей будут абсолютно разные выдачи.  

На приведенной ниже таблице можно увидеть и сравнить результаты прямого перевода и локализации. Здесь мы переводили наши статьи с английского на другие иностранные языки, но в принципе это все справедливо и для перевода с русского. 


Если прямой перевод ключа на немецкий еще имеет какой-то смысл, то как видим, в других языках такими словами никто не ищет. Примечательно, что правильный ключ в немецком и испанском — это глагол, а не существительное, и поэтому все тексты на странице и все тайтлы должны строиться с учетом этого. То есть не «софт для клонирования жесткого диска», а «клонировать жесткий диск».

В японском языке прямой перевод также имеет нулевую частотность, однако, в локализованном варианте видно, что перед иероглифами появились буквы hdd (которых не было в исходном варианте), причём такой вариант имеет частотность намного выше, чем ключ на английском языке.

Откуда взялось это hdd, и как подобное можно найти для нужных ключевых запросов, если ты не знаешь язык?

Собираем правильную семантику сами

или Как правильно составить ТЗ для переводчика или иностранного копирайтера

Шаг 1. Выбираем фразы на исходном языке


Шаг 2. Переводим с помощью онлайн-переводчиков


Шаг 3. Проверяем частотность


Шаг 4. Гуглим и смотрим ТОП по этому запросу


Google помогает получить релевантную выдачу даже по такому «кривому» запросу, который получается в результате прямого перевода.

Шаг 5. Смотрим, по каким словам ранжируются статьи в ТОПе


Шаг 6. Переводим самые частотные слова с помощь онлайн-переводчиков


Обратный перевод позволяет оценить полученные ключевики по смыслу и выбрать наиболее релевантные для продвигаемых страниц.

Будет ли результат, если просто разместить перевод и больше ничего не делать? 

В качестве ответа на этот вопрос можно привести скриншоты из Google Analytics, которые показывают рост трафика за полгода после локализации.

Япония:


Латинская Америка:


Франция:


Здесь приведены примеры, касающиеся Японии и Франции, однако, точно таким же образом можно локализовать сайты для стран ближнего зарубежья – Казахстана или Украины, например. Для иллюстрации инструкции японский язык был взят именно потому, что он большинству вообще непонятен, и тем не менее сбор семантики подобным образом не только возможен, но и эффективен.  

Как собрать семантику — инструкция

1 октября


Когда-то давно я написал очень большую статью про семантическое ядро, которую дополняю по чуть-чуть все время. Но я практически не написал ничего о том, что такое кластеризация ключевых (поисковых) слов и как ее сделать.

Итак, для того, чтобы начать работать, нам понадобиться:

  • Семантическое ядро (1 шт),
  • Инструменты для кластеризации (2-3 шт),
  • Запас терпения (2 кг).

Для того, чтобы понять, как происходит кластеризация поисковых слов, нам понадобится этот самый список слов. Как собрать семантическое ядро самостоятельно, я писал не один раз, поэтому повторяться не буду. Давайте представим, семантика собрана, чай заварен, а меленькая тележка терпения ждет у рабочего стола.

Что такое кластеризация?

У нас есть несколько терминов, понимание которых крайне важно для нашей работы. Значит, начнем мы именно с них:

Кластерный анализ — многомерная статистическая процедура, выполняющая сбор данных, содержащих информацию о выборке объектов, и затем упорядочивающая объекты в сравнительно однородные группы

(с)Википедия

Кластеризация семантического ядра – упорядочивание списка ключевых слов, создание кластеров продвижения и разделения ключей по релевантным страницам.

Как получается кластеризация ключевых слов?

Кластеризация… или группировка ключевых слов возможна по нескольким принципам. Очень много авторских технологий гуляет в сети, но в основном я бы выделил 2 основных принципа:

Ручная кластеризация поисковых запросов (подходит для новых сайтов, которые есть только в проекте, возможность заложить семантику на старте запуска сайта) – предполагается, что вы собираете ключевые слова, сразу (или позже) задавая группы вручную.

Пример. Вы можете собрать ключевые слова для небольшого сайта-визитки, который вы хотите показывать пользователям в органической выдаче. Например, сайт занимается продажей услуг в сфере ремонта квартир…

Собираем семантическое ядро для небольшого сайта

Сами услуги делятся на несколько категорий, предположим, это отделочные работы и внутриотделочные  работы. Каждое из направлений делится на группу, т.е. у вас уже получиться 2 группы. Далее, вы анализируете поисковые запросы и формируете отдельное ядро для каждой из групп. В итоге получаете кластеризованное семантическое ядро, например, в виде таблицы с полями:

  • Ключевые слова
  • Частотность
  • Url страницы
  • Группа

А дальше с помощью фильтра в таблице сортируете по группам ключевых слов. В итоге вы иметете списки слов для каждой из страниц (разделов) сайта, которые и являются в сумме кластеризованным семантическим ядром.

Как собирать ключевые слова для проекта и кластеризовать ее наиболее эффективно?

Давайте в пример возьмет то, что описано выше, и посмотрим на предполагаемую структура сайта.

Так же, мы можем добавить некоторые дополнения к нашей кластеризации ключевых слов.

Ключевые слова для главной – в этот кластер должны войти самые важные ключевые слова для вашего сайта. Которым релевантна сама страница. (если вы предлагаете услуги ремонта квартир, пример запроса «ремонт квартир в Киеве», вполне подойдет). Получим список запросов более общего содержания нашей ниши.

Страницы услуг и товаров – кластеризация семантического ядра начинается для этих страниц с логического разделения важности. Что для вас важнее, услуги по ремонту кухни или «услуги по ремонту спальни» или все имеют одинаковый приоритет? В этот кластер должны попасть слова, которым будет соответствовать пользовательский запрос по теме услуг, например: «услуги строительной бригады».

Статьи и Блог – кластеризация семантического ядра будет содержать информационные запросы. Например: «как самостоятельно побелить стену» или «производители красок для стены» и т.д. Не пренебрегайте подобными разделами сайта, не смотря на то, что у вас коммерческий сайт и прибыль приносят только страницы с услугами, контент обычный и полезный создаст для вас стабильный трафик и поможет конвертировать читателей в клиентов.

Семантическое ядро — кластеризация запросов

Если вы решили заняться SEO оптимизацией существующего сайта и не знаете с чего начать, проверьте по каким ключевым словам это можно сделать.

Например, это можно сделать с помощью Serpstat. Достаточно вбить адрес проверяемой страницы. Останется только лицезреть, по каким ключевым словам у вас уже есть позиции.

скриншот сделан в сервисе serpstat

На примере я ввел адрес главной страницы и получил список ключевых фраз с позициями, а в таблице URL я нашел ссылки, которые отображаются в поисковых запросах, пройдя по ссылке я получил список релевантных фраз именно для конкретной страницы.

Таким образом вы можете посмотреть не только на каких позициях ваш сайт, но и сделать кластеризацию поисковых запросов с помощью Serpstat.

Продолжение следует…

Рассмотрим в ближайшее время:

  • Инструменты для ручной кластеризации поисковых запросов,
  • Инструменты для автоматической кластеризации поисковых запросов.

P.S. Если вы хотите заняться кластеризацией поисковых запросов, но у вас нет времени. Можно в комментариях опубликовать ссылку на ваш проект, и я напишу материал по конкретному примеру на тему, как практически реализовать кластеризацию семантического ядра.


Страница не найдена

К сожалению, страница, которую вы искали на веб-сайте AAAI, не находится по URL-адресу, который вы щелкнули или ввели:

https://www.aaai.org/papers/symposia/fall/2008/fs-08-06/fs08-06-008.pdf

Если указанный выше URL заканчивается на «.html», попробуйте заменить «.html:» на «.php» и посмотрите, решит ли это проблему.

Если вы ищете конкретную тему, попробуйте следующие ссылки или введите тему в поле поиска на этой странице:

  • Выберите темы AI, чтобы узнать больше об искусственном интеллекте.
  • Чтобы присоединиться или узнать больше о членстве в AAAI, выберите «Членство».
  • Выберите «Публикации», чтобы узнать больше о AAAI Press и журналах AAAI.
  • Для рефератов (а иногда и полного текста) технических документов по ИИ выберите Библиотека
  • Выберите AI Magazine, чтобы узнать больше о флагманском издании AAAI.
  • Чтобы узнать больше о конференциях и встречах AAAI, выберите Conferences
  • Для ссылок на симпозиумы AAAI выберите «Симпозиумы».
  • Для получения информации об организации AAAI, включая ее должностных лиц и сотрудников, выберите «Организация».

Помогите исправить страницу, которая вызывает проблему

Интернет-страница

, который направил вас сюда, должен быть обновлен, чтобы он больше не указывал на эту страницу. Вы поможете нам избавиться от старых ссылок? Напишите веб-мастеру ссылающейся страницы или воспользуйтесь его формой, чтобы сообщить о неработающих ссылках. Это может не помочь вам найти нужную страницу, но, по крайней мере, вы можете избавить других людей от неприятностей. Большинство поисковых систем и каталогов имеют простой способ сообщить о неработающих ссылках.

Если это кажется уместным, мы были бы признательны, если бы вы связались с веб-мастером AAAI, указав, как вы сюда попали (т. Е. URL-адрес страницы, которую вы искали, и URL-адрес ссылки, если таковой имеется). Спасибо!

Содержание сайта

К основным разделам этого сайта (и некоторым популярным страницам) можно перейти по ссылкам на этой странице. Если вы хотите узнать больше об искусственном интеллекте, вам следует посетить страницу AI Topics. Чтобы присоединиться или узнать больше о членстве в AAAI, выберите «Членство».Выберите «Публикации», чтобы узнать больше о AAAI Press, AI Magazine, и журналах AAAI. Чтобы получить доступ к цифровой библиотеке AAAI, содержащей более 10 000 технических статей по ИИ, выберите «Библиотека». Выберите Награды, чтобы узнать больше о программе наград и наград AAAI. Чтобы узнать больше о конференциях и встречах AAAI, выберите «Встречи». Для ссылок на программные документы, президентские обращения и внешние ресурсы ИИ выберите «Ресурсы». Для получения информации об организации AAAI, включая ее должностных лиц и сотрудников, выберите «О нас» (также «Организация»).Окно поиска, созданное Google, будет возвращать результаты, ограниченные сайтом AAAI.

Как автоматизировать сбор и очистку семантики от дубликатов и мусора

Инструменты сбора семантического ядра

позволяют собирать сотни и тысячи ключевых слов. Но в этом списке неизбежно будут повторяющиеся запросы, лишние символы, пробелы, фразы с нулевой частотой и т. Д. Весь этот «мусор» нужно убирать.

На примере интернет-магазина электроники мы шаг за шагом покажем, как использовать Click.ru, чтобы собрать пул запросов для контекста и привести его в удобную для использования форму.

1. Собираем пул запросов

Click.ru имеет бесплатный инструмент для сбора семантического ядра сайта. «Медиа-планирование».

Как с ним работать:

1. Зарегистрируйтесь на Click.ru. Щелкните Создать учетную запись. В открывшемся окне выберите рекламную систему и назовите аккаунт.

2. Добавьте кампанию. Назовите его, выберите места, где будут появляться ваши объявления, укажите URL, геотаргетинг.

3. Система предложит вам выбрать слова или добавить свои. Нажмите «Выбрать слова» — медиапланировщик выберет ключевые слова на основе содержания рекламируемого сайта.

4. Добавьте совпадающие слова в медиаплан. В нашем примере система собрала 623 ключевых слова. Чтобы добавить их в медиаплан, установите флажок в заголовке таблицы и нажмите «Добавить в медиаплан».

5. Расширьте семантическое ядро ​​словами, которые продвигают ваши конкуренты. Для этого в «Автоматический подбор слов» выберите «Слова конкурентов.”

Система предложит до 5 участников и соберет о них слова. Проверьте, совпадает ли диапазон предлагаемых сайтов-конкурентов с вашим. Если нет, удалите предложенные сайты и установите URL конкурентов самостоятельно (до 10 сайтов одновременно).

Системе потребуется несколько минут для сбора слов. После этого нажмите «Показать слова конкурентов».

В примере система собрала 2849 слов. Чтобы просмотреть их, прокрутите таблицу вниз и нажмите «Показать все».

Просмотрите список собранных слов.Не все из них будут актуальны, потому что даже у ближайших конкурентов может не быть такого же ассортимента. Есть два способа избавиться от лишних слов:

  • Удалить их сразу вручную
  • Чистить уже в самом конце — после группировки (тогда слова можно удалять «связками», а не по одному).

Если слов много, лучше выбрать второй вариант.

Итак, теперь нам нужно выгрузить собранные ключи. Для этого добавьте их в медиаплан.Чтобы добавить все слова из таблицы в медиаплан, установите флажок в заголовке таблицы — система автоматически установит флажки рядом с каждой фразой. Затем нажмите «Добавить в медиаплан».

Загрузите слова, добавленные в медиаплан, в файл .xls.

С помощью двух сборщиков (по содержанию сайта и по заявлению конкурентов) удалось собрать и добавить в медиаплан 3492 слова. Теперь все это нужно очистить.

2. Удаляем повторяющиеся запросы, спецсимволы, пробелы, пустые строки

Вручную найти дубликаты в списке из 1000 или более слов сложно.Для этого нужен бесплатный нормализатор ключевых слов.

Что он умеет:

  • Удалить повторяющиеся слова в точном вхождении . Например, если инструмент обнаружит в списке две ключевые фразы «купите samsung galaxy s10», он удалит одну из них.
  • Удалять дубликаты на основе морфологии и перестановки слов . Например, если система обнаружит две фразы «купить samsung galaxy s10» и «купить samsung galaxy s10 buy», то вторая фраза будет считаться дубликатом и будет удалена.
  • Удалить специальные символы в начале и в конце слова . В собранных запросах (особенно если это делается с помощью сторонних сервисов) могут появляться специальные символы: вопросительные знаки, плюсы и минусы. Например, нормализатор нашел фразу со знаком плюса в списке слов: «samsung galaxy s10 + buy». Он просто удалит плюс и лишние пробелы, а сам запрос останется без изменений.
  • Удаляет лишние пробелы . Если в начале, середине или конце ключевой фразы есть лишние пробелы, инструмент их обнаружит и удалит.
  • Удаляет табуляторы и пустые строки . Инструмент убирает отступ в начале и конце строки. Если в таблице есть пустые строки, они также удаляются.
  • Преобразует слова в нижний регистр . Если список содержит проанализированные заголовки, написанные в верхнем регистре, то система переводит их в нижний регистр.
  • Заменяет e на e. Если вы не используете букву «е», установите флажок рядом с опцией «Заменить е на е».

Характеристики инструмента:

  • Бесплатное использование.
  • Проверка выполняется онлайн. Не нужно устанавливать программное обеспечение или держать страницу открытой.
  • Неограниченное количество слов в списке.
  • Выполненные задачи хранятся в аккаунте Click.ru неограниченное время.
  • Не нужно вводить капчу.

Как пользоваться инструментом

Перейдите на страницу инструмента и добавьте слова.

Выберите, какие действия нужно выполнить с ядром, и нажмите «Выполнить».

Системе потребуется несколько минут для выполнения указанных действий.Отчет доступен для скачивания в виде файла .xlsx.

Чтобы загрузить отчет в «Списке задач», нажмите кнопку «Загрузить XLSX».

Отчет состоит из двух страниц:

  • список слов, очищенных от дубликатов;
  • начальные настройки (начальный список слов и настроек необходимых действий с ядром).

Фрагмент отчета:

В этом примере исходный список состоял из 3492 запросов. После очистки их количество сократилось до 2828 слов, то есть дубликаты занимали 19% ядра.

3. Удалить слова с нулевой частотой

В целях контекстной рекламы слова с почти нулевой частотой не представляют интереса, так как для них не будет показов. Такие слова лучше сразу убрать.

Для проверки повторяемости большого массива ключей Click.ru имеет парсер wordstat. Он собирает частоты из левого столбца Wordstat. Он анализирует частоту в любом регионе Яндекса и учитывает тип соответствия ключевых слов.

Как пользоваться инструментом

Перейти на страницу инструмента.Добавьте запросы.

Выберите регион, в котором инструмент будет анализировать частоты.

Задайте параметры сбора частоты. Инструмент собирает частоты по запросам в широкой переписке, фиксирует количество слов и морфологию, фиксирует порядок слов.

Подробнее о возможностях парсера Wordstat читайте в статье: «Как быстро определить частоту в Wordstat»

Чтобы запустить задачу, нажмите кнопку «Запустить сканирование».Время сбора зависит от количества запросов, регионов и типов соответствия.

Отчет доступен в списке задач в формате XLSX.

В отчете указывается частота запросов при разных типах соответствия. Удалите слова с нулевой и близкой к нулю частотами.

Важно! Будьте осторожны с ключевыми словами, связанными с сезонными товарами / услугами. В Wordstat статистика собирается за последний месяц, поэтому, если сейчас в вашей нише будет спад, частота будет невысокой.Подробно о частотном анализе в Wordstat мы писали здесь. Google Trends также может помочь. Также рассказали, как с ним работать.

После удаления «нулей» можно переходить к группировке слов.

4. Разбейте собранные слова на группы и завершите очистку ядра.

Для группировки ключевых слов используйте кластеризацию. Инструмент группирует слова на основе сравнения ТОП результатов поиска в заданном регионе. Инструмент обычно используется SEO-специалистами для взлома ключей на страницах.Но он также хорошо подходит для контекстной рекламы.

Как пользоваться инструментом

Перейти на страницу инструмента. Для удобства навигации в отчетах укажите адрес сайта и назовите проект.

Запросы на загрузку с файлом или списком. В списке должно быть не менее 20 запросов.

Выберите метод кластеризации. Доступны два варианта: сравнение ТОПов и профессиональные настройки. В настройках укажите поисковую систему, диапазон точности, количество слов в кластере (для профессиональных настроек).Нажмите кнопку «Начать кластеризацию».

Подробнее о настройке и возможностях кластеризации Click.ru читайте в статье «Как сгруппировать ключевые запросы с помощью кластеризации?»

Скачать отчет в списке задач.

В отчете запросы объявлений сгруппированы в кластеры по результатам поиска. Просмотрите отчет и удалите кластеры с нерелевантными запросами. Намного удобнее делать это прямо сейчас, а не по одному слову во время выделения.

В результате вы получаете сгруппированную семантику без мусора, готовую к использованию.

Недостаточно слов для семантики — развернуть список

Бывает, что после очистки список слов сильно сокращается. В этом случае используйте инструменты для расширения семантики:

Подробнее о расширении ядра в узкой нише читайте в статье «Как расширить англоязычную семантику для поисковой рекламы в узкой нише».

Еще один вариант пополнения семантики — парсинг ключевых слов, запустивший рекламу конкурентов с помощью бесплатного парсера.Подробности о нем — ссылка.

[PDF] Сбор семантики в дикой природе: The Story Workbench

ПОКАЗЫВАЕТ 1-10 ИЗ 36 ССЫЛОК

СОРТИРОВАТЬ ПО РелевантностиСамые популярные статьи Недавность

Формальная основа для лингвистических аннотаций

Рассматривается широкий спектр существующих общих форматов аннотаций core, граф аннотаций, демонстрируется, который обеспечивает формальную основу для построения, поддержки и поиска лингвистических аннотаций, оставаясь при этом совместимым со многими альтернативными структурами данных и форматами файлов.Развернуть
  • Просмотр 1 отрывок, ссылки на методы

Банк предложений: аннотированный корпус семантических ролей

Описывается автоматическая система семантических тегов ролей, обученная в корпусе, и обсуждается влияние на ее производительность различных типов информации. включая сравнение полного синтаксического анализа с плоским представлением и вклад пустых категорий трассировки в банк деревьев. Развернуть
  • Просмотреть 2 отрывка, ссылки на методы

Обучение опорных векторов для классификации семантических аргументов

Предлагается алгоритм машинного обучения для разбора семантических ролей, расширяющий работу Gildea and Jurafsky (2002), Surdeanu et al.(2003) и другие, основанные на Support Vector Machines, которые показывают значительное улучшение производительности по сравнению с более ранними классификаторами. Развернуть
  • Просмотреть 2 выдержки, справочная информация

Представление когерентности дискурса: исследование на основе корпуса

Метод аннотирования структур когерентности дискурса, который использовался для ручного аннотирования базы данных из 135 текстов из Wall Street Journal и AP Newswire и обнаружил много различных видов пересекающихся зависимостей, а также множество узлов с несколькими родителями.Развернуть

Разум по аналогии: перспективы когнитивной науки

В последние два десятилетия аналогия была в центре внимания обширных исследований в области когнитивной науки. По аналогии новые ситуации и проблемы можно понять с точки зрения знакомых. В самом деле,… Развернуть

  • Просмотреть 2 отрывка, справочную информацию

Изучение и рассуждение по аналогии

Представлена ​​теория аналогии и описана реализованная система, которая воплощает теорию, которая предназначена для ответа на вопросы о Гамлете с помощью знания о Макбете.Развернуть
  • Просмотреть 2 отрывка, справочная информация

Решение аналогичных проблем

Резюме Было исследовано использование аналогии из семантически удаленной области для руководства процессом решения проблем. Представление аналогии в памяти и процессах, задействованных в использовании… Развернуть

  • Просмотреть 2 выдержки, справочная информация

Что такое представление знаний?

Утверждается, что учет всех пяти ролей, которые играет репрезентация, дает полезную широкую перспективу, которая проливает свет на некоторые давние споры и может оживить как исследования, так и практику в этой области.Развернуть
  • Просмотреть 4 выдержки, ссылки, методы и справочную информацию

Что такое сеть знаний?

Граф знаний (KG) представляет собой набор взаимосвязанных описаний сущностей — реальных объектов и событий или абстрактных концепций (например, документов) — где:

  • Описания имеют формальную семантику, которая позволяет как людям, так и компьютерам обрабатывать их эффективным и однозначным образом;
  • Описания объектов дополняют друг друга, образуя сеть, где каждый объект представляет собой часть описания связанных с ним объектов и обеспечивает контекст для их интерпретации.

Основные характеристики

Графы знаний объединяют характеристики нескольких парадигм управления данными:

  • База данных , потому что данные можно исследовать с помощью структурированных запросов;
  • График , потому что их можно анализировать как любую другую структуру данных сети;
  • База знаний , потому что они несут формальную семантику, которая может использоваться для интерпретации данных и вывода новых фактов.

Графы знаний, представленные в RDF, обеспечивают лучшую основу для интеграции, унификации, связывания и повторного использования данных, поскольку они объединяют:

  • Выразительность : Стандарты в стеке семантической паутины — RDF (S) и OWL — позволяют беспрепятственно представлять различные типы данных и контента: схемы данных, таксономии и словари, всевозможные метаданные, справочные и основные данные .Расширение RDF * упрощает моделирование происхождения и других структурированных метаданных.
  • Производительность : Все спецификации были продуманы и проверены на практике, чтобы обеспечить эффективное управление графиками миллиардов фактов и свойств.
  • Взаимодействие : существует ряд спецификаций для сериализации данных, доступа (протокол SPARQL для конечных точек), управления (хранилище графиков SPARQL) и объединения. Использование глобально уникальных идентификаторов облегчает интеграцию и публикацию данных.
  • Стандартизация : Все вышеперечисленное стандартизировано в рамках процесса сообщества W3C, чтобы гарантировать удовлетворение требований различных участников — от логиков до профессионалов по управлению корпоративными данными и групп системных операций.

Нажмите на картинку для увеличения

Онтологии и формальная семантика

Онтологии представляют собой основу формальной семантики графа знаний. Их можно рассматривать как схему данных графика . Они служат формальным контрактом между разработчиками графа знаний и его пользователями относительно значения данных в нем. Пользователь может быть другим человеком или программным приложением, которое хочет интерпретировать данные надежным и точным образом. Онтологии обеспечивают общее понимание данных и их значений.

Когда формальная семантика используется для выражения и интерпретации данных графа знаний, существует ряд инструментов представления и моделирования:

  • Классы. Чаще всего описание объекта содержит классификацию объекта относительно иерархии классов. Например, при работе с бизнес-информацией могут быть классы Person , Organization и Location . Лица и организации могут иметь общий суперкласс Агент . Местоположение обычно имеет множество подклассов, например, Страна , Населенный пункт , Город и т. Д. Понятие класса заимствовано из объектно-ориентированного дизайна, где каждый объект обычно принадлежит ровно одному классу.
  • Типы отношений . Отношения между объектами обычно помечаются типами, которые предоставляют информацию о характере отношений, например, друг , родственник , конкурент и т. Д. Типы отношений также могут иметь формальные определения, например, что родитель- является обратной зависимостью от потомка от , они оба являются частными случаями относительно , что является симметричным отношением. Или определение того, что субрегион и дочерняя компания являются транзитивными отношениями.
  • Категории . Сущность может быть связана с категориями, которые описывают некоторые аспекты ее семантики, например, «Консультанты большой четверки» или «Композиторы XIX века» . Книга может принадлежать одновременно ко всем этим категориям: «Книги об Африке» , «Бестселлер» , «Книги итальянских авторов» , «Книги для детей» и т. Д. Категории описаны и упорядочены по таксономия.
  • Описание произвольного текста .Часто описание «понятный для человека» предоставляется для дальнейшего разъяснения замыслов дизайна для объекта и улучшения поиска.

Что НЕ является сетью знаний?

Не каждый граф RDF является графом знаний . Например, набор статистических данных, например данные о ВВП для стран, представленные в RDF, не являются KG. Графическое представление данных часто бывает полезным, но может быть ненужным фиксировать семантическое знание данных. Для приложения может быть достаточно просто иметь строку «Италия», связанную со строкой «GDP» и число «1».95 триллионов »без необходимости определять, что такое страны или каков« валовой внутренний продукт »страны. KG составляют связи и график, а не язык, используемый для представления данных.

Не всякая база знаний представляет собой граф знаний . Ключевой особенностью KG является то, что описания сущностей должны быть связаны друг с другом. Определение одной сущности включает другую сущность. Эта связь и формирует график. (например, A — это B. B — это C. C имеет D. A имеет D).Базы знаний без формальной структуры и семантики, например Вопросы и ответы «База знаний» о программном продукте также не представляют KG. Можно иметь экспертную систему, которая имеет набор данных, организованных в формате, который не является графиком, но использует автоматизированные дедуктивные процессы, такие как набор правил «если-то» для облегчения анализа.

Примеры графов больших знаний

Сеть знаний Google. Google сделал этот термин популярным после анонса графа знаний в 2012 году.Однако технических подробностей о его организации, охвате и размере очень мало. Существуют также очень ограниченные возможности использования этого графа знаний за пределами собственных проектов Google.

DBPedia . Этот проект использует структуру, присущую информационным ящикам Википедии, для создания огромного набора данных из 4.58 вещей (ссылка https://wiki.dbpedia.org/about) и онтологии, которая имеет энциклопедический охват таких сущностей, как люди, места, фильмы и т. Д. книги, организации, виды, болезни и т. д.Этот набор данных лежит в основе движения за открытые связанные данные. Организациям было неоценимо добавить в свои внутренние графы знаний миллионы краудсорсинговых сущностей.

Geonames . В рамках творческого сообщества пользователи набора данных Geonames имеют доступ к 25 миллионам географических объектов и объектов.

Wordnet . Одна из самых известных лексических баз данных английского языка, содержащая определения и синонимы. Часто используется для повышения производительности NLP и поисковых приложений.

FactForge . После нескольких лет накопления опыта в индустрии публикации новостей компания Ontotext создала свой график знаний связанных открытых данных и новостные статьи о людях, организациях и местах. Он включает данные из описанных выше KG, а также специализированных онтологий, таких как Business Ontology для финансовой индустрии.

Графики знаний и базы данных RDF

лет назад мы перешли от модного слова «большие данные» к «умным данным». Беспрецедентные объемы данных подтолкнули к необходимости иметь модель данных, отражающую наше собственное сложное понимание информации.

Чтобы сделать данные интеллектуальными, машины больше не должны были быть связаны негибкими схемами данных, определенными «априори». Нам были нужны репозитории данных, которые могли бы представлять «реальный мир» и связанные с этим запутанные отношения. Все это нужно было делать машиночитаемым способом и иметь формальную семантику, позволяющую автоматизировать рассуждения, дополняющие и облегчающие наши собственные.

RDF-баз данных (также называемых RDF-хранилищами троек), таких как GraphDB от Ontotext, могут плавно интегрировать разнородные данные из нескольких источников и хранить сотни миллиардов фактов о любой мыслимой концепции.Структура графа RDF очень надежна (она может обрабатывать огромные объемы данных всех видов и из различных источников) и гибка (ей не нужно переопределять схему каждый раз, когда мы добавляем новые данные).

Как мы уже видели, существует множество свободно доступных взаимосвязанных фактов из таких источников, как DBpedia, GeoNames, Wikidata и т. Д., И их количество продолжает расти с каждым днем. Однако настоящая сила графов знаний проявляется в том, что мы преобразуем наши собственные данные в тройки RDF, а затем соединяем наши собственные знания с открытыми глобальными знаниями.

Еще одна важная особенность баз данных RDF — их способность к выводам, когда новые знания могут быть созданы из уже существующих фактов. Когда такие новые факты материализуются и хранятся в базе данных RDF, наши результаты поиска становятся намного более релевантными, открывая новые возможности для практических идей.

Но если мы хотим сделать наши данные еще более мощными, мы можем использовать методы интеллектуального анализа текста, чтобы извлечь важные факты из свободно распространяемых текстов, а затем добавить их к фактам в нашей базе данных.

Как графы знаний могут помочь в анализе текста

Неудивительно, что современные технологии анализа текста широко используют графы знаний:

  • Большие графики предоставляют базовые знания, человеческие концепции и понимание сущностей, что позволяет более точно интерпретировать текст;
  • Результатом анализа являются семантические теги (аннотации), которые связывают ссылки в тексте с конкретными концепциями на графике. Эти теги представляют собой структурированные метаданные, которые позволяют улучшить поиск и дальнейшую аналитику;
  • Факты, извлеченные из текста, могут быть добавлены для обогащения графа знаний, что делает его гораздо более ценным для анализа, визуализации и отчетности.

Платформа Ontotext реализует все разновидности этого взаимодействия, связывая текст и большие графы знаний, чтобы обеспечить решения для тегов контента, классификации и рекомендаций. Это платформа для организации корпоративных знаний в графы знаний, которые состоят из набора баз данных, алгоритмов машинного обучения, API-интерфейсов и инструментов для создания различных решений для конкретных потребностей предприятия.

Одним из интересных примеров семантического тегирования новостей на фоне большого графа знаний, разработанного на основе DBPedia, является служба общедоступных новостей Ontotext NOW.

Для чего используются графы знаний?

Ряд конкретных применений и приложений полагаются на графы знаний. Примеры включают в себя услуги, насыщенные данными и информацией, такие как интеллектуальный контент и повторное использование пакетов, отзывчивые и контекстно-зависимые рекомендации по контенту, открытие лекарств на основе графа знаний, семантический поиск, аналитика инвестиционного рынка, обнаружение информации в нормативных документах, расширенная аналитика безопасности лекарств и т. Д.

Хотите узнать больше о хранилищах троек RDF для графов знаний, таких как GraphDB в Ontotext?

Какие 8 основных вещей вам нужно знать при рассмотрении тройного хранилища для вашего графа знаний?

Данные — W3C

Что такое связанные данные?

Семантическая сеть — это сеть данных — дат и заголовков. и номера деталей, химические свойства и любые другие данные мог бы задумать.Набор технологий семантической паутины (RDF, OWL, SKOS, SPARQL и др.) Предоставляет среда, в которой приложение может запрашивать эти данные, делать выводы использование словарей и т. д.

Однако, чтобы сделать сеть данных реальностью, необходимо важно, чтобы огромное количество данных в Интернете было доступно в стандартном формате, доступно и управляемый инструментами семантической паутины. Более того, не только Семантической паутине нужен доступ к данных, но отношений между данными также должны быть доступны для создания Web данных (в отличие от простого набора наборов данных).Эта коллекция взаимосвязанные наборы данных в сети можно также называть связанными данными.

Для получения и создания связанных данных должны быть доступны технологии общего формата (RDF), для преобразования или оперативного доступа к существующим базам данных (реляционным, XML, HTML и т. д.). Также важно уметь настраивать запрашивать конечные точки для более удобного доступа к этим данным.W3C предоставляет палитру технологий (RDF, GRDDL, POWDER, RDFa, предстоящий R2RML, RIF, SPARQL), чтобы получить доступ к данным.

Для чего используются связанные данные?

Связанные данные

лежат в основе семантической сети: крупномасштабная интеграция и рассуждения о данных в Интернете.Почти все приложения, перечисленные, скажем, сборник тематических исследований семантической паутины и варианты использования в основном основаны на доступности и интеграции связанных данных в различных уровень сложности.

Примеры

Типичным случаем большого связанного набора данных является DBPedia, что, по сути, делает содержимое Википедии доступным в RDF.Важность DBPedia заключается в не только то, что он включает данные Википедии, но и то, что он содержит ссылки на других наборов данных в Интернете, например, на Geonames. Предоставляя эти дополнительные ссылки (с точки зрения троек RDF) приложения могут использовать дополнительные (и, возможно, более точные) знания из других наборов данных при разработке приложения; в силу интеграции фактов из несколько наборов данных, приложение может обеспечить гораздо лучший пользовательский интерфейс.

Узнать больше

В заметке Тима Бернерса-Ли о связанных данных дается краткое описание принципов связанных данных. Сообщество семантической паутины также ведет список книг. на странице W3C Wiki. Некоторые из этих книг носят ознакомительный характер, а другие — материалы конференций или учебник, посвященный более сложным темам.Подробная информация о недавних и предстоящих Выступления сотрудников W3C, посвященные семантической паутине, сотрудники офисов W3C, и члены рабочих групп W3C доступны отдельно; слайды обычно общедоступны. В W3C также поддерживает коллекцию семантических Веб-примеры и примеры использования, которые показать, как технологии семантической сети, включая связанные данные, используются в упражняться.

Семантика естественного языка с использованием вероятностной логики

Абстрактные

Благодаря лучшему семантическому представлению естественного языка компьютеры могут более эффективно выполнять больше приложений в результате лучшего понимания естественного текста. Однако ни одно семантическое представление в настоящее время не удовлетворяет всем требованиям, необходимым для удовлетворительного представления.Логические представления, такие как логика первого порядка, охватывают многие языковые явления с использованием логических конструкций и имеют стандартизованные механизмы вывода, но стандартная логика первого порядка не может уловить «градуированный» аспект значения в языках. Другие подходы к семантике, такие как модели распределения, сосредоточены на фиксации «градуированного» семантического сходства слов и фраз, но не фиксируют структуру предложения с той же детализацией, что и подходы, основанные на логике. Однако оба аспекта семантики, структура и градация, важны для точного представления семантики языка.В этой работе мы предлагаем представление семантики естественного языка, которое использует вероятностную логику (PL) для интеграции логического и взвешенного неопределенного знания. Он сочетает в себе выразительность и автоматизированный логический вывод со способностью рассуждать с неопределенностью. Чтобы продемонстрировать эффективность нашего семантического представления, мы реализуем и оцениваем его по трем задачам: распознавание текстового следования (RTE), семантическое текстовое сходство (STS) и ответы на вопросы в открытой области (QA). Эти задачи могут использовать сильные стороны нашего представления и интеграцию логического представления и неопределенных знаний.Наше семантическое представление 1 состоит из трех компонентов: логической формы, базы знаний и вывода, каждый из которых представляет интересные проблемы, и мы вносим новый вклад в каждый из них. Первый компонент — это логическая форма, которая является представлением первичного значения. Мы обращаемся к двум пунктам: как преобразовать входные предложения в логическую форму и как адаптировать полученную логическую форму к PL. Во-первых, мы используем Boxer, инструмент семантического анализа на основе CCG, чтобы переводить предложения в логическую форму. Мы также исследуем перевод деревьев зависимостей в логическую форму.Затем мы адаптируем логические формы, чтобы универсальные кванторы и отрицания работали должным образом. Второй компонент — это база знаний, которая содержит «неопределенные» базовые знания, необходимые для данной проблемы. Мы собираем «релевантную» лексическую информацию из разных лингвистических ресурсов, кодируем их как взвешенные логические правила и добавляем в базу знаний. Мы добавляем правила из существующих баз данных, в частности WordNet и Paraphrase Database (PPDB). Поскольку они неполные, мы генерируем дополнительные правила на лету, которые могут быть полезны.Мы используем методы выравнивания, чтобы предлагать правила, относящиеся к конкретной проблеме, и исследуем два метода выравнивания: один основан на разрешении Робинсона, а другой — на сопоставлении графов. Мы автоматически аннотируем предлагаемые правила и используем их, чтобы узнать веса для невидимых правил. Третий компонент — это вывод. Этот компонент реализован для каждой задачи отдельно. Мы используем логическую форму и базу знаний, построенную на предыдущих двух шагах, чтобы сформулировать задачу как задачу вывода PL, а затем разработать алгоритм вывода PL, который оптимизирован для этой конкретной задачи.Мы исследуем использование двух платформ PL: логических сетей Маркова (MLN) и вероятностной мягкой логики (PSL). Мы обсуждаем, какой фреймворк лучше всего подходит для конкретной задачи, и представляем новые алгоритмы вывода для каждого фреймворка.

«Семантика головоломки» Пол Дж. Деккер

Абстрактные

В последнее десятилетие предприятие формальной семантики подверглось нападкам с нескольких философских и лингвистических точек зрения, и оно, безусловно, пострадало от своего собственного разрозненного состояния, в котором находится множество парадигм, которые могут показаться несовместимыми.Не следует пытаться ответить на аргументы критиков, потому что аргументы часто бывают обоснованными. Однако я считаю, что отрицательные выводы таковы. Единственный адекватный ответ кажется конструктивным, который снова объединяет несколько частей формальной семантики, в частности динамической семантики. В этой статье я попытаюсь сделать набросок обзора задач, методов и результатов, который, по крайней мере, позволяет предположить, что можно разработать целостную общую картину, несомненно, важных и структурных явлений при интерпретации естественного языка.Идея состоит в том, что концепция значений как условий истинности, в конце концов, обеспечивает отличное начало для комплексного изучения значения и использования естественного языка, и что расширенное понятие целенаправленной прагматики естественным образом дополняет эту картину. Ни один из результатов, представленных здесь, не является действительно новым, но мы думаем, что важно собрать их заново.

Список литературы

Ашер, Николас и Ласкарид, Алекс. 1998. «Вопросы в диалоге». Лингвистика и философия 23: 237–309.
http://dx.doi.org/10.1023/A:1005364332007

Борг, Эмма. 2007. «Минимализм против контекстуализма в семантике». В Герхарда Прейера и Георга Петера (редакторы) «Контекстная чувствительность и семантический минимализм», стр. 339–359. Оксфорд: Издательство Оксфордского университета.

Cappelen, Herman & Lepore, Ernest. 1997. «О предполагаемой связи между косвенным цитированием и семантической теорией». Разум и язык 12: стр. 278–296.

Каппелен, Герман и Лепоре, Эрни. 2005. Нечувствительная семантика.Оксфорд: Блэквелл.
http://dx.doi.org/10.1002/9780470755792

Деккер, Пол. 2002. «Значение и использование неопределенных выражений». Журнал логики, языка и информации 11: стр. 141–194.
http://dx.doi.org/10.1023/A:1017575313451

Деккер, Пол. 2004. «Основание динамической семантики». В Анне Безуиденхаут и Марге Реймер (ред.) «Описания и не только: Междисциплинарный сборник эссе по определенным и неопределенным описаниям и другим родственным явлениям», Оксфорд: Oxford University Press.

Деккер, Пол. 2007. «Оптимальный любознательный дискурс». В Мария Алони, Аластер Батлер и Пол Деккер (редакторы) «Вопросы динамической семантики», CRiSPI 17, стр. 83–101. Амстердам: Эльзевир.

Фреге, Готтлоб. 1892. «Über Sinn und Bedeutung». Zeitschrift für Philosophie und Philosophische Kritik NF 100: стр. 25–50.

Гинзбург, Джонатан. 1995. «Решая вопросы, I и II». Лингвистика и философия 18, вып. 5,6: стр. 459–527 и 567–609.

Гинзбург, Джонатан.Появляться. Интерактивная позиция: значение для разговора. Оксфорд: Издательство Оксфордского университета.

Groenendijk, Jeroen. 1999. «Логика допроса». В T. Matthews & D. Strolovitch (eds.) ‘Proceedings of SALT IX’, также появившемся в Aloni, M., Butler, A., and Dekker, P., 2007, Questions in Dynamic Semantics, CRiSPI, Elsevier .: Публикации CLC.

Groenendijk, Jeroen & Roelofsen, Флорис. 2009. «Любознательная семантика и прагматика». В книге «Иисус М. Ларрасабаль и Ларрайтс Зубельдия» (ред.) «Значение, содержание и аргументы: материалы международного семинара ILCLI по семантике, прагматике и риторике», Бильбао: Издательство Университета Страны Басков.

Groenendijk, Jeroen & Stokhof, Martin. 1991. «Динамическая логика предикатов». Лингвистика и философия 14, вып. 1. С. 39–100.
http://dx.doi.org/10.1007/BF00628304

Hulstijn, Joris. 1997. «Структурированные информационные состояния. Постановка и решение вопросов ». В «Proceedings of MunDial97» Антона Бенца и Герхарда Ягера (ред.), Стр.99–117. Мюнхенский университет.

Егер, Герхард. 1996. «Только обновления. Только о динамике фокусирующей частицы ». В книге Мартина Стохофа и Пола Деккера (ред.) «Труды десятого Амстердамского коллоквиума», стр. 387–405. Амстердам: ILLC, Амстердамский университет.

Ласкаридес, Алекс и Ашер, Николас. 2009. «Толкование вопросов в диалоге». В Arndt Riester & Torgrim Solstad (ред.) «Proceedings of Sinn und Bedeutung 13», 17–30. Штутгарт: IMS.

Льюис, Дэвид.1970. «Общая семантика». Синтез 22: 18–67.
http://dx.doi.org/10.1007/BF00413598

Монтегю, Ричард. 1974. «Английский как формальный язык». В Ричмонде Томасоне (ред.) «Формальная философия. Избранные статьи Ричарда Монтегю », стр. 188–221. Нью-Хейвен: издательство Йельского университета. Первоначально опубликовано в Bruno Visentini (et al.), 1970, Linguagginella Società e nella Tecnica, Edizioni di Comunità, Милан, стр. 189–224.

Педжин, Питер и Пеллетье, Фрэнсис Джеффри. 2007. «Содержание, контекст и композиция».В Герхарда Прейера и Георга Петера (редакторы) «Контекстная чувствительность и семантический минимализм», стр. 25–62. Оксфорд: Издательство Оксфордского университета. Оригинал рукописи, 2006 г., с аннотацией:
http://people.su.se/~ppagin/papers/jeffandpeter10.pdf.

Парти, Барбара Х. 1973. «Некоторые трансформационные расширения грамматики Монтегю». Журнал философской логики 2: 509–534.

Парти, Барбара Х. 2004. «Размышления формального семантика». В Барбаре Х. Парти (ред.) «Композиционность в формальной семантике», Оксфорд: Блэквелл.

Partee, B.H. 1979. «Семантика — математика психологии?» В Rainer Bäuerle, Urs Egli & Arnim von Stechow (ред.) «Семантика с разных точек зрения», стр. 1–14. Берлин: Springer-Verlag.

Куайн, Уиллард Ван Орман. 1960. «Перевод и значение». В W.V.O. Куайн (ред.) «Слово и объект», Кембридж: MIT Press.

Куайн, Уиллард Ван Орман. 1987. «Опять неопределенность перевода». Журнал философской логики 84: 5–10.

Реканати, Франсуа.1994. «Контекстуализм и анти-контекстуализм в философии языка». В С. Л. Цохацидисе (ред.) «Основы теории речевого акта: философские и лингвистические перспективы», Лондон и Нью-Йорк: Рутледж. Стр. 156–66.

Реканати, Франсуа. 2005. «Буквализм и контекстуализм: некоторые разновидности». В книге Герхарда Прейера и Георга Петера (редакторы) «Контекстуализм в философии: знание, значение и истина», стр. 171–196. Оксфорд: Издательство Оксфордского университета.

Реканати, Франсуа. 2006 г.«Безумный минимализм». Разум и язык 21, вып. 1: стр. 21–30.
http://dx.doi.org/10.1111/j.1468-0017.2006.00303.x

Робертс, Крейдж. 1996. «Информационная структура в дискурсе». В работе Дж. Х. Юна и А. Катола (ред.) «Рабочие документы по лингвистике 49», стр. 91–136. Государственный университет Огайо.

Робертс, Крейдж. 2004. «Контекст в динамической интерпретации». В «Справочнике по современной прагматической теории» Лоуренса Хорна и Грегори Уорда, Блэквелл.

Стэнли, Джейсон.2005. «Семантика в контексте». В книге Герхарда Прейера и Георга Петера (редакторы) «Контекстуализм в философии: знание, значение и истина», стр. 221–253. Оксфорд: Издательство Оксфордского университета.

Стохоф, Мартин. 2007. «Рука или молот». Журнал индийской философии 35: стр. 597–626.
http://dx.doi.org/10.1007/s10781-007-9023-7

Тарский, Альфред. 1944. «Семантическое понятие истины и основы семантики». Философия и феноменологические исследования 4.

Витгенштейн, Людвиг.1922. Tractatus Logico-Philosophicus. Оксфорд: Рутледж и Кеган. Первоначально появился в 1921 году как Logisch-Philosophische Abhandlung в Annalen der Naturphilosophie, 14.

Wittgenstein, Ludwig. 1953. Philosophische Untersuchungen / Философские исследования. Оксфорд: Блэквелл. Перевод Г.Е.М. Анскомб.

.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *