Страница обходится роботом и находится в поиске: Страница обходится роботом, но отсутствует в поиске. Ошибка Яндекс.Вебмастер

Содержание

Почему страницы сайта выпадают из индекса

Автор: Павел Шевченко, специалист seo-отдела в Mello

В этой статье мы затронем следующие вопросы:

  • Как проверить индексацию страницы сайта в Яндексе и в Google
  • С помощью каких сервисов можно проверить информацию об исключенных URL
  • Причины выпадения страниц из индекса и что делать в такой ситуации

Одиночное выпадение страниц из индекса поисковых систем

Вебмастер может заметить, что трафик, присутствовавший на некогда популярной странице услуги, исчез, звонки прекратились, а продажи упали до нуля. В этом случае следует проверить – не выпала ли данная страница из индекса поисковых систем, особенно если единственным каналом продвижения этой услуги в интернете был органический поиск.

Как проверить не выпала ли страница из индекса Яндекса:

В Яндекс Вебмастере. Вкладка «Индексирование — Проверить статус URL». Вводим URL нужной страницы, нажимаем кнопку “Проверить” и ждём. Если в результате написано, что страница обходится роботом и находится в поиске, значит все хорошо:


Через оператор url. В поисковой строке Яндекса вводим запрос по формуле [url:URL_документа]. Пример: 


Если страница присутствует в индексе, Яндекс ее выведет. 

Пример с отсутствующим в поиске URL:


Как проверить не выпала ли страница из индекса Google:

Проверить индексацию страницы в Гугле можно через сервис Google Search Console. Вставляем URL в строку проверки, нажимаем Enter:


Выводится информация о странице. В данном случае нас интересует информация о том, что URL присутствует в индексе Google.


Массовое выпадение страниц из индекса поисковых систем

Необходимо регулярно проверять свой сайт на количество исключенных из поиска страниц, так как целевые страницы могут выпасть из индекса в любой момент.

Как проверить информацию об исключенных страниц в Яндексе:

С помощью Вебмастера Яндекса можно узнать всю необходимую информацию об индексации страниц. Вкладка «Индексирование -> Страницы в поиске».


Всегда проверяйте исключенные URL, особенно если видите, что раньше страниц в поиске было заметно больше. Здесь вы можете увидеть информацию о дате и причине исключения URL из индекса.


Как проверить информацию об исключенных страницах в Google:

В Google Search Console также можно посмотреть информацию об исключенных URL. Для этого перейдем во вкладку «Покрытие»:


Здесь нам показывают:

  • Страницы с ошибками – Google не смог их проиндексировать 


  • Без ошибок, есть проблемы — проиндексированные страницы, но, возможно, имеющие ошибку с нашей стороны (например запрещены нужные нам URL в файле robots.txt)


  • Без ошибок
  • Исключенные


По каким причинам страницы выпадают из индекса

Причин, по которым страницы могут исключить из индекса, целое множество. Мы разделим их на две группы: технические причины и причины, зависящие от контента.

Технические причины

Редиректы

Поисковые системы исключают из индекса страницы, которые перенаправляют пользователя на другие страницы. При этом сама конечная страница (на которую идет перенаправление) зачастую не исключается (если нет другой причины).

Типичный пример исключения страницы, перенаправляющей пользователя на другую страницу (301 редирект):


Конечная страница осталась в поиске:


Так как конечная страница остается в поиске, то ничего страшного в данной ситуации нет, но желательно минимизировать кол-во ненужных 301 редиректов на сайте, если есть такая возможность.

404

Страницы с 404 ошибками также выпадают из индекса: 


Если страница удалена по ошибке, то конечно необходимо ее восстановить. Если страница больше не нужна, то нужно удалить все ссылки на сайте, ведущие на нее.

Файл Robots.txt и мета-тег Robots

Вебмастер может рекомендовать поисковым системам не включать в индекс нужные ему URL с помощью файла robots.txt или с помощью мета-тега Robots:


Проверьте файл robots.txt, нет ли там нужных вам страниц. Также проверьте мета-тег Robots. Если вы видите, что у атрибута “name” задано значение “robots”, а у атрибута “content” присутствует значение “noindex”, это означает, что сканирование страницы запрещено для всех поисковых роботов:


Более подробно про данный мета-тег можете почитать в справке Google.

Страница обнаружена, но не проиндексирована

В Google Search Console есть исключенные из индекса URL со статусом «Страница просканирована, но пока не проиндексирована»:


Это означает, что поисковый робот нашел вашу страницу, но не добавил ее в индекс. В данном случае нужно просто подождать и страница будет добавлена в поиск.

Причины, зависящие от контента

Дубли

Страницы полностью или частично дублирующие другие могут быть исключены из поиска.

Если страницы-дубли не нужны, то лучшим решением будет их удалить. Если нужны, то можно установить тег “rel=canonical” в <head> этих страниц. 

Например:


Также можно настроить 301 редирект со страницы-дубля на каноническую страницу.

Если обе похожие друг на друга страницы должны присутствовать не только на сайте, но и в поиске (например, две страницы карточек товара), то их нужно сделать уникальными (изменить мета-теги, текст на странице, фото и т.д.).

Недостаточно качественные страницы

Сюда относятся страницы, несоответствующие запросу и неcпособные удовлетворить потребности пользователя.

Необходимо сделать страницу более качественной. Если это страница блога, то сделать уникальный и полезный читателю контент. Если это страница карточки товара в интернет-магазине, то товар должен быть в наличии (или должна присутствовать возможность заказать со склада), содержать описание, краткие характеристики товара и т.д.

Переоптимизированный контент

Тексты, сделанные для поисковиков, а не для людей. Их отличает большое количество вхождений ключевых слов. В случае, если у вас на сайте много переоптимизированного контента, поисковики могут наложить фильтр на сайт и целое множество страниц выпадет из индекса.

Как написано выше — делайте контент в первую очередь для пользователей. И не забывайте про фактор переоптимизации.

Накрутка поведенческих факторов

Поисковые системы накладывают санкции за использование различных методов так называемого «черного» SEO. Одним из таких методов и является попытка накрутить поведенческие факторы искусственным путем. 

Не стоит использовать в своей работе сомнительные сервисы и программы по накрутке поведенческих факторов.

Неестественный ссылочный профиль

Если на сайте расположено множество покупных ссылок, а естественных ссылок очень мало, на него может наложиться фильтр поисковых систем (Минусинск у Яндекса и Пингвин у Гугла).

Аффилированность 

Если два сайта одной компании борются за место в выдаче, то поисковые системы показывают страницу только одного сайта (как правило показывается наиболее подходящий запросу).

Как проверить находится ли сайт под фильтром

В Яндексе

Зайдите в раздел «Диагностика -> Безопасность и нарушения» в Яндекс Вебмастере:


Если ваш сайт получил фильтр, то информация об этом отобразится в данном разделе.

В Google

В Google Search Console это можно проверить в разделах «Меры принятые вручную» и «Проблемы безопасности»:


Вывод

Если вы попали ситуацию с кучей выпавших из индекса URL, проанализируйте:

  • Заказывали ли вы ссылки, какие и сколько
  • Все ли тексты на вашем сайте качественные и уникальные
  • Удобен ли ваш сайт для пользователя, нет ли там излишней рекламы
  • Какие страницы запрещены с помощью файла Robots.txt и мета-тега robots
  • Присутствуют ли на сайте страницы-дубли

и исходя из итогов анализа устраните причину. 

Если же вам не удалось установить причину исключения URL из индекса, или вы устранили все возможные ошибки, а страницы так и не попали в поиск, попробуйте обратиться в техподдержку поисковой системы.

Яндекс плохо индексирует сайт. Почему?

А подобные доски делают на общих серверах, если конечно у вас не АВИТО.
Просто у многих хостеров есть ограничения типа:
Допустимая нагрузка на CPU Web 7% (100cp)
Допустимая нагрузка на CPU MySQL 1 400 с

——————————
«На процессы пользователя накладываются следующие ограничения:
— максимальное количество одновременно выполняемых задач — 10
— максимальное допустимое время работы скрипта: не более 2 процессорных минут
— максимальное количество открытых файлов на один процесс — 10
— максимальное использование памяти на процессы пользователя — 0,2 Гб
— максимальный размер файла — 0,2 Гб

На php-скрипты накладываются следующие ограничения:
— максимальное время выполнения (max_execution_time) — 60 секунд
— максимальное использование памяти (memory_limit) — 128 Мб

Максимальное количество одновременных http соединений — 20 для тарифов виртуального хостинга
Максимальное количество одновременных соединений с сервером БД MySQL — 50
Максимальное количество FTP-подключений от одного пользователя или с одного IP-адреса — 2.
Максимальное количество файлов на аккаунте — 100 000.

Максимальное количество писем отправляемых через наш smtp сервер — не более 100 писем в час.
Размер одного письма ограничен 5 Мб
Письмо должно иметь не более 5 получателей (поля TO, CC, BCC)

В случае превышения лимитов процессы, вызывающие перегрузку, могут быть отключены. В случае, если подобное превышение лимитов происходит систематически и Абонент не принимает мер по нормализации ситуации, после предупреждения ресурс может быть заблокирован.»
—————————-

А у некоторых таких ограничений нет, но зато есть ошибка 500, 502, 504.

Я за 3 месяца сменил 4 хостинг компании.

Сейчас сайт летает на недорогом VPS. Ноу проблем.

How to get Yandex to properly index an Ajax site that uses HTML5-mode URL?

Is there a site that relies on ajax technology.
The site has, for example, this URL:
www.example.com/blog/

When handling a robot that URL returns a page with an HTML tag <meta name="fragment" content="!" />. Also, this page does not contain any content within itself. Its contents looks like this:

...
<body>
<div></div>
</body>
</html>

Далее Yandex обращается по адресу www.example.com/blog/?_escaped_fragment_= и получает полностью сформированную HTML-версию страницы но уже без тега <meta name="fragment" content="!" />.

А вот далее возникает трудность. Когда страница появляется в поисковой выдаче Yandex, она уже находится по адресу www.example.com/blog/#!

Проблема в том, что такие страницы то попадают в поисковую выдачу, то пропадают из нее с пометкой Yandex-вебмастера «Страница обходится роботом, но отсутствует в поиске, поскольку дублирует уже имеющиеся на вашем сайте страницы».

График «Страниц в поиске» Yandex-мастера выглядит так:

Тех. поддержка Яндекса дала такой ответ:

«Увы, такое отображение адресов страниц связано с проблемами с нашей стороны. Наши специалисты уже знают об их существовании, надеемся, в скором времени данные в поиске будут обновлены.»

Понятно, что такое поведение Яндекса связано с тем, что первоначально Ajax-сайты должны были использовать URLы типа www.example.com#!/blog/. Тогда робот Yandex-а обращался бы к странице www.example.com?_escaped_fragment_=/blog/ и в поисковую выдачу попадала бы страница с правильным адресом www.example.com#!/blog/. Но очень уж не хочется иметь такие некрасивые адреса на сайте.

Есть ли какое-нибудь существующее решении проблемы выпадания страниц Ajax-сайтов из поисковой выдачи Yandex?

Очень не хотелось бы:

1. Возвращаться на HTML-версию сайта без Ajax.

2. Переходить на адресацию страниц типа www.example.com#!/blog/

Все о Robots.txt — Agrachoff Group

Шутки ради: Robots.txt я предохраняюсь.

Начну с того, что файл robots.txt является практически самым важным в сео продвижении. Из него поисковые роботы о (них тут) узнают что какие страницы можно показывать в поиске, а какие вообще не посещать и не показывать.

Содержание:

  1. Robots.txt – зачем он нужен
  2. Для чего скрывать информацию от роботов
  3. Как создать файл robots.txt
  4. Правильная настройка файла robots.txt
  5. Как запретить к индексации страницу сайта
  6. Как разрешить к индексации только одну папку
  7. Как запретить к индексации весь сайт
  8. Как проверить страницу на запрет к индексации
  9. Как правильно настроить файл robots.txt

Robots.txt – зачем он нужен

В robots.txt содержатся набор параметров для поисковых роботов, как для всех поисковых систем, так и для каждой поисковой системы в отдельности.

В него необходимо помещать все технические страницы, файлы, папки, пустые и не нужные страницы, чтобы не захламлять поиск и увеличить доверие поисковой системы к вашему сайту.

Например: файлы админ панели, страница с поиском, рекламные страницы, служебная информация и прочее.

Для чего скрывать информацию от роботов

Давайте представим, что сайт это ваша квартира в которой вы храните все свои вещи. Паспорт, деньги, документы на автомобиль, акции компаний, фотографии, драгоценности, квитанции на оплату и так далее.

К вам приходят в гости друзья и вы хотите показывать им только свои фотографии, похвастаться драгоценностями, а личные вещи скрыть от всех и не показывать ни при каких обстоятельствах.

Для этого вы возьмете и положите все вещи которые не хотите показывать друзьям в другую комнату и закроете ее на ключ. Больше ваши личные вещи не потревожат и вы спокойны.

В интернете роль ваших гостей получает поисковый робот. Так как сайт в интернете общедоступный, а интернет является всемирным, любой желающий может войти на него или посмотреть какую информацию вы на нем храните.

Некоторой информации вы хотите делиться со всеми (например свои цены на услуги), а некоторая информация только для внутреннего пользования (оптовые цены и телефоны ваших поставщиков партнеров).

Так для того, чтобы спрятать важную информацию от посторонних глаз и служит файл robots.txt. Он в переносном смысле убирает вещи (страницы) от посторонних глаз в другую сторону. Конечно если вы его создали, в противном случаи запреты действовать не будут и робот зайдет и все скачает в общий доступ.

Как создать файл robots.txt

Для создания файла нам потребуется простой текстовой блокнот. Его можно создать нажмите комбинацию клавиш Windows+R и в появившимся окне наберите слово notepad.

У вас появится чистый файл блокнота в который мы добавляем следующую запись:

User-agent: *

Фраза означает, что мы настраиваем этот файл для всех поисковых роботов всех поисковых систем. Можно настроить для каждой в отдельности но я не хочу вас путать и это нужно в индивидуальных случаях.

Все файлы robots начинаются с нее.

После чего мы нажимаем комбинацию клавиш Ctrl+S, пишем название robots, сохраняем файл на рабочий стол и мы на 30% ближе к правильной настройке.

Файл нужно загрузить на ваш сервер с сайтом туда, где находится файл index.html или index.php (в начальный каталог сайта)

Правильная настройка файла robots.txt

Есть всего 2 команды которыми мы будем пользоваться это:

  • Disallow – запретить к индексации (показу в поиске). Это закрывающий параметр.
  • Allow – разрешить к индексации. Это разрешающий параметр.

, а теперь давайте разберем на примере:

У нас есть сайт roi-consulting.ru. На нем есть сервере есть папки например с папка от управления сайтом (админ панель). Выглядит она вот так roi-consulting.ru/wp-admin

Это папка техническая и не несет посетителям какой либо информацией, а значит не нужна в поисковой выдаче. Для того чтобы запретить ее к обходу робота файл robots.txt будет выглядеть вот так:

User-agent: *

Disallow: /wp-admin/

В таком случае поисковому роботу дана команда, что весь сайт можно показывать в поисковой выдаче, но не папку wp-admin.

Внимание: в начете всех файлов и папок должен стоять знак «/»

Как запретить к индексации страницу сайта

Чтобы запретить к индексации конкретную страницу сайта нужно добавить ее в запреты к индексации в файле роботс. Например мы не хотим показывать страницу secret.html в поисковой выдаче. Название страницы можно посмотреть в вверху браузера зайдя на нее.

Например у нас выглядит вот так: site.ru/secret.html

Файл robots.txt выделит вот так:

User-agent: *

Disallow: /secret.html

Данная страница больше не будет обходится всеми роботами поисковых систем.

Как разрешить к индексации только одну папку

Бывают случаи, что от целого сайта нам нужно получать посетителей только на одну папку. Назовем ее /vsem/, а остольные файлы и папки срыть от роботов, тогда файл robots.txt будет выглядеть так:

User-agent: *

Allow: /vsem/

Disallow: /

Такой командой мы говорим роботу, что можно посещать и показывать в поиске только все что находится в папке /vsem/ и нечего больше.

Как запретить к индексации весь сайт

Запретить сайт к индексации совсем поможет вот такое заполнение файла:

User-agent: *

Disallow: /

*Ваш сайт будет полностью запрещен к обходу поисковыми роботами и показу во всех поисковых системах.

Как проверить страницу на запрет к индексации

В Яндекс Вебмастер есть функция позволяющая проверить есть ли запрет на индексацию () Как получить доступ к Яндекс Вебмастер я рассказал тут.

Она находится в разделе Инструменты > Анализ Robots.txt.

Опускаем страницу немного ниже и для выявления запрета к индексации мы вводим название файла или папки в окошко после чего нажимаем кнопку проверить.

Давайте попробуем проверить папку которую мы запретили к индексации в начале статьи.

Как вы видите доступ запрещен. Также указан параметр из-за чего индексация не происходит. В нашем примере запрет стоит на все технические папки название начала которых совпадает с /wp-*/

А вот пример уже доступной к индексации папки блога

Как правильно настроить файл robots.txt

Правильная настройка файла robots.txt, заключается в понимании зачем он вообще нужен, также поиску «мусорных», системных и ненужных страниц.

Они выявляются с помощью сервиса Яндекса, а также с помощью специальных программ, о чем я написал целую статью по исправлению ошибок на сайте и давайте отталкиваться от нее.

Давайте возьмем старый скриншот и его разберем

На этом скриншоте мы уже видим технические папки и данные, давайте их запретим к индексации.

Папка /wp-json/ сразу видно что техническая, а параметр «?p=» забивает выдачу технической информацией. Проверить и принять решение о нужности папки или файла можно перейдя по ссылке и посмотреть страницу.

Давайте их уберем. Для этого настоим файл robots.txt вот таким образом:

User-agent: *

Disallow: */wp-json/*

Disallow: */?p=*

Параметр * говорит роботам, что при любой встрече с папкой wp-json, не важно в каком разделе сайта она будет находится и при любом значении парамернра /?p= (/?p=1, /?p=2, /?p=123) страницы не показывать в поиске и не индексировать.

Как рассказано в статье исправление ошибок, найдите все ненужные и технические страницы сайта и добавьте их в запрет файла robots.txt

Надеюсь вам помогла моя статья, а если появились вопросы, задавайте их в комментариях. Мы идем дальше Продвижение сайта — настройка Sitemap — часть 4

Автор: Аграчев Михаил

Вопрос: Как добавить фото на ваш Гугл сайт? — Компьютеры и электроника

Содержание статьи:

 

Как Загрузить Фото в Интернет

Видео взято с канала: ЧавоТВ


 

Как добавить сайт в поиск Google и Яндекс | SEOquick

Видео взято с канала: SEOquick


 

Как добавить сайт в Гугл (Google)

Видео взято с канала: Как создать сайт и заработать в сети


 

Google сайт. Как создать сайт на Google

Видео взято с канала: Olga Polskaya


 

Основы HTML. Как вставить изображение на интернет-страницу

Видео взято с канала: Vladimir Moneymaster


 

Сайты Google 5 правил для начала работы / как создать веб сайт с Google Sites

Видео взято с канала: Опыт Тичера


 

Google Sites: как делать бесплатные сайты и посадочные страницы

Показать описание

Google Sites: https://sites.google.com.
Когда у вас возникает потребность сделать небольшой сайт: например, страницу-портфолио или лонгрид, не всегда нужно оплачивать хостинг, устанавливать CMS и т. д., иногда достаточно простых бесплатных решений. Скажем, блог-платформа Telegraph. Мы делали скринкаст о том, как ей пользоваться..
А сегодня хотим рассказать о сервисе Google Sites, который также достаточно легко позволяет создавать небольшие страницы типа лонгридов, но обладает уже куда большим набором возможностей, чем Telegraph. С помощью Google Sites можно сделать небольшой сайт на 5-10 страниц с постоянным URL и индексацией поисковыми системами. И все это абсолютно бесплатно..

Как создавать собственные карты в Google Map: https://youtu.be/h6C4dUL-SHU.
Видео Теплицы это уроки на русском по всем программам, которые могут вам пригодиться..
Теплица социальных технологий: http://te-st.ru.
Теплица социальных технологий в Telegram: https://t.me/teplitsa.
Теплица социальных технологий в facebook: http://facebook.com/TeplitsaST.
Теплица социальных технологий в Instagram: www.instagram.com/teplitsast/.
Теплица социальных технологий в vk: https://vk.com/TeplitsaST

Видео взято с канала: Теплица социальных технологий


Сосредоточьтесь на этих 5 областях, чтобы добиться больших результатов в SEO электронной коммерции

Опубликовано: 2020-11-18

Когда дело доходит до масштабного SEO для электронной коммерции, многие из традиционных тактик, используемых для оптимизации на сайте, просто неприменимы. Как вы собираетесь писать индивидуально оптимизированные заголовки / метаописания для сотен тысяч продуктов? Как вы собираетесь проводить исследование ключевых слов для миллионов различных комбинаций ключевых слов, по которым могут оцениваться ваши продукты? Из-за большого размера многих сайтов электронной коммерции традиционная тактика SEO может быть слишком трудоемкой или утомительной, чтобы сделать ее главным приоритетом.

Помимо временных затрат, которые потребовались бы для традиционного SEO, сайты электронной коммерции, как правило, представляют собой уникальный набор препятствий для SEO, которые необходимо устранить. Возьмем, к примеру, краулинговый бюджет. Для среднего веб-сайта — всего, что меньше нескольких тысяч URL — краулинговый бюджет не является проблемой, так как эти сайты, как правило, будут сканироваться эффективно.

Однако мы работали с сайтами электронной коммерции, имеющими миллионы URL-адресов. Для сайтов такого размера краулинговый бюджет становится важной частью SEO. Идеально оптимизированные страницы гораздо менее важны, чем убедиться, что все ваши продукты сканируются и индексируются поисковыми системами.

По результатам нашей работы с клиентами электронной коммерции мы определили пять областей для SEO электронной коммерции, которые могут привести к сильному органическому трафику и росту доходов:

  1. Индексация сайта
  2. Навигация по главному меню
  3. Копирование на странице для страниц категорий
  4. Схема продукта
  5. Структура URL

Давайте теперь углубимся в каждую из них.

1. Индексация сайта

Как упоминалось выше, краулинговый бюджет является решающим фактором для крупных сайтов электронной коммерции. Всякая локальная оптимизация в мире не поможет вашему сайту, если робот Google и другие сканеры вообще не находят ваш контент.

Есть несколько тактик, которые вы можете использовать для улучшения индексации вашего сайта. Один из них — проверить количество ошибок сервера 5xx, возвращаемых вашим сайтом, в консоли поиска Google. Аналитик Google Webmaster Trends Гэри Иллис недавно написал в блоге сообщение о бюджете сканирования, в котором он специально указывает веб-мастерам обращать внимание на количество ошибок сервера в отчете об ошибках сканирования в Search Console. Это связано с тем, что большое количество ошибок сервера или тайм-аутов соединения обычно указывает на плохое состояние сайта.

Предполагая, что на вашем сайте мало или совсем нет ошибок сервера, следующий элемент, который вы захотите просмотреть, — это ваши карты сайта. При работе с одним клиентом мы успешно заставили Google сканировать большую часть сайта, только чтобы обнаружить, что сканирование также увеличило количество страниц 404 с 10 000 до почти 140 000.

Оказалось, что многие продукты, снятые с производства, все еще включались в карты сайта, даже несмотря на то, что страницы были удалены, а это означало, что Google продолжал тратить ценный краулинговый бюджет на продукты, которых больше нет в наличии. Убедитесь, что ваши карты сайта динамически обновляются, чтобы отражать появление новых продуктов и прекращение выпуска старых продуктов.

Наконец, просмотрите параметры вашего продукта. Почти каждый сайт электронной коммерции будет иметь параметры продукта, которые позволят посетителям сузить, отсортировать или иным образом уточнить свой поисковый запрос. Вот пример URL-адреса продукта Amazon:

https://www.amazon.com/gp/product/B004JX7OPI/ref=s9_acsd_ps_hd_bw_b12OYj_c_x_2_w? pf_rd_m = ATVPDKIKX0DER & pf_rd_s = отоваривается-поиск-3 & pf_rd_r = 9X15NCBY1DGQD8JT4AEM & pf_rd_t = 101 & pf_rd_p = 3a5dd557-ba6c-504C-B670-c4055647d760 & pf_rd_i = 15347401 & й = 1

Все, что выделено жирным шрифтом после «?» это просто параметр, который Amazon использует, чтобы помочь пользователям найти конкретный рулон бумажных полотенец. К счастью, Google Search Console (и Bing Webmaster Tools) дает вам возможность указать роботу Googlebot не сканировать определенные параметры. Если у вас есть повторяющиеся страницы категорий, которые различаются только определенными параметрами сортировки, параметры URL в Search Console — отличный способ сэкономить краулинговый бюджет для остальной части вашего сайта.

2. Навигация по главному меню

Хотя навигация по главному меню важна для внутренних ссылок и SEO в целом, она приобретает новый уровень срочности для сайтов электронной коммерции. Страницы, указанные в вашем меню, с наибольшей вероятностью будут проиндексированы и ранжированы в результатах поиска, тем более что это меню будет отображаться на сотнях тысяч страниц. Значение внутренних ссылок в навигации по главному меню возрастает для сайтов электронной коммерции.

Один из способов извлечь выгоду из этой возможности навигации по меню — использовать дополнительные параметры навигации. Home Depot — яркий тому пример. Их меню «Все отделы» включает только 17 наиболее общих категорий продуктов. Однако, когда вы наводите курсор на каждую категорию, она расширяется до второстепенных параметров в этой категории (и даже до дополнительных параметров за ее пределами). Благодаря тому, что это меню появляется на каждой странице продукта и категории на сайте, значение внутренней ссылки обеспечивает заметное повышение рейтинга страниц меню Home Depot.

3. Копирование на странице для страниц категорий.

Многие веб-мастера считают нормальным иметь страницы категорий продуктов, которые просто перечисляют доступные продукты и в остальном не содержат содержимого. Я ненавижу сообщать плохие новости, но это не так. Просто перечисление продуктов на странице категории продуктов почти не указывает на то, что эта страница должна ранжироваться в Google. Сканеры любят видеть на странице текстовое HTML-содержание, чтобы понять, в каких результатах поиска должна отображаться страница.

Давайте посмотрим на пример крупного игрока в электронной коммерции, чтобы вы не подумали, что это необычная стратегия. Walmart умело применил этот подход на своих страницах категорий продуктов, как вы можете видеть на странице их отдела «Продукты питания»:

Даже такая простая вещь, как описание категории из двух абзацев, предоставляет поисковым роботам индексируемый контент, что дает вам гораздо больше шансов на ранжирование в результатах поиска. Не имеет значения, находится ли контент вверху страницы или внизу, если он виден пользователям и поисковым роботам.

Нам нравится эта стратегия, потому что для большинства сайтов она вполне возможна. При написании 150k уникальных описаний продукта будет грандиозная задача, написание контента для сотен категорий, что эти продукты попадают в может быть сделано с некоторыми планирования и напряженной работы.

4. Схема продукта

Хотя есть много полезных применений для структурированных данных Schema.org, вполне возможно, что наиболее полезное использование структурированных данных для SEO — это схема продукта. Google уделяет большое внимание схеме продукта, особенно для сайтов электронной коммерции.

Ранее в этом году Google объявил, что они собираются отображать «похожие товары» в поиске картинок Google, чтобы помочь людям найти продукты, связанные с тем, что они ищут. Их совет по оптимизации под это объявление? Убедитесь, что у вас есть схема продукта со ссылкой на изображение.

Помимо появления в поиске похожих товаров, правильное использование схемы продукта может выделить ваши продукты в результатах поиска. Google будет отображать различные элементы структурированных данных из схемы продукта, включая цену, рейтинг в звездах, доступность и многое другое.

В приведенном ниже примере вы можете увидеть, как Wayfair эффективно использует эту разметку для повышения видимости своего продукта в результатах поиска. Если возможно, динамически обновляйте поле «Звездный рейтинг», когда клиенты оставляют новые отзывы о ваших продуктах, так как это повысит доверие к вашей схеме и повысит вероятность того, что Google будет отображать ваши оценки.

5. Структура URL

Когда дело доходит до структуры URL-адресов, лучшим решением является размещение ваших продуктов как можно ближе к корневой папке. Хотя может показаться более логичным иметь ваши продукты в несколько каталогов (например, www.example.com/products/stuff/things/thing-1), вы не захотите использовать эту систему.

Более длинные URL-адреса означают, что поисковики не видят фактическое название вашего продукта до конца URL-адреса, который иногда может быть сокращен или вырезан в результатах поиска. Если вы посмотрите почти все крупные онлайн-магазины, вы увидите, что их фактические страницы с перечнем продуктов редко находятся на расстоянии более одной-двух папок от корневого каталога. Можно включать более длинные строки параметров после папки продукта, но убедитесь, что название продукта отображается в URL-адресе для результатов поиска.

Если вы хотите сделать еще один шаг, добавьте схему BreadcrumbList на свой сайт, чтобы очертить структуру каталогов сайта. При этом URL-адреса, которые появляются в сниппетах результатов поиска, преобразуются в чистую, ориентированную стрелками форму, которая намного более интуитивно понятна для пользователей.

Посмотрите в примере ниже, как структура URL-адреса Dick’s и Lids делает их результаты намного более аккуратными и привлекательными для пользователей, чем результат для Nike. Независимо от того, решите ли вы реализовать эту схему BreadcrumbList, убедитесь, что URL-адреса для ваших продуктов и категорий продуктов аккуратные, читаемые и как можно ближе к корневому каталогу.

Последние мысли

Используя эти пять тактик, мы увидели заметный прогресс в области SEO для наших клиентов электронной коммерции. Вот один клиент, с которым мы работаем с октября 2016 года. За время нашего взаимодействия с этим клиентом органический трафик вырос на 22 процента в годовом исчислении, а органический доход также вырос на 27 процентов:

SEO для электронной коммерции может оказать сильное влияние на онлайн-доход вас или вашего клиента, и пять описанных выше тактик — лучший способ ускорить этот прогресс.

Соавтором этой статьи является мой коллега из Go Fish Digital, Дж . Р. Ридли .


Мнения, выраженные в этой статье, принадлежат приглашенному автору и не обязательно Search Engine Land. Здесь перечислены штатные авторы.

Как выбрать оптимизатора и принять его работу? Поисковая оптимизация сайта

Цель сегодняшнего вебинара – это помочь владельцам сайтов выступить заказчиком поисковой оптимизации. Что это означает? Мы хотим вам помочь получить хороший результат и избежать ошибок.

Задачи в поисковой оптимизации

Кратко вернемся к финалу, к сути того, что происходит в рамках поисковой оптимизации.

Во-первых, есть понятие «маркетинговой воронки» – это способ представить себе какой-то поток. Например, в поисковой оптимизации такой воронкой может быть следующее: на верху воронки – это показ сайтов в поисковой выдаче, ваш сайт имеет какие-то показы на поиске. Люди, которые видят ваш сайт, могут кликать на него и таким образом вы имеете переходы на сайт – трафик. И дальше этот трафик может либо конвертироваться, либо нет в какие-то полезные целевые действия.

Здесь слово «конверсия» должно быть со звездочкой, потому что конверсия – понятие очень относительное, и в каждом бизнесе оно может быть своим. В случае с интернет-магазином это, наверное, покупка, физически покупка. Хотя на самом деле конверсией можно считать доставку, не только покупку, но и успешную сделку, включая доставку пользователю этого товара. В некоторых информационных сайтах конверсией можно считать что-то другое, наверное, достижение каких-то других целей. Конверсия здесь – это целевое для вашего бизнеса действие. И основная суть поисковой оптимизации – сделать так, чтобы этих целевых действий на трафике из поиска стало больше. Это цель поисковой оптимизации.

Выделяют пять задач:

  • Нужно выявить потребности пользователей, понять, какие задачи есть у людей и понять, как они формулируют свои потребности.
  • Дальше нужно скорректировать структуру сайта под эти задачи. Должны появиться разделы и посадочные страницы, куда пользователи смогут приходить из поиска и эти страницы должны решать задачи людей.
  • Дальше нужно провести технический аудит и исправить ошибки, если они есть. Сайт должен корректно отдавать контент, который должен быть доступен поисковому роботу и т.д., просто технический набор действий.
  • Дальше нужно улучшить представление сайта в поиске – участие в специальных программах, улучшение заголовков и сниппетов. Вы можете добиться того, что на ваш сайт будут кликать чаще и вы при тех же показах на поиске будете иметь больше поискового трафика.
  • И последняя часть – это скорректировать маркетинговые инструменты внутри сайта. Это все то, что обеспечивает вам конверсию, потому что понятно, пользователь может прийти на ваш сайт, но конверсию вы не получаете, потому что пользователю неудобно, непонятно, он может не доверять, не понимать и т.д., куча аспектов. Поэтому ваш сайт должен решать задачу пользователей.
  • И пятый пункт очень большой и объемный – это маркетинговое качество сайта, как сайт решает задачу людей.

Кто выполняет задачи по оптимизации?

Теперь поговорим про то, кто выполняет эти задачи по оптимизации.

Выявление потребностей пользователей – это делает маркетолог. Маркетолог должен знать о том, кто ваши пользователи, кто ваша целевая аудитория, как сформулирован спрос, какая его сезонность и т.д. Все эти вопросы решает маркетолог. Когда понятно, с какими задачами сталкиваются люди и как ваш бизнес, ваш сайт может им помочь эти задачи решать, маркетолог и веб-разработчик корректируют структуру сайта. Если это нужно, создают дополнительные посадочные страницы, корректируют структуру так, чтобы сайт был удобен, чтобы он имел достаточное количество правильных посадочных страниц для решения тех или иных задач людей.

Технический аудит и исправление ошибок – эту задачу выполняет веб-разработчик, потому что он понимает, как на ваш сайт приходят поисковые роботы, какие HTTP статусы они получают в ответ, есть у вас какие-то нюансы с soft 404 ошибкой или еще что-то. Здесь довольно много технических нюансов, но они очень понятные веб-разработчикам. Веб-разработчик, если вы ему покажете список вещей, которые надо сделать, а такой список есть фактически в нашей помощи, мы рассказываем, как мы индексируем сайты, это доступно, пожалуйста, ознакомьтесь. По такому списку веб-разработчик легко все проблемы исправит если они есть.

Представление сайта на поиске – это маркетолог. Это привлекательные сниппеты, маркетологи часто решают эти и другие задачи в рамках работы по другим каналам. Например, когда маркетолог делает контекстную рекламу, там тоже похожая логика. Должна существовать посадочная страница. Нужно понимать по каким запросам вы хотите получить трафик, а также как правильно написать объявление, чтобы оно было привлекательным. В каком-то смысле эта работа довольно похожа и маркетолог здесь точно может помочь.

Последний пункт – скорректировать маркетинговые инструменты на сайте – это тоже маркетолог, это прямо его вотчина, конечно.

А оптимизатор?!

Как мы это вообще обсуждаем оптимизацию сайта, а роль оптимизатора непонятна? Смотрите, это определение довольно относительное. Мы с вами раньше уже разобрали это, что вся поисковая оптимизация в общем-то состоит из технических аспектов и маркетинговых аспектов. Как именно называется позиция человека, который делает эти задачи, один это человек или это люди разные, это, в общем, не играет никакой роли. Главное, чтобы эти задачи были выполнены эффективно для вашего сайта. Поэтому эти задачи может выполнять оптимизатор, веб-разработчик и маркетолог вашего сайта. Никаких проблем, главное, чтобы вы понимали суть этих работ и их ценность для вашего бизнеса.

Пару вопросов, которые я советую адресовать самим себе, чтобы убедиться, что вы ничего не упустили на этом этапе. Вы точно должны понимать какие именно задачи решаются в рамках поисковой оптимизации на вашем сайте.

И второе, вы должны понимать, зачем это происходит. Если ваш подрядчик, например, не может объяснить, что он делает или зачем он это делает, или вы не удовлетворены его ответом, вы не понимаете логики этих действий и не понимаете, почему вдруг должно произойти так, как он предлагает, это нехороший звонок. Или предложения оптимизатора конфликтуют с тем, что предлагает вам сделать ваш маркетолог или веб-разработчик, это тоже знак того, что надо обратить на это внимание. Это странно, потому что поисковая оптимизация в целом – это улучшение сайта и странно, если здесь возникает некоторый конфликт, надо, конечно, смотреть, в чем его суть.

Оптимизация – до или после запуска сайта?

Итак, частый вопрос, когда нужно делать оптимизацию – до или после запуска сайта?

Часть работ нужно сделать до, а часть работ после и что-то надо делать всегда. Если вы забыли, например, про оценку поискового спроса и эти вопросы о посадочных страницах, о том, как устроена навигация и т.д., если вы про это не подумали до запуска сайта, возможно, вам потом придется потратить заметное количество времени и сил на переделку. Это может быть довольно накладно и всегда неприятно терять время, поэтому я советую про структуру сайта, типы посадочных страниц и навигацию обязательно подумать заранее до запуска сайта. Наверняка вам это поможет сделать правильный выбор.

С другой стороны, когда мы говорим об оптимизации маркетинговой – заголовки, улучшения блоков контента, рекомендательные системы и т.д., там огромный список, это можно сделать исключительно на работающем сайте. Понятно, есть какие-то вещи, которые продиктованы здравым смыслом. Если вы продаете какие-то товары и у вас нет кнопки «купить», наверное, они будут продаваться плохо, это понятно, это просто на уровне здравого смысла. Но при этом сколько и какого контента нужно на сайте, нужны людям видеообзоры или нет, хотят они сравнивать товары 1:1 или не хотят, нет такой задачи, хотят ли они читать отзывы, например, это вопросы, на которые каждый сайт отвечает по-своему и универсального здесь ответа нет, надо экспериментировать. Чтобы экспериментировать, нужен трафик, нужны пользователи, поэтому эта часть делается уже на работающем, на запущенном сайте.

Есть часть, которая актуальна всегда и во все времена – это мониторинг. Так бывает, что даже хорошие крупные сайты иногда ломаются. У них может быть большая команда, которая обслуживает этот сайт, но технические ошибки всегда бывают, к сожалению. Обидно, когда хороший сайт теряет трафик просто из-за того, что выкатился какой-нибудь robots.txt, который запрещает индексацию всего сайта или HTTP-статусы неверные, или какие-нибудь директивы real_canonical сломались или еще что-то, это обидно.

Поэтому наблюдать за тем, что происходит и как сайт виден в поиске обязательно нужно, нужно постоянно. Нельзя это сделать один раз, а потом забыть об этом. Это чревато ошибками в будущем и потерей трафика. Мы хотим помогать вам не терять этот трафик и поэтому у нас в Вебмастере есть такие мониторинги, называется «Мониторинг важных страниц» и есть диагностика сайта. Пожалуйста, пользуйтесь, либо используйте другие инструменты, которые вам доступны, обязательно наблюдайте.

Как выбрать: inhouse, фриланс, агентство?

Есть разные модели. Например, у вас может быть сотрудник в офисе, фрилансер, а в качестве подрядчика агентство или какая-то компания. Смотрите, ключевое здесь следующее – не важно, где физически находится ваш сотрудник, который делает поисковую оптимизацию. Мы уже говорили о том, что не очень важно, как именно называется позиция этого человека, важно, чтобы человек делал содержательно нужные вещи, технические и маркетинговые. Будет это один человек или это будут разные люди совершенно не важно, также не важно, где находится этот человек. Это непринципиально. Важно, что и как он делает для вашего бизнеса.

И здесь выделяют три ключевых аспекта:

  • Первый аспект – оптимизация – это понятный набор действий, техническая оптимизация и маркетинг.
  • Второе, будьте готовы к необходимости изменений на сайте. И больше того, я вам советую, требуйте этих измеримых улучшений. Поисковая оптимизация не случается где-то в стороне от сайта, не существует какой-то магической кнопки и у вас оптимизирован сайт. Из того, что мы уже рассказали, должно быть наверняка понятно, что я уже уверен, что вам это понятно, что поисковая оптимизация – это набор действий, каждое действие требует каких-то ресурсов, затрат, внимания. Поэтому без изменений на сайте не происходит поисковой оптимизации, это невозможно. Поэтому требуйте этих изменений и будьте готовы к ним. Это означает, что вам нужно выделять какие-то ресурсы, разработки на то, чтобы внедрять изменения и измерять их ценность, экспериментировать, делать ваш сайт лучше. Это заметная работа и эта работа очень правильная, направленная на созидание вашего бизнеса и сайта. Поэтому просто будьте к этому готовы, это потребует ваших усилий.
  • И важный пункт о том, что мотивация подрядчика должна быть ровно такой же, как и мотивация в других задачах, рост конверсии в поисковом трафике. Это влечет за собой еще следующий аспект – в зависимости от модели взаимодействия ваш сотрудник может быть больше или меньше погружен в ваш бизнес. Например, сотруднику внутри компании вы готовы открыть больше внутренних данных сайта о статистике, о транзакциях и т.д., вы готовы предоставить больше аналитики чем внешнему подрядчику. Это означает, что если вы хотите на самом деле глубокого погружения подрядчика в ваши задачи, то вам нужно быть готовым делегировать какую-то информацию, по сути, разделять с ним какую-то информацию. Поэтому здесь важно, если вам нужно много изменений на сайте, то этот человек должен быть глубоко погружен в ваши задачи, в ваш бизнес и где он находится не принципиально совершенно, просто учтите это.

Однажды или постоянно?

Оптимизация это что-то, что случается однажды или что-то, что длится постоянно?

Кажется, мы ответили на него немножко раньше, в том смысле, что что-то надо сделать до запуска, а мониторинг, например, нужен все время. Я хочу отметить, что на самом деле вы, по сути, оцениваете каждый этап отдельно и эти этапы могут измеряться отдельно, каждый этап. Если вы, например, работаете с исправлением дубликатов – это измеримый процесс. В Вебмастере есть данные про то, как ваш сайт обходится роботом, какие страницы не попадают в поиск, с полными статусами, почему это происходит.

Это кстати к тому, что у меня часто спрашивают: «Оптимизация – это, наверное, что-то очень сложное и непонятное?». Да, непонятно что делать, какие-то слова сложные и т.д. Смотрите, я вам сходу сейчас пару примеров приведу, которые иллюстрируют, что поисковая оптимизация – это понятный процесс, она может быть понятной. Например, поисковые системы индексируют страницы, это понятно. Конечно, поисковые системы не любят индексировать одинаковые страницы, это лишено смысла. Пользователи хотят разные страницы, естественно мы хотим давать хорошие качественные ответы, поэтому мы хотим индексировать разные страницы и дубликаты нам неинтересны.

Одна из задач – это сделать так, чтобы на сайте было меньше дубликатов. Как это сделать? В Вебмастере есть раздел «Страница в поиске», там есть исключенные страницы и вы можете увидеть с какими статусами страницы исключаются, увидеть их примеры и дальше исправить эту проблему. Например, при помощи директивы real_canonical или иначе, как вам удобно. Пожалуйста, очень простое и понятное действие с физическим смыслом. Его можно измерить по динамике таких страниц на поиске.

Другой аспект, например, когда мы говорим об улучшении качества сайта для пользователей, вам пригодится очень простая механика. Заходим в Метрику и выбираем «Популярные страницы входа» из поисковых машин и сортируем эти страницы, например, по показателю отказов. Выбираем те страницы, на которые приходят пользователи из поиска, и часто видим испытывают какие-то затруднения или страницы не решают их задачу. Дальше мы находим для этих страниц поисковые запросы либо в Метрике, либо в Вебмастере в последних запросах и дальше смотрим на это все и пытаемся для себя понять, что не понравилось тем людям, которые пришли из поиска по таким запросам на такую страницу.

Мы можем посмотреть записи вебвизора и пытаемся предположить, что здесь было не так, что не понравилось, что можно было улучшить. Генерируем какие-то гипотезы, идеи и реализуем их на сайте. Очень понятная механика и очень понятный физический смысл. Поэтому во всех задачах поисковой оптимизации ищите этот физический смысл, что происходит и зачем. Поэтому ответ здесь следующий, однажды или постоянно, есть постоянная работа, наверное, должна быть и регулярная оплата. Если нет регулярной работы, то, наверное, не должно быть регулярной оплаты, такой простой подход. Просто пытайтесь понять, что ваш сотрудник или подрядчик делает. Если в том, что он делает, вы видите смысл, вы можете это измерить, то это прекрасно, отлично, значит, вы на правильном пути.

Сборник типовых ошибок

Здесь же можно вспомнить про частые дискуссии, которые иногда возникают среди оптимизаторов. Это обсуждение вида – сколько и какой должен быть объем аудита. Аудит – это документ, который обычно делают оптимизаторы и это документ, в котором описаны какие-то недостатки сайта, ошибки с точки зрения оптимизатора.

Эти аудиты бывают очень разными. Иногда это 20-30 строчек, каждая из которых имеет явно выраженный смысл и рекомендацию. Например, есть такие-то проблемы на таких-то типах страниц, рекомендуется сделать это и это. Такой список может быть довольно коротким. Для небольшого сайта это может быть 15-20 коротких пунктов, которые можно изложить коротко. Иногда под видом аудита предлагают огромное полотно малоосмысленных цифр и каких-то показателей, которые интересны разве что самому изготовителю этого аудита, какая-то бесконечная простыня довольно бессмысленных чисел. Я предостерегаю от использования таких рекомендаций, как руководства к действию, но их чаще всего и нельзя использовать как руководство к действию, потому что за ними нет никакого физического смысла. Поэтому я не против цифр, я только за правильные измерения.

Я призываю к тому, чтобы вы искали смысл в том, что вам предлагают делать. Аудит ради получения какого-то красивого отчета это странно. Аудит должен содержать рекомендации к изменению и эти рекомендации должны быть понятны.

Вымышленные и навигационные запросы

Некоторые типовые ошибки, которые возникают в поисковой оптимизации, вымышленные, как например, и навигационные запросы. Вымышленные – это такие запросы, которые люди придумали, их просто нет, и всегда можно изобрести какие-то новые запросы, которые никто не задает в поиск, и могут находиться, поэтому у нас самые первые позиции, но это ни к чему не приводит. Это не дает целевых посетителей, это не дает конверсии, поэтому, наверное, в этом совсем немного смысла.

Есть навигационные запросы – это те запросы, в которых упоминают, собственно, в которых ищут ваш сайт или ваш бренд. По этим запросам вы, как правило, и так на первом месте, тут тоже нечего оптимизировать, но это иногда пытаются предложить и взять за это какие-то деньги. Это не стоит делать, потому что ценности в этом нет.

Роботы редко покупают

Могут пытаться привести к вам роботов, не живых пользователей, которые правда заинтересованы в ваших товарах, а роботов. Роботы редко покупают, в этом проблема, поэтому понятно, что есть смысл наблюдать за качеством трафика, то есть не просто за количеством переходов из поиска, но и за качеством. Качество можно измерять в конверсиях, например, или в каких-то поведенческих метриках. Наблюдайте за качеством, если вы понимаете, что трафик, который приводит оптимизатор, это трафик почему-то низкого качества, то стоит здесь задуматься почему так? Возможно, вам приводят роботом или возможно тот трафик, который вам приводят, вообще говоря, не очень соответствует вашим задачам. Это какие-то смежные темы, трафик есть, а продаж нет, зачем это нужно? Поэтому обращайте на это внимание, а также на перекосы какие-то, часто роботов можно увидеть по каким-то странным аномалиям в трафике.

Тариф «Надежда». Оптом – скидка.

Тариф «Надежда» – это довольно печальное явление, когда оптимизатор может просто ждать успеха, ничего при этом особенно не делая. Чисто статистически вы же на сайте что-то меняете сами, вы туда добавляете какие-то товары, что-то пишете, делаете какие-то маркетинговые акции, делаете другую какую-то рекламу. В общем, вы как-то инвестируете в развитие своего сайта и независимо от того, что делает оптимизатор, здесь возможен рост в поисковом трафике. Здесь нужно понимать, что иногда этот рост интерпретируют некорректно и на самом деле этот рост – ваша заслуга, вашего бизнеса, а не усилий оптимизатора. Здесь опять же нужно просто понимать, что делает оптимизатор, в чем конкретно его задача, что он сделал и к чему это привело. Поэтому не ошибитесь, не купите просто такое ожидание, это обидно, вы теряете деньги и теряете время.

Аудит «в стол» не помогает оптимизации

Важно, что те предложения, те идеи, которые возникают у вашего веб-разработчика или маркетолога, эти идеи должны реализоваться. Аудит, какие-то рекомендации написанные или предложенные это, конечно, прекрасно и здорово, но они должны реализоваться на сайте. Поэтому если у вас нет ресурсов на то, чтобы эти изменения как-то реализовать на сайте, нет ресурсов разработки на это, и все, тогда может быть и нет смысла делать оптимизацию? Потому что вы ведь все равно не сможете реализовать это. Поэтому я призываю здесь рационально отнестись и понять, что поисковая оптимизация – это большая работа с сайтом, поэтому инвестируйте в это время и силы.

Кто рискует? Кто несет риски?

Риски создает оптимизатор, а несет их, по сути, владелец сайта, владелец бизнеса. Логика здесь очень простая. Когда вы выбираете оптимизатора или компанию, то доверяйте. Если вы не испытываете доверия к сотруднику или компании, то довольно странно делать поисковую оптимизацию. Вообще любое дело делать странно, если доверия нет, поэтому призываю здесь просто принимать эти риски, про них написано в нашей помощи.

Как измерять результат?

Как измерять результат? Как понять, что ваши усилия привели к чему-то? Во-первых, вернемся на шаг назад и поймем, что именно мы хотим измерить? Какая ключевая метрика? Чем ближе эта метрика к задаче бизнеса, тем лучше. Такой метрикой, например, могут быть посетители, но мы с вами уже понимаем, что трафик может быть разного качества, разные типы страниц, по разным запросам и т.д. Совсем не факт, что посетители будут одинаково хорошо конвертироваться в покупателей с одним и тем же средним чеком и т.д. Совсем не факт.

Поэтому в целом, развивая эту идею, можно предложить использовать такие метрики, как целевые посетители, то есть те люди, которые на ваш сайт пришли из органического поиска и на вашем сайте совершили целевое действие, нужное вашему бизнесу. Это может быть, как положить товар в корзину, так и вручить товар покупателю, когда курьер приезжает и прямо отдает из рук в руки товар. Ради бога, здесь, на самом деле, этим вы управляете, это вы регулируете, что именно вы будете считать целью, делайте так, как вам удобно.

Это могут быть конверсии, интегральные суммы продаж, которые будут включать в себя еще и усилия по дополнительным продажам, кросс-сейлу, апсейлу, которые генерирует ваш сайт.

Как измерять?

Выделяют два больших аспекта, два важных нюанса: сезонность и навигационный трафик. Нужно учесть сезонность. Что это означает? Ваш сайт может получать больше или меньше посетителей из поиска не только потому, что вы что-то меняете на сайте и как-то лучше конкурируете с другими компаниями в Интернете, но и потому, например, что просто изменился спрос на те товары или услуги, которые вы предлагаете.

Эта сезонность может иметь разную природу, иногда это привязано к дате. Например, Новый Год или 8 Марта. Иногда это привязано к погоде. Допустим, детские велосипеды покупают не весной, а когда потеплело достаточно, чтобы купить ребенку велосипед, чтобы он мог кататься, а зимние шины покупают осенью, но не просто осенью, а когда начинает уже снег выпадать, уже всем становится понятно, что без зимней резины не обойтись.

Более того, правильно, наверное, сезонностью еще считать и какие-то другие события, которые могут происходить, то есть под сезонностью мы понимаем какие-то всплески спроса, которые не находятся в зоне непосредственного влияния оптимизатора или специалиста по оптимизации или ваших других специалистов, маркетолога или кого-то еще. Это то, что от вас не зависит.

Чтобы учесть эту сезонность и посчитать цифры корректно, учитывая эту сезонную динамику, выделяют два подхода. На самом деле их больше, но понятных и простых подхода всего два, и они достаточно эффективны.

  • Вы можете сравнить поисковый и прямой трафик. Поисковый – это трафик из поисковых машин, а прямой – это те визиты, которые вы получаете, когда пользователь просто в браузере, в адресной строке набирает название вашего сайта. В чем здесь идея? Идея в том, что, если вы продаете зимние шины и начинается сезон зимних шин, то люди начинают больше спрашивать в поиске про зимние шины, а те люди, которые знали, что вы торгуете зимними шинами и приходили к вам напрямую, тоже будут чаще к вам приходить просто потому, что у них сейчас появилась в этом потребность и они про вас помнят. Таким образом динамика прямого трафика в каком-то смысле является baseline’ом, некоторой величиной, на которую можно ориентироваться, оценивая рост органического трафика. Если у вас и поисковый трафик и прямой растут очень похоже, то это не рост органического трафика как такового, это скорее сезонность.
  • Вы можете сравнить динамику конверсии или целевых визитов в любой метрике, на самом деле, с аналогичным периодом в прошлом. Особенно хорошо это работает для каких-то фиксированных дат. Первое сентября или Новый год, 8 Марта, то есть, когда примерно понятна точка, в которой происходит рост спроса, то можно просто сравнивать период к периоду. Таким образом вы понимаете какой рост был в прошлом и какой рост есть сейчас, можете соответственно соотнести их и понять это просто сезонность или что-то еще.

Второй аспект заключается в том, что те запросы, в которых уже есть название вашего сайта, вашего бренда, вашей компании, уже ваши. И то, что эти запросы ваши и поиск приводит к вам посетителей, которые ищут ваш бизнес, ваш сайт это не заслуга оптимизатора, это следствие качества вашего бизнеса, к вам хотят приходить люди, они про вас помнят, они вас ценят и т.д. Это усилие вашего бизнеса, вашего маркетинга, следствие каких-то, может быть офлайн кампаний и т.д. Это следствие комплекса причин, а не результат поисковой оптимизации.

Таким образом, чтобы исключить этот навигационный трафик, который уже и так ваш и посчитать органический трафик, который не содержит таких слов, вы можете поступить, примерно двумя способами.

  • Вы можете исключить трафик на главную страницу. Этот пункт я привел со звездочкой, сейчас поясню в чем здесь особенность. Если ваша главная страница в основном отвечает на брендовые запросы, на те запросы, когда пользователи ищут вашу компанию, тогда все в порядке, это сделать корректно. Если так получилось, что ваша страница еще и отвечает на многие другие запросы, на несколько основных запросов каких-то про вашу нишу, то не только по брендовым приходят на главную страницу, но еще и по основным каким-то запросам про ваш бизнес, тогда такое действие будет не очень корректно. Потому что, исключая трафик на главную страницу, вы невольно можете исключить еще из рассмотрения переходы по не брендовым запросам.
  • Вы можете сгруппировать вопросы, в которых есть либо название сайта, либо название бренда и эту группу не учитывать. Что значит не учитывать? Вы можете смотреть на эту группу отдельно, это отдельная интересная задача – наблюдать за динамикой брендового трафика.

В Вебмастере есть инструменты для этого. Какими инструментами можно воспользоваться?

  • Отчеты в Яндекс. Метрике по источникам трафика со скриншотами, с подробными слайдами.
  • Историю запросов из Яндекс. Вебмастера. Яндекс. Вебмастер может сгруппировать эти запросы, которые вам интересны, по каким-то маскам, объединить их в группу и эту группу рассматривать отдельно. Есть, например, группа все запросы и у нее есть некая динамика кликов из поиска, а есть группа, например, ваши брендовые запросы, и у этой группы есть тоже какая-то динамика кликов из поиска. Сравнивая эти две группы, их динамику, вы можете сделать выводы о том, происходит ли рост, и вы таким образом честно учитываете навигационный трафик.

Гарантии?

Вопрос гарантии всегда интересен. Часто заказчику непонятно какие гарантии можно требовать и какие гарантии вообще могут быть. Здесь важно понимать следующее, что поиск – это сложная технология, это огромное количество факторов, машинное обучение, нейронные сети и т.д. Это реально большие и сложные технологии, соответственно просто предсказать так взять и точно сказать: «Послезавтра по этому запросу этот сайт будет на шестом месте» просто невозможно, это фантастика какая-то, так не бывает. Я конечно не говорю здесь о случаях каких-то специальных, специфических. Условно, по запросу, в котором есть название вашего сайта или название вашей компании, вы с большой вероятностью будете на первом месте всегда и везде, и это легко предсказать, но в этом предсказании нет особого смысла. Вы же про другие запросы и классы запросов, наверное, общаетесь с оптимизатором и планируете какие-то действия по своему сайту.

Поэтому я советую смотреть на это следующим образом. Гарантировать технически какие-то позиции невозможно просто потому, что поиск очень динамичен, невозможно это предсказать. Но что можно делать? Мы подробно говорили о том, из чего состоит поисковая оптимизация и как задачи поисковой оптимизации раскладываются в зону технической оптимизации и маркетинговую зону, вернее, даже правильно сказать, в зону маркетинга и продукта, потому что, где продуктовая нагрузка, а где усилия маркетолога, это на самом деле сложно иногда разделить, а может быть и делить не нужно.

Есть технические аспекты, а есть продуктово-маркетинговые аспекты. И те, и другие задачи формализуемы, и мы это разобрали подробно, и в каждой задаче могут быть свои какие-то точки, в которых можно увидеть эффективность, можно понять что-то вообще происходит или нет.

Например, задача на уменьшение количества дублей, которые доступны поисковой машине. Понятная задача, в Вебмастере есть инструмент чтобы увидеть эти дубликаты, найти статус страниц, увидеть примеры, отлично. Вы берете эти страницы, видите эти примеры, попросите вашего веб-разработчика исправить эти ошибки, понятно, как это делать, и дальше просто наблюдаете как в Вебмастере становится меньше таких страниц. Очень понятный процесс с понятной задачей, с понятным результатом и с понятным способом измерения. Вы просто видите, что происходит.

В случае маркетинга ровно та же история. Вы хотите улучшить карточку товара? Отлично, вы проводите эксперимент и доказываете в числах, что теперь пользователям стало лучше, они стали покупать больше. Замечательно. В каждом этапе есть способ измерять, поэтому на каждом этапе нужно ожидать заметного понятного положительного тренда. Какой он именно будет? Какая именно цифра должны скрываться за этой работой не всегда понятно, это трудно иногда спрогнозировать, но ожидать устойчивого понятного позитивного тренда, конечно, нужно. И идея, которую хочется донести, заключается в следующем – формализуйте задачи, четко понимайте, что вы хотите получить на каждом этапе и ожидайте устойчивой и понятной положительной динамики в каждой задаче. Это, на мой взгляд, принципиально правильный подход.

 

Резюме

  • Обязательно разберитесь в сути задачи. Я не призываю вас стать ни веб-разработчиками, ни маркетологами, нет. Эти задачи выполняют люди, которые это хорошо умеют делать. Но разберитесь, пожалуйста, что в принципе должно происходить. Это не сложно, этих задач не так много, и мы про них говорили. Важно понять, что существуют просто разные роли, есть роль маркетолога, есть роль веб-разработчика, есть роль специалиста по продукту. Оптимизатор может включать в себя все эти роли и может быть прекрасным специалистом во многих областях, а может быть и не так, может у вас в штате уже есть люди, которые эту работу выполняют. Это не важно, главное, что эти роли должны быть выполнены.
  • Убедитесь, что работа оптимизатора не создает риски вашему сайту, что не используются какие-то обманные техники.
  • Будьте готовы к изменениям на сайте и будьте заказчиком этих изменений, требуйте этих изменений. Вы заказываете оптимизацию сайта – это улучшение сайта, требуйте, чтобы вам улучшали сайт.
  • Разберитесь, что будет критерием успешности на каждом этапе.
  • Измеряйте результат.

Наверное, к этому больше добавить нечего. Мне кажется, что если придерживаться такой логики, то процесс оптимизации станет для вас не какой-то странной непонятной сущностью, в которой что-то происходит и непонятно хорошо это или плохо, она станет вообще понятным процессом, частью просто того, что вы делаете в онлайне и эта часть будет понятна, технические процессы, маркетинговые, продуктовые. Ничего особенного в этом нет.

 

Источник: как выбрать оптимизатора и принять его работу — Михаил Сливинский

Fix I’m Not A Robot Проблема reCAPTCHA в поиске Google »WebNots

CAPTCHA — это аббревиатура от C полностью A автоматически P ublic T uring test, чтобы определить компьютеры C и H umans

A part. Это сложный тест, позволяющий отличить людей от автоматических ботов на основе ответа. reCAPTCHA — одна из служб защиты от спама CAPTCHA, купленная Google. Теперь он предлагается бесплатно для веб-мастеров, и Google также использует reCAPTCHA в своих собственных сервисах, таких как Google Search.

Автоматизированные роботы — самая большая головная боль при рассылке спама и потреблении ресурсов сервера, которые должны использоваться реальными пользователями. Чтобы избежать использования автоматических ботов, Google представил концепцию API «No CAPTCHA reCAPTCHA» для владельцев веб-сайтов, чтобы защитить свои сайты. Позже, чтобы улучшить пользовательский интерфейс, Google представил невидимую reCAPTCHA, а также Android API.

Invisible CAPTCHA помогает останавливать ботов, не показывая пользователям-людям сообщение «Я не робот». Но это не работает во многих ситуациях, так как сообщение все равно будет отображаться.Например, сама страница поиска Google будет отображать CAPTCHA-сообщение «Я не робот» при определенных обстоятельствах, когда вы вводите запрос и нажимаете кнопку поиска. Вам будет предложено доказать, что вы человек, установив флажок или выбрав изображения на основе данной подсказки.

Почему это неловко?

Когда вы выполняете настоящий поиск в Google, и вас прерывает сообщение «Я не робот», это действительно смущает вас. Иногда это позволяет просто установить флажок.Google проверит положение щелчка на флажке. Боты нажимают точно в центре флажка, а люди щелкают где-нибудь в поле. Это поможет решить Google, является ли пользователь человеком или ботом.

Проверка CAPTCHA в поиске Google

Даже есть расширение браузера для Chrome, чтобы установить флажок, как только страница загрузится.

Но в большинстве случаев вам необходимо выполнить пять или шесть проверок, прежде чем вы увидите реальные результаты поиска. Не забудьте нажать кнопку «Подтвердить», если вы не видите подходящих изображений или когда вы чувствуете, что проверка завершена.Google решит подтвердить подтверждение или продолжит проверку.

Раздражающая проверка изображения

В худшем случае Google полностью остановит вас, показав страницу с извинениями. Единственный вариант, который у вас есть, — это подождать и попробовать позже.

Страница с сожалением в Google

В чем основная причина сообщения reCAPTCHA «Я не робот»?

Что ж, когда вы получите сообщение reCAPTCHA «Я не робот», просто нажмите «Почему это произошло? Ссылка. В качестве альтернативы вы можете в любое время перейти на эту извиняющуюся страницу Google, чтобы увидеть причины, указанные ниже:

Эта страница появляется, когда Google автоматически обнаруживает запросы, поступающие из вашей компьютерной сети, которые, по всей видимости, нарушают Условия использования.Срок действия блока истечет вскоре после того, как эти запросы прекратятся.

Этот трафик мог быть отправлен вредоносным программным обеспечением, подключаемым модулем браузера или сценарием, отправляющим автоматические запросы. Если вы используете общее сетевое соединение, обратитесь за помощью к администратору — это может быть другой компьютер, использующий тот же IP-адрес. Узнать больше

Иногда вы можете увидеть эту страницу, если используете расширенные термины, которые, как известно, используют роботы, или очень быстро отправляете запросы.

Исправить ошибку reCAPTCHA «Я не робот» в поиске Google

Теперь вы знаете, почему это происходит !!! Если вас постоянно отвлекают, вот несколько советов, как решить проблему «Я не робот» в поиске Google.

  1. Проверьте свой IP-адрес
  2. Проверьте свою сеть
  3. Прекратите использовать VPN
  4. Избегайте неизвестных прокси-серверов
  5. Используйте общедоступный DNS Google
  6. Прекратите поиск нелегальных запросов
  7. Замедлите клики
  8. Прекратите отправлять автоматические запросы
  9. Искать как человек
  10. Проверить на наличие вредоносных программ и расширений браузера

К сожалению, сильных альтернатив поиску в Google нет. Bing и Yahoo! далеки от ожидаемых результатов и не ближе к точности Google.Итак, попробуйте следующие варианты решения проблемы «Я не робот», даже некоторые моменты не имеют для вас смысла.

1. Проверьте свой IP-адрес

Google блокирует результаты поиска на основе исходного IP-адреса. Существует большое количество баз данных, поддерживаемых публичными и частными компаниями для отслеживания подозрительных IP-адресов. Если с вашего IP-адреса происходят какие-либо подозрительные действия и он помечен как спам, Google выдаст сообщение reCAPTCHA и остановит вас для проверки.

Обычно интернет-провайдеры используют динамические IP-адреса с большим диапазоном. Поэтому отключите подключение к Интернету и подключитесь снова, чтобы получить новый IP-адрес. Или просто подождите, а затем попробуйте поискать снова. Возможно, для этого вы можете сбросить модем или маршрутизатор. Если вы хотите сбросить IP-адрес вручную, выполните следующие действия:

Сброс IP-адреса в Windows 10:
  • Нажмите клавиши «Windows + X», чтобы открыть меню опытного пользователя и перейти к опции «Командная строка (администратор)».
  • Введите следующие команды для сброса сетевого адаптера и IP-адреса.
 netsh winsock reset 
netsh int ip reset
ipconfig / release
ipconfig / обновить
Сброс IP-адреса на Mac:
  • Нажмите «Command + Spacer bar», чтобы открыть поиск в центре внимания, и перейдите в «Системные настройки».
  • Перейдите в раздел «Сеть» и выберите активное соединение Wi-Fi.
  • Нажмите «Щелкните на замке, чтобы внести изменения» и включите режим редактирования, указав пароль администратора.
  • Перейдите к опции «Дополнительно…», а затем на вкладку «TCP / IP».
  • Нажмите «Продлить аренду DCHP», чтобы освободить и обновить свой IP-адрес.
Сброс IP в Mac

2. Проверьте свою сеть

Иногда (в основном в таких странах, как Китай) интернет-провайдер (ISP) маскирует IP-адрес и отслеживает ваши действия в Интернете. Это приведет к тому, что вся сеть IP-адресов, используемых этим интернет-провайдером, будет заблокирована системами безопасности, такими как reCAPTCHA, используемая Google. Если вы сталкиваетесь с CAPTCHA в каждом случае, обратитесь к своему интернет-провайдеру и уточните у него проблему.

Другая проблема с сетью может быть связана с совместным использованием сети Wi-Fi. В этом случае есть вероятность, что кто-то еще в вашей сети может отправлять некоторый автоматический трафик, и Google остановит поиск по всей сети. Вы можете связаться с администратором сети, чтобы решить проблему и получить более подробную информацию.

Также вы можете получить уникальный статический IP-адрес от вашего интернет-провайдера. Это поможет вам решить проблему, связанную со спамом в сети. Узнайте больше о том, как назначить вашему компьютеру статический IP-адрес.

3. Прекратить использование VPN

Виртуальная частная сеть

(или VPN) скрывает ваш IP-адрес и направляет трафик из другого места. Это используется для доступа к заблокированным веб-сайтам, а также используется в основном для сокрытия исходного IP-адреса для совершения незаконных действий. Использование VPN является незаконным во многих странах из-за характера использования. Хотя вы можете использовать его в хороших целях, весь сервер не может быть чистым или заблокированным.

Поэтому избегайте использования бесплатных приложений VPN и удаляйте их со своего компьютера.Если вы используете услугу VPN премиум-класса, обсудите это со своим поставщиком услуг VPN и получите соответствующий сервер для правильного подключения. Насколько мы проверили, в большинстве случаев Google показывает, что я не робот, проверяющий reCAPTCHA при подключении через VPN-сервер. Проблема редко возникает при отключении от VPN и использовании общедоступного DNS Google.

4. Избегайте неизвестных прокси-серверов

Подобно ISP и VPN, прокси-сервер, который вы используете, также может вызвать проблемы, так как через этот прокси-сервер могут быть идентифицированы незаконные действия.Не используйте ненадежные прокси-серверы в своем браузере для маршрутизации всего трафика через них. В Windows 10 вы можете нажать клавишу Windows и перейти к опции «Настройки> Сеть и Интернет». Здесь вы можете отключить все прокси и VPN-соединения. Узнайте больше об изменении сетевых настроек в Windows.

На Mac выполните действия, аналогичные описанным выше, для сброса IP-адреса. На вкладке «Прокси» удалите все прокси-серверы.

5. Используйте Google Public DNS

Другой проблемой в сети может быть ваш DNS.Система доменных имен или DNS помогает преобразовать числовой IP-адрес веб-сайта в имя хоста. Проблема с DNS может быть связана с настройками вашего компьютера, интернет-провайдером или частным DNS VPN. Хотя поврежденный DNS не вызовет сообщения reCAPTCHA, он замедлит соединение.

Простым решением здесь является переключение DNS на надежный общедоступный DNS. Ознакомьтесь со статьей о том, как использовать общедоступный DNS Google. В большинстве случаев это поможет решить проблемы с подключением к Интернету.

6. Прекратить поиск незаконных запросов

Что ж, если вы действительно пытаетесь искать незаконные термины, то, скорее всего, Google остановит вас для проверки. Вы можете очистить кеш браузера и попробовать поискать еще раз. Помните, что Google может легко отслеживать все поисковые запросы с IP-адресов. Таким образом, очистка кеша браузера будет работать только в том случае, если вы случайно что-то искали не так. В противном случае любые поиски, нарушающие условия Google, будут остановлены, и вам придется немного подождать, прежде чем повторить попытку.

7. Замедление кликов

Если вы не используете VPN, прокси-сервер и ваш IP-адрес и интернет-провайдер в порядке, то наиболее вероятной причиной могут быть необычные щелчки с вашей стороны. Когда вы вводите ключевое слово и очень быстро нажимаете клавишу ввода, Google сопоставит вашу активность с автоматическими ботами и остановит вас.

Как ни странно, уменьшите скорость и скорость щелчков мыши и используйте обычную скорость, чтобы избежать сообщения CAPTCHA.

8. Остановить отправку автоматических запросов

Вы можете легко искать термины напрямую, используя URL-адрес, например «https: // www.google.com/#q=search-term ». Это самый популярный способ отправки трафика в Google автоматическими ботами. Всегда используйте поле поиска для отправки условий запроса и избегайте прямого поиска по URL-адресу.

Если вы разработчик, прекратите манипулировать пользовательским запросом перед отправкой в ​​Google. Также отображайте результаты поиска в том виде, в котором они получены от Google, без каких-либо манипуляций.

9. Ищите людей, а не роботов

Опять же, это может вас смутить !!! Но есть много различий между поисковым поведением людей и автоматизированных роботов.Особенно, когда вы уже вошли в свою учетную запись Google, Google легко понять, что вы человек. Но этого недостаточно, поскольку сетевые проблемы могут иметь больший приоритет, чем история просмотров учетной записи.

Например, автоматические боты используют заглавные буквы между словами, в то время как большинство людей не будут искать таким образом. Поэтому всегда ищите термин, используя способ, которым делают нормальные люди.

10. Проверка вредоносных программ и расширений браузера

Ваш компьютер может быть заражен вредоносным ПО, которое автоматически отправляет трафик в Google.Также некоторые расширения и плагины браузера могут отправлять автоматический трафик. Если вы часто видите сообщение «Я не робот», проверьте свой компьютер на наличие вредоносных программ и удалите ненужные расширения браузера. Попробуйте официальный инструмент очистки Chrome, если вы используете Chrome и операционную систему Windows.

Если вы удалили вредоносное ПО, сбросьте настройки браузера до начальных.

Последние мысли

Google остановится с сообщением CAPTCHA только при обнаружении необычной активности трафика.Как только необычная активность будет остановлена, Google позволит вам выполнять поиск в обычном режиме. Так что, если вы часто видите сообщение, то определенно что-то не так. Скорее всего, сеть рассылает спам или вы слишком быстро подбираете ботов. Тщательно проверьте свою сеть, замедлите свои действия и используйте общедоступный DNS, чтобы избавиться от сообщения CAPTCHA «Я не робот». Если у вас все еще есть проблема, опубликуйте ее на официальном поисковом форуме Google, чтобы получить совет от экспертов.

Почему боты не могут установить флажки «Я не робот»?

Оливер Эмбертон:

Насколько сложным может быть один маленький флажок ? Вы даже не представляете!

Для начала, Google изобрел целую виртуальную машину — по сути, смоделированный компьютер внутри компьютера — только для того, чтобы установить этот флажок.

Эта виртуальная машина использует собственный язык Google, который затем шифруется. Дважды.

Но это не простое шифрование. Обычно, когда вы защищаете что-то паролем, вы можете использовать ключ для его декодирования. Язык, изобретенный Google, декодируется с помощью ключа, который изменяется в процессе чтения языка, и язык также изменяется при чтении.

Google объединяет (или хеширует) этот ключ с веб-адресом, который вы посещаете, поэтому вы не можете использовать CAPTCHA с одного веб-сайта для обхода другого.Кроме того, он объединяет это с «отпечатками пальцев» вашего браузера, улавливая микроскопические вариации на вашем компьютере, которые бот будет изо всех сил пытаться воспроизвести (например, правила CSS).

Все это сделано для того, чтобы вам было сложно понять, что вообще делает Google. Вам нужно написать инструменты, чтобы проанализировать это. (К счастью, люди так и поступили).

Оказывается, эти флажки записывают и анализируют множество данных, в том числе: часовой пояс и время вашего компьютера; ваш IP-адрес и примерное местонахождение; размер и разрешение вашего экрана; браузер, который вы используете; плагины, которые вы используете; сколько времени потребовалось для отображения страницы; сколько нажатий клавиш, щелчков мышью и нажатий / прокруток было сделано; а также … некоторые другие вещи, которых мы не совсем понимаем.

Мы также знаем, что в этих полях ваш браузер должен нарисовать невидимое изображение [PDF] и отправить его в Google для проверки. Изображение содержит такие вещи, как бессмысленный шрифт, который (в зависимости от вашего компьютера) будет возвращаться к системному шрифту и будет отображаться по-разному. Затем они добавляют к этому трехмерное изображение со специальной текстурой, которая рисуется таким образом, что результат зависит от компьютера.

Наконец, эти, казалось бы, простые маленькие флажки объединяют все эти данные с их знаниями о человеке, использующем компьютер.Почти каждый в Интернете использует то, что принадлежит Google — поиск, почту, рекламу, карты — и, как вы знаете, Google Tracks All Of Your Things ™ ️. Когда вы устанавливаете этот флажок, Google просматривает историю вашего браузера, чтобы убедиться, что она выглядит правдоподобно.

Для них это легко, потому что они постоянно наблюдают за поведением миллиардов реальных людей.

Невозможно узнать, как именно они проверяют всю эту информацию, но они почти наверняка используют машинное обучение (или ИИ) на своих частных серверах, что невозможно воспроизвести постороннему.Я не удивлюсь, если они также построили состязательный ИИ, чтобы попытаться победить свой собственный ИИ, и научились бы друг у друга.

Так почему же боту так сложно победить? Потому что теперь у вас есть смехотворное количество беспорядочного человеческого поведения, которое нужно смоделировать, и они почти непознаваемы, и они продолжают меняться, и вы не можете сказать, когда. Вашему боту, возможно, придется подписаться на службу Google и убедительно использовать ее на одном компьютере, который должен отличаться от компьютеров других ботов в непонятном вам смысле.Могут потребоваться убедительные задержки и спотыкания между нажатиями клавиш, прокруткой и движениями мыши. Все это невероятно сложно взломать и обучить компьютер, а сложность требует финансовых затрат для спамера. Они могут сломать его на некоторое время, но если это стоит им (скажем) 1 доллара за успешную попытку, обычно им не стоит беспокоиться об этом.

Тем не менее, люди взламывают защиту Google [PDF]. CAPTCHA — это продолжающаяся гонка вооружений, в которой ни одна из сторон никогда не выиграет. Технология искусственного интеллекта, из-за которой так сложно обмануть подход Google, — это та же технология, которая адаптирована, чтобы обмануть его.

Просто подождите, пока этот ИИ не станет достаточно убедительным, чтобы вас обмануть.

Сладких снов, человек.

Этот пост впервые появился на Quora. Щелкните здесь, чтобы просмотреть.

Как сканировать промежуточный веб-сайт

Введение в сканирование промежуточных веб-сайтов

Когда веб-сайт находится на стадии разработки или разработки, его следует запретить сканировать и индексировать поисковыми системами.Это позволяет избежать его ранжирования в результатах поиска и потенциальной конкуренции и каннибализации с действующим веб-сайтом.

Очень важно иметь возможность проверять сайты в промежуточных средах, прежде чем они будут запущены, и в этом может помочь их сканирование с помощью Screaming Frog SEO Spider.

Используются различные методы, чтобы заблокировать поисковые системы от промежуточного сайта или избежать индексации контента, включая размещение его после входа в систему, использование robots.txt, noindex и т. Д. Промежуточным серверам обычно не хватает производительности, а веб-сайты, которые все еще находятся в разработке, обычно также более хрупкие.

Из этого туториала Вы узнаете, как настроить Screaming Frog SEO Spider для сканирования любого промежуточного сервера и веб-сайта. Есть ряд подводных камней, которые могут уловить даже опытных специалистов по поисковой оптимизации.


Как сканировать промежуточный сервер

Промежуточные веб-сайты обычно не могут сканироваться поисковыми системами и сканерами. Существуют различные методы предотвращения сканирования, и для каждого из них требуется несколько иной подход или конфигурация для обхода.

Роботы.txt

Если веб-сайт использует robots.txt для блокировки сканирования, то в SEO Spider будет возвращен только один URL.

Будет отображено сообщение «Заблокировано файлом robots.txt» в столбцах «статус» и «статус индексируемости», при этом индексируемость будет установлена ​​как «Не индексируется».

Чтобы сканировать веб-сайт, вам нужно перейти в «Конфигурация> Robots.txt> Настройки» и выбрать «Игнорировать robots.txt».

Если файл robots.txt содержит директивы disallow, которые вы хотите, чтобы SEO Spider выполнял, используйте собственных роботов.txt через «Config> robots.txt> Custom», чтобы удалить глобальный запрет и оставить другие директивы на месте.

Это означает, что вы можете имитировать сканирование, как и должно быть в реальной среде.

Если вы используете бесплатную версию SEO Spider, где у вас нет доступа к конфигурации и вы заблокировали сканирование своего веб-сайта с помощью robots.txt, вы можете использовать директиву «Разрешить» в файле robots. txt для пользовательского агента Screaming Frog SEO Spider.

Пользовательский агент: Screaming Frog SEO Spider
Разрешить: /

Пользовательский агент: *
Disallow: /

SEO Spider будет следовать разрешающей директиве, в то время как все остальные боты останутся заблокированными.

Аутентификация

Это наш рекомендуемый подход для промежуточных веб-сайтов, поскольку он означает, что поисковые системы не могут сканировать или индексировать URL-адреса.

Если серверу требуются имя пользователя и пароль для доступа к нему, вам необходимо предоставить их SEO Spider для сканирования сайта. Существует несколько основных типов аутентификации, настройки которых немного отличаются.

Наиболее распространенной является базовая и дайджест-проверка подлинности . Проверка подлинности сервера , которую вы можете увидеть в браузере при посещении веб-сайта, выдает всплывающее окно с запросом имени пользователя и пароля.

Если экран входа в систему содержится на самой странице, это будет проверка подлинности веб-формы . Подробнее об обоих типах ниже.

Базовая и дайджест-аутентификация

Базовая и дайджест-проверка подлинности определяется автоматически при сканировании веб-сайта.

Часто сайты, находящиеся в разработке, также блокируются через robots.txt, поэтому убедитесь, что вы следовали нашим инструкциям по robots.txt выше, чтобы его можно было просканировать.

Просканируйте промежуточный веб-сайт, и появится всплывающее окно аутентификации, как это происходит в веб-браузере — с запросом имени пользователя и пароля.

Введите свои учетные данные, и сканирование продолжится в обычном режиме. Вы не можете предварительно ввести учетные данные для входа — они вводятся при сканировании URL-адресов, требующих аутентификации. Эта функция не требует лицензии.

Попробуйте следующие страницы, чтобы увидеть, как аутентификация работает в вашем браузере или в SEO Spider.

Аутентификация веб-формы

Существуют и другие веб-формы и области, которые требуют, чтобы вы входили в систему с помощью файлов cookie для аутентификации, чтобы иметь возможность просматривать или сканировать их.SEO Spider позволяет пользователям входить в эти веб-формы во встроенном браузере Chrome SEO Spider, а затем сканировать их. Для этой функции требуется лицензия.

Чтобы войти в систему с использованием аутентификации через веб-формы, нажмите «Конфигурация> Аутентификация> На основе форм». Затем нажмите кнопку «Добавить», введите URL-адрес сайта, который вы хотите сканировать, и появится всплывающее окно браузера, позволяющее войти в систему.

Используйте окно браузера для входа в систему как обычно, затем нажмите «ОК» и еще раз «ОК». Это предоставило SEO Spider необходимые файлы cookie, и вы можете начать сканирование как обычно.

Эта функция является мощной, потому что она обеспечивает способ установки файлов cookie в SEO Spider, поэтому ее также можно использовать для таких сценариев, как обход перенаправления географического IP-адреса, или если сайт использует защиту от ботов с помощью reCAPTCHA или тому подобное.

Пожалуйста, прочтите наше руководство по сканированию веб-форм, защищенных паролем.

IP-адрес

Некоторые промежуточные платформы могут ограничивать доступ по IP-адресу.

Поскольку SEO Spider сканирует локально с компьютера, с которого он запущен, вам необходимо указать этот IP-адрес для включения в «список разрешенных» сервера или платформы, используемой сайтом, который иногда исторически называют «белым списком».

Если это ваша собственная машина, вы можете найти свой IP-адрес в Google, набрав «мой IP-адрес», и он отобразится в верхней части поисковой выдачи.

Менее распространенные методы

Хотя большинство промежуточных веб-сайтов ограничены файлом robots.txt или аутентификацией, мы также иногда видим различные другие настройки, которые описаны ниже.

Печенье

Мы видели, что в некоторых тестовых областях веб-сайта обновленная страница отображается только при наличии определенного файла cookie. Часто это происходит не на промежуточных серверах, а на полнофункциональных веб-сайтах, когда изменения тестируются в ограниченной форме.

Доступ к этим альтернативным страницам можно получить, предоставив требуемый файл cookie в запросе SEO Spider с использованием настраиваемых заголовков HTTP.

Нажмите «Добавить», введите «Cookie» в качестве имени заголовка и укажите файл cookie в поле «Значение заголовка».

Если требуется пара имени и значения, вы можете ввести их в комбинации, разделив их знаком равенства («имя = значение») в поле выше.

Затем вы можете сканировать веб-сайт, и соответствующий файл cookie будет предоставляться с каждым запросом, сделанным SEO Spider.

Хост-файл

Некоторые новые веб-сайты изначально видны только после изменения файла hosts.

Если вы измените свой собственный файл hosts для просмотра веб-сайта, то SEO Spider также сможет увидеть новый сайт, если вы выполняете сканирование локально с того же компьютера.


Как настроить параметры сканирования промежуточных сайтов

Сайты, находящиеся в разработке, могут отвечать на HTTP-запросы иначе, чем в реальной среде, и часто могут иметь директивы для роботов, требующие дополнительной настройки в SEO Spider.

Скорость

Веб-сайты на стадии разработки, как правило, медленнее и более уязвимы, чем веб-сайты в стадии разработки. Часто они не справляются с той же нагрузкой, что и производственный сервер, а сайт в конце концов еще находится в стадии разработки.

5 потоков по умолчанию, используемых SEO Spider, обычно не должны вызывать нестабильность. Однако мы рекомендуем поговорить с разработчиками перед сканированием, при необходимости подтвердить приемлемую скорость сканирования, а затем отслеживать ответы и скорость сканирования на ранних этапах сканирования.

Если вы начинаете видеть тайм-ауты соединения, ошибки сервера или скорость сканирования очень низкая, возможно, вам нужно уменьшить скорость сканирования. Скорость можно отрегулировать с помощью «Config> Speed».

Если вы по-прежнему видите проблемы, уменьшите скорость сканирования дальше. Вы можете повторно сканировать URL без ответов или ошибок сервера, массово щелкнув правой кнопкой мыши «re-spider».

Кроме того, вы можете увеличить время ожидания ответа и время ожидания AJAX, если сканирование выполняется в режиме отрисовки JavaScript.

Nofollow

Часто веб-сайты разработки будут иметь общесайтовый метатег «nofollow» для роботов или X-Robots-Tag в заголовке HTTP. Обычно это без особого размышления копируется вместе с «noindex», как «noindex, nofollow».

«nofollow» — это директива, которая сильно отличается от директивы noindex, и она предписывает поисковому роботу не переходить по исходящим ссылкам со страницы.

Вы можете увидеть, есть ли на странице параметр «nofollow», на вкладке «Директивы» и в фильтре «nofollow».

По умолчанию SEO Spider подчиняется этим инструкциям, поэтому, если они есть на всех страницах веб-сайта, сканироваться будет только одна страница.

Если это так, перейдите в «Config> Spider» и включите «Follow Internal Nofollow», чтобы сканировать исходящие ссылки с этих страниц.

Если вы также хотите открывать внешние ссылки, отметьте также вариант ниже.

Noindex

Иногда на промежуточных сайтах используется noindex вместо блокировки сканирования сайта или их комбинации. Noindex не предотвращает сканирование, но дает указание поисковым системам не индексировать страницы.

Использование noindex можно увидеть на вкладке «Директивы» и в фильтре «noindex».

Хотя SEO Spider будет сканировать страницы с noindex, он будет рассматривать эти страницы как «неиндексируемые». Это означает, что они не будут учитываться в отношении проблем на странице, обнаруженных фильтрами для таких вещей, как повторяющиеся или отсутствующие заголовки страниц, метаописания и т. Д.

Поэтому мы рекомендуем отключить параметр «Игнорировать неиндексируемые URL-адреса для фильтров на странице», если присутствует «noindex» по всему сайту. Его можно найти в «Config> Spider> Advanced».

Это будет означать, что URL-адреса с пометкой «noindex» будут рассматриваться для устранения любых проблем на странице.

Нет

Это тот, который вас легко поймают, но директива «none» не означает, что директив нет. Директива «none» фактически эквивалентна «noindex, nofollow».

В этом случае следуйте инструкциям для nofollow и noindex, как описано выше.


Как сравнить постановку и живую

SEO Spider позволяет сравнить два сканирования, чтобы увидеть различия. Он имеет уникальную функцию «сопоставления URL-адресов», которая позволяет сравнивать две разные структуры URL-адресов, например, промежуточный веб-сайт с производственной или действующей средой.Вы можете сравнивать совершенно разные имена хостов, каталоги или более тонкие изменения URL-адресов.

Чтобы сравнить стадию сканирования с действующим веб-сайтом, нажмите «Режим> Сравнить» и выберите два сканирования.

Затем нажмите на конфигурацию сравнения («Конфигурация> Сравнить») и «Сопоставление URL-адресов».

Введите регулярное выражение для сопоставления URL-адресов предыдущего сканирования с текущим сканированием. Часто это так же просто, как просто сопоставить имя хоста.

Промежуточный и существующий URL-адреса действующего сайта затем сопоставляются друг с другом, поэтому эквивалентные URL-адреса сравниваются друг с другом для получения данных вкладки обзора, проблем и возможностей, вкладки структуры сайта и обнаружения изменений.

Узнайте больше в нашем руководстве по сравнению обходов.


Сводка

Мы надеемся, что это руководство поможет вам сканировать любой промежуточный сервер, а также сканировать и проверять сайт разработки.

Если у вас возникли проблемы при сканировании веб-сайта после выполнения приведенных выше инструкций, ознакомьтесь со следующими ответами на часто задаваемые вопросы —

Или свяжитесь с нами через службу поддержки, и мы поможем.

Безопасность

— как безобидный сканер обошел аутентификацию WebForms и захватил сеанс пользователя?

Вчера вечером позвонил клиент в отчаянии, потому что у Google были кэшированные версии частной информации о сотрудниках.Информация недоступна, пока вы не войдете в систему.

Они выполнили поиск своего домена в Google, например:

  сайт: example.com
  

и заметил, что Googled просканировал и кэшировал некоторые внутренние страницы.

Сам смотрю кешированные версии страниц:

Это кэш Google по https://example.com/(F(NSvQJ0SS3gYRJB4UUcDa1z7JWp7Qy7Kb76XGu8riAA1idys-nfR1mid8Qw7sZH0DYcL64GGiB6FK_TLBy3yr0KnARauyjjDL3Wdf1QcS-ivVwWrq-htW_qIeViQlz6CHtm0faD8qVOmAzdArbgngDfMMSg_N4u45UysZxTnL3d6mCX7pe2Ezj0F21g4w9VP57ZlXQ_6Rf-HhK8kMBxEdtlrEm2gBwBhOCcf_f71GdkI1))/ViewTransaction.aspx? transactionNumber = 12345. Это снимок страницы, появившейся 15 сентября 2013 г., 00:07:22 GMT

.

Меня смутил длинный URL. Вместо:

  https://example.com/ViewTransaction.aspx?transactionNumber=12345
  

вставлена ​​длинная строка:

  https://example.com/[...snip...pting/ViewTransaction.aspx?transactionNumber=12345
  

Мне потребовалось несколько минут, чтобы вспомнить: это может быть симптом ASP.net «сеансы без файлов cookie» . Если ваш браузер не поддерживает Set-Cookie , веб-сайт встроит файл cookie в URL-адрес.

За исключением того, что наш сайт не использует это.

И даже если на нашем сайте был автоматически обнаружен сеанс без файлов cookie, и Google удалось уговорить веб-сервер передать ему сеанс в URL-адресе, как он взял на себя сеанс другого пользователя?

Сайт много лет сканируется ботами. И прошедшее 29 мая ничем не отличалось.

Google обычно начинает сканирование с проверки файла robots.txt (у нас его нет). Но никому не разрешается готовить что-либо на сайте (включая robots.txt ) без предварительной аутентификации, поэтому это не удается:

  Время Uri Порт Имя пользователя Статус
======== ======================= ==== =============== = ======
1:33:04 GET /robots.txt 80 302; не аутентифицирован, см. / Account / Login.aspx
1:33:04 GET /Account/Login.aspx 80 302; использовать https plesae
1:33:04 GET /Account/Login.aspx 443 200; вперед, попробуйте войти
  

Все это время Google искал файл robots.txt. Так и не получил. Затем он возвращается, чтобы попытаться просканировать корень:

  Время Uri Порт Имя пользователя Статус
======== ======================= ==== =============== = ======
1:33:04 GET / 80 302; не аутентифицирован, см. / Account / Login.aspx
1:33:04 GET /Account/Login.aspx 80 302; использовать https plesae
1:33:04 GET /Account/Login.aspx 443 200; вперед, попробуйте войти
  

И еще одна проверка robots.txt на защищенном сайте:

  Время Uri Порт Имя пользователя Статус
======== ======================= ==== =============== = ======
1:33:04 GET /robots.txt 443 302; не аутентифицирован, см. / Account / Login.aspx
1:33:04 GET /Account/Login.aspx 443 200; вперед, попробуйте войти
  

А затем таблица стилей на странице входа:

  Время Uri Порт Имя пользователя Статус
======== ======================= ==== =============== = ======
1:33:04 GET /Styles/Site.css 443200
  

Вот как работает каждое сканирование от GoogleBot, msnbot и BingBot. Роботы, логин, безопасность, логин.Никуда не денешься, потому что он не может пройти проверку подлинности WebForms . И с миром все хорошо.

Пока однажды не появится GoogleBot с файлом cookie сеанса в руке !

  Время Uri Порт Имя пользователя Статус
======== ========================= ==== ============= ====== ======
1:49:21 GET / 443 [email protected] 200; они появились авторизованными!
1:57:35 ПОЛУЧИТЬ / Панель управления.aspx 443 [email protected] 200; теперь они сканируют данные этого пользователя!
1:57:35 ПОЛУЧИТЬ /Defautl.aspx 443 [email protected] 200; вернуться на домашнюю страницу
2:07:21 GET /ViewTransaction.aspx 443 [email protected] 200; и вот личная информация
  

Пользователь, [email protected] , не входил в систему более суток. (Я надеялся, что IIS предоставил один и тот же идентификатор сеанса двум одновременным посетителям, разделенным повторным циклом приложения).А наш сайт ( web.config ) не настроен для включения бессессионных файлов cookie. И сервер ( machine.config ) не настроен для включения бессессионных файлов cookie.

Итак:

  • как Google получил бессессионный файл cookie?
  • , как Google получил действительных бессессионных файлов cookie?
  • , как Google получил действительных бессессионных файлов cookie, принадлежащих другому пользователю?

Совсем недавно, 1 октября (4 дня назад), робот GoogleBot был , по-прежнему показывался с файлом cookie в руке, входил в систему как этот пользователь, сканировал, кэшировал и публиковал некоторые из их личных данных.

Как Google, не являющийся вредоносным веб-сканером, обходит аутентификацию WebForms ?

IIS7, Windows Server 2008 R2, один сервер.

Сервер не настроен на выдачу сеансов без файлов cookie. Но, игнорируя этот факт, как Google может обойти аутентификацию?

  • Робот GoogleBot посещает веб-сайт и пытается ввести случайные имена пользователей и пароли (маловероятно, в журналах нет попыток входа в систему)
  • GoogleBot решил вставить случайный сеанс без файлов cookie в строку URL-адреса, и он совпал с сеансом существующего пользователя (маловероятно)
  • Пользователю удалось выяснить, как заставить веб-сайт IIS возвращать URL-адрес без файлов cookie (маловероятно) , затем вставить этот URL-адрес на другой веб-сайт (вряд ли) , где Google нашел URL-адрес без файлов cookie и просканировал это
  • Пользователь работает через мобильный прокси (а это не так) .Прокси-сервер не поддерживает файлы cookie, поэтому IIS создает сеанс без файлов cookie. Этот кэширующий сервер (например, Opera Mobile ) был взломан (маловероятно) и все кешированные ссылки размещены на хакерском форуме. GoogleBot просканировал форум хакеров и начал переходить по всем ссылкам; включая наш [email protected] URL сеанса без файлов cookie.
  • У пользователя есть вирус, который уговаривает любые веб-серверы IIS вернуть URL-адрес без файлов cookie. Затем этот вирус сообщает в штаб-квартиру.URL-адреса размещаются на общедоступном ресурсе, который сканирует робот GoogleBot. Затем GoogleBot появляется на нашем сервере с URL-адресом без файлов cookie.

Ничего из этого не может быть правдоподобным.

Как может Google, не являющийся вредоносным веб-сканером, обойти аутентификацию WebForms и захватить существующий сеанс пользователя?

Я даже не знаю , как веб-сайт ASP.net, который не настроен на выдачу сеансов без файлов cookie, может выдавать сеанс без файлов cookie. Возможно ли обратное преобразование идентификатора сеанса на основе файлов cookie в и идентификатора сеанса без файлов cookie ? Я мог бы процитировать соответствующий раздел в сети .config и machine.config , и показать, что

нет
  
  

Как веб-сервер решает, что браузер не поддерживает файлы cookie? Я пробовал заблокировать файлы cookie в Chrome, и мне никогда не давали идентификатор сеанса без файлов cookie. Могу ли я смоделировать браузер, который не поддерживает файлы cookie, чтобы убедиться, что мой сервер не выдает сеансы без файлов cookie?

Принимает ли сервер решение о сеансах без файлов cookie по строке User-Agent ? Если это так, я мог бы установить Internet Explorer с поддельным UA.

Зависит ли идентификация сеанса в ASP.net исключительно от файла cookie? Может ли кто-нибудь с любого IP-адреса с URL-адресом cookie получить доступ к этому сеансу? Не учитывается ли также ASP.net по умолчанию?

Если ASP.net связывает IP-адрес с сеансом, не означает ли это, что сеанс не мог быть инициирован сотрудником на его домашнем компьютере? Потому что тогда, когда сканер GoogleBot попытался использовать его с IP-адреса Google, он потерпел неудачу?

Были ли где-нибудь (кроме связанного мною) экземпляры ASP.net, выдающий сеансы без файлов cookie, когда он не настроен? Есть ли по этому поводу проблема с Microsoft Connect?

Известно ли, что при проверке подлинности веб-форм возникают проблемы, и ее не следует использовать для обеспечения безопасности?

Edit : Удалено имя Google бота, который обошел привилегию, так как люди умственно отсталые; путает Google имя сканера с чем-то другим. Я использую Google имя поискового робота как напоминание о том, что это был невредоносный веб-сканер, которому удалось проникнуть в сеанс WebForm другого пользователя.Это контрастирует с вредоносным поисковым роботом, который пытался проникнуть в сеанс другого пользователя. Нет ничего лучше педанта, чтобы выявить обострение.

Как всегда проходить тест «Я не робот» на любом веб-сайте

Я уверен, что вы имели дело с тестами «Я не робот», когда вам нужно щелкнуть поле, чтобы подтвердить, что вы человек. А если они сомневаются, что вы робот, вам придется ответить, что находится внутри теста с картинками. Честно говоря, меня это очень раздражает, особенно когда Google начал думать, что я робот, и запретил мне даже искать в Интернете.

К счастью, я нашел трюк, который, кажется, работает нормально при прохождении теста «Я не робот» со 100% успехом. В этом посте мы узнаем, как работает этот тест с использованием кода, и что мы можем сделать, чтобы пройти его, не задавая вопросов, что находится внутри теста с изображениями.

Как обойти Тест «Я не робот»

Цель этого теста — убедиться, что человек, получающий доступ к услуге, является реальным человеком, а не роботом. Поэтому, когда вы устанавливаете флажок, тест следует за вашим движением, чтобы понять, является ли это программным обеспечением человека или робота.

Обычно программное обеспечение робота сразу перемещает курсор мыши в середину флажка и щелкает по нему. И человеку потребуется время, чтобы перетащить мышь и щелкнуть флажок, а обычно не прямо посередине. Конечно, есть и другие факторы и движения, которые следует отметить, но это основное различие является общим.

Проблема возникает, когда человеческие движения становятся похожими на движения робота, и именно тогда вам дают тест «что внутри на картинках», чтобы убедиться, что вы не робот.Например, некоторые люди могут очень быстро установить флажок, что может создать впечатление, что это сделал робот.

Какова бы ни была причина, я знаю небольшую уловку, которая всегда срабатывала для меня, чтобы гарантировать, что тест не считает меня роботом. Все, что вам нужно сделать, это нажать и удерживать флажок в течение 2-3 секунд, а затем отпустить. Это всегда помогало мне проходить тест без необходимости проходить какие-либо дополнительные тесты.

Я предполагаю, что программное обеспечение робота всегда немедленно отпускает щелчок при выполнении таких тестов.Таким образом, когда вы задерживаетесь на 2-3 секунды, это показывает несовершенную задержку, которую обычно может сделать человек.

Конечные слова

Этот трюк меня еще не подвел. Конечно, есть вероятность, что мне повезло, но суть в том, чтобы ваше движение оставалось человеческим, и этот трюк, безусловно, помогает в этом. Дайте мне знать в комментариях, сработал ли у вас этот трюк или нет.

Был ли этот пост полезным?

Сообщите нам, понравился ли вам пост.Это единственный способ стать лучше.

Totally Robotic Roux-en-Y Обход желудка: метод

Indian J Surg. 2015 Apr; 77 (2): 164–166.

, , , и

Сандип Аггарвал

Всеиндийский институт медицинских наук (AIIMS), Ансари Нагар, Нью-Дели, 110049 Департамент хирургических дисциплин Индии

02 , Всеиндийский институт медицинских наук (AIIMS), Ансари Нагар, Нью-Дели, 110049 Индия

Адитья П. Шарма

Всеиндийский институт медицинских наук (AIIMS), Ансари Нагар, Нью-Дели, 110049 Индия

Раджив Кумар

Всеиндийский институт медицинских наук (AIIMS), Ансари Нагар, Нью-Дели, 110049 Индия

Сантош Ананд

Всеиндийский институт медицинских наук (AIIMS), Ансари Нагар, Нью-Дели, 110049 Индия

Всеиндийский институт медицинских наук (AIIMS), Ансари Нагар, Нью-Дели, 110049 Индия

Департамент хирургических дисциплин, All In dia Институт медицинских наук (AIIMS), Ансари Нагар, Нью-Дели, 110049 Индия

Автор, отвечающий за переписку.

Поступила в редакцию 29 декабря 2012 г .; Принято 5 июля 2013 г. Его использование в бариатрической хирургии ограничено несколькими крупными центрами в западном мире. Преимущества роботизированной помощи — трехмерное зрение, эргономическое преимущество и повышенная точность.Мы сообщаем о нашем опыте использования этой передовой технологии для выполнения роботизированного обходного желудочного анастомоза по Ру у 55-летнего пациента с ожирением и диабетом. Мы смогли воспроизвести нашу стандартную лапароскопическую технику, и все этапы хирургической процедуры были выполнены с использованием роботизированной помощи.

Ключевые слова: Робот, обходной желудочный анастомоз, бариатрическая хирургия

Введение

Роботы используются для различных хирургических процедур, но наиболее полезны в процедурах, где требуется сложная реконструкция.Использование роботизированной системы для обходного желудочного анастомоза по Ру (RYGB) было впервые описано Хорганом и Вануно в 2001 году [1]. С тех пор многие центры в западных странах включили его использование в свои программы и сообщили о своем опыте [2, 3]. Мы сообщаем о нашем опыте использования роботизированной системы da Vinci TM для выполнения RYGB у пациентки с диабетом, страдающей ожирением.

Описание клинического случая

Пациентка 55 лет с индексом массы тела 37,7 кг / м 2 .Последние 10 лет она страдала сахарным диабетом 2 типа и принимала пероральные гипогликемические препараты. Среди других сопутствующих заболеваний у нее были гипертония, дислипидемия и остеоартрит. Пациентка была обследована в соответствии со стандартным протоколом, и ее сопутствующие заболевания были оптимизированы до операции. Она перешла на очень низкокалорийную диету в течение 10 дней. Ей рассказали о преимуществах и возможных недостатках роботизированной хирургии. Поскольку эта больница финансируется государством, эта процедура была для пациента бесплатной.

Хирургическая техника

Было выполнено детальное предоперационное планирование в отношении доступа, положения портов и этапов операции. Схема операционной представлена ​​на рис. Робот был помещен на левое плечо пациента и пристыкован из этого положения. Когда пациент находился в положении лежа на спине, порты были вставлены (рис.) После создания пневмоперитонеума с помощью иглы Вереша. Использовались пять портов, как в стандартном лапароскопическом RYGB. 12-миллиметровый порт был вставлен в супраумбиликальное положение, и роботизированный телескоп был введен через этот порт.Впоследствии были вставлены два 8-миллиметровых порта для роботизированного манипулятора. С правой стороны был вставлен 12-миллиметровый порт для сшивающего устройства, а 5-миллиметровый порт был вставлен для помощника. Ретрактор печени Натансона (Cook Medical Inc) вводили через небольшой разрез в эпигастрии. Рассечение начинали близко к стенке желудка, примерно в 5–6 см от гастроэзофагеального перехода. Это было сделано с помощью роботизированной помощи. Небольшой желудочный мешок был создан с помощью эндостеплера Echelon 60 (Ethicon Endosurg, Цинциннати, штат Огайо) с использованием синих картриджей.Размер проксимальной билиопанкреатической конечности составлял 50 см, петля тощей кишки поднималась антеколическим способом и прикреплялась к желудочному мешку с помощью фиксирующих швов с помощью робота. Тощая кишка была разделена с помощью белого картриджа проксимальнее левого фиксирующего шва. Пищеварительную конечность измеряли на 100 см и приближали к билиопанкреатической конечности с помощью фиксирующего шва, наложенного с помощью робота. Анастамоз тощей кишки и тощей кишки был создан бок о бок с помощью однократного срабатывания 60-миллиметрового линейного степлера.Результирующая энтеротомия была закрыта степлером после наложения трех фиксирующих швов с помощью робота. Двухслойный гастро-еюнальный анастомоз около 2 см был наложен с использованием 3–0 полиглактиновых и 3–0 шелковых швов с использованием роботизированных манипуляторов (рис.). Интраоперационная проверка герметичности проводилась путем вдувания воздуха, которая дала отрицательный результат. Впоследствии был установлен сток.

Операционная установка для выполнения обходного желудочного анастомоза с помощью робота Roux-en-Y

Размещение порта для роботизированного обходного желудочного анастомоза Roux-en-Y.О — порт для телескопического робота; R1 , R2 — порты для роботизированного оружия; A1 , A2 — вспомогательные порты; N — Самоудерживающийся ретрактор для печени Натансона

Операционная фотография, показывающая завершенную гастроейюностомию с использованием роботизированной системы da Vinci TM

Общее время операции составило 186 мин. Послеоперационный период протекал без осложнений. Пациенту разрешили перорально на второй день после операции после нормального исследования Гастрографина.На третьи сутки после операции удалили дренаж и выписали пациента. Через 6 месяцев наблюдения пациент похудел на 24 кг и не принимает никаких противодиабетических препаратов.

Обсуждение

Лапароскопическая RYGB остается технически сложной операцией, требующей передовых лапароскопических навыков, таких как рассечение различных отделов брюшной полости, интракорпоральное наложение швов и завязывание узлов, повышенный крутящий момент в брюшной полости, вызывающий усталость хирурга [2, 3]. Более того, он имеет ограничения, присущие любой лапароскопической процедуре, а именно двумерный вид, противоречивое движение инструментов и ограниченную степень свободы [2, 3].

Роботизированная система da Vinci TM была разработана для решения этих проблем лапароскопии. Консоль хирурга находится вдали от пациента и обеспечивает удобное положение сидя. Трехмерное изображение, эндо-запястные инструменты с 7 df , тремор-фильтры с компьютерным управлением и датчики движения дополняют сенсорную и физическую эргономику. Первоначально он был введен в процедуру обходного желудочного анастомоза для выполнения только желудочно-точечного анастомоза, что является наиболее сложным с технической точки зрения этапом.По мере накопления опыта было установлено, что это выполнимо для всей процедуры, и каждый шаг операции воспроизводился с такой же или даже лучшей точностью по сравнению со стандартной лапароскопией [2, 3]. Кривая обучения обходному желудочному анастомозу оценивается в 100 процедур для стандартной лапароскопии [4], но только 35 процедур с помощью роботов [2]. Это имеет важные последствия для обучения ординаторов в учебных центрах.

Оперативное время процедуры у нашего пациента составило 186 минут, что больше, чем время, необходимое для лапароскопической RYGB в наших руках (120–160 минут).Однако продолжительность операции может быть сокращена с увеличением опыта. Ким и Баффингтон почти вдвое сократили среднее время операции с 183 минут в первых 10 случаях до 95 минут в последних 10 случаях [3]. Мы обнаружили, что использование робота более удобно для хирургов при выполнении RYGB по сравнению с традиционной лапароскопией. Для хирурга, работающего в центре большого объема, использование роботизированной помощи приводит к более высокой точности и меньшей утомляемости. С точки зрения пациента, роботизированная хирургия сохраняет преимущества минимально инвазивной хирургии, включая уменьшение послеоперационной боли, более быстрое восстановление и сокращение сроков пребывания в больнице.Снайдер и др. сравнили свою серию из 320 роботизированных процедур обходного желудочного анастомоза с 356 случаями лапароскопического RYGB и обнаружили более низкие показатели заболеваемости и смертности в группе роботов [5].

Основными техническими ограничениями являются потеря силовой обратной связи и тактильного ощущения, что может привести к усиленному разрыву кишечной ткани во время манипуляции. К другим ограничениям относятся отказ системы, многоквадрантная хирургия и ограниченное количество инструментов. Более того, инструменты можно использовать только в ограниченном количестве случаев, что приводит к более высокой стоимости процедуры.С развитием технологий эти ограничения, вероятно, будут уменьшены в будущем. Количество портов, а также их размещение во время роботизированной хирургии, по существу, аналогично тому, которое используется во время стандартного лапароскопического обходного желудочного анастомоза; разница только в размере портов. В роботизированной хирургии два 8-миллиметровых порта заменяют 5-миллиметровые порты, используемые в лапароскопическом шунтировании. Еще одна проблема — использование степлеров во время роботизированной хирургии. Стандартные степлеры можно вводить только через 12-мм порты.Один из вариантов — разместить 12-миллиметровый порт для степлера, как у нашего пациента. Двойная канюляция 8-миллиметровых роботизированных портов была описана для обеспечения втягивания роботизированных манипуляторов и введения стандартных степлеров через те же порты [2].

Хотя бариатрическая хирургия становится популярной в Азии, о роботизированном обходном желудочном анастомозе не сообщалось. Мы сообщаем о нашем первом опыте использования роботизированной системы da Vinci TM для выполнения лапароскопического желудочного обходного анастомоза по Ру у пациента с болезненным ожирением и диабетом.

Ссылки

1. Хорган С., Вануно Д. Роботы в лапароскопической хирургии. J. Laparoendosc Adv Surg Tech A. 2001; 11 (6): 415–419. DOI: 10,1089 / 100152761950. [PubMed] [CrossRef] [Google Scholar] 2. Мор CJ, Надзам GS, Curet MJ. Полностью роботизированный желудочный обходной анастомоз по Ру. Arch Surg. 2005. 140: 779–786. DOI: 10.1001 / archsurg.140.8.779. [PubMed] [CrossRef] [Google Scholar] 3. Ким К.С., Баффингтон С. Полностью роботизированный желудочный обходной анастомоз: подход и техника. J Robotic Surg. 2011; 5: 47–50. DOI: 10.1007 / s11701-010-0242-7.[PubMed] [CrossRef] [Google Scholar] 4. Шауэр П., Икрамуддин С., Хамад Г. и др. Кривая обучения лапароскопическому обходному желудочному анастомозу по Ру составляет 100 случаев. Surg Endosc. 2003. 17: 212–215. DOI: 10.1007 / s00464-002-8857-z. [PubMed] [CrossRef] [Google Scholar] 5. Снайдер Б.Е., Уилсон Т., Леонг Б.Е. и др. Обход желудочного анастомоза по Ру с помощью роботов: снижение заболеваемости и смертности. Obes Surg. 2010. 20: 265–270. DOI: 10.1007 / s11695-009-0012-7. [PubMed] [CrossRef] [Google Scholar]

Результаты одиннадцатилетнего использования U-клипс при полностью роботизированном шунтировании коронарной артерии по сравнению со стандартным ручным швом при помощи роботизированного шунтирования коронарной артерии | Интерактивная сердечно-сосудистая и торакальная хирургия

Абстрактные

ЦЕЛИ

Целью данного исследования была оценка клинических исходов у пациентов, перенесших автоматическое коронарное шунтирование (АКШ) без использования насоса с прерванными нитиноловыми U-образными зажимами при полностью эндоскопическом шунтировании коронарной артерии (TECAB) или стандартном беге. шовный анастомоз в автоматизированном прямом коронарном шунтировании (RADCAB) более десяти лет.

МЕТОДЫ

С января 2007 года по декабрь 2017 года 280 пациентам в нашем центре была выполнена роботизированная АКШ без помпы с использованием хирургической системы da Vinci S / Si. TECAB с прерванным анастомозом нитинола U-Clips был выполнен в левой внутренней молочной артерии (LIMA) с трансплантацией LAD у 126 пациентов, а RADCAB ( n = 154) LIMA на LAD был завершен стандартным непрерывным швом. После выписки с пациентами связывались по телефону и приглашали посещать поликлинику каждые 6 месяцев или 1 год.Проходимость трансплантата оценивали с помощью коронарной ангиографии или компьютерной томографической ангиографии.

РЕЗУЛЬТАТЫ

Все случаи были завершены без преобразования на срединную стернотомию или искусственное кровообращение. Всего 275 трансплантатов одиночной внутренней молочной артерии (IMA) (271 LIMA, 4 правые внутренние артерии молочной железы) и 5 ​​двусторонних трансплантатов IMA были использованы как отдельные трансплантаты или составные трансплантаты. Все пациенты были выписаны без госпитальной летальности или неблагоприятных исходов. Средний период наблюдения составил 89.7 ± 30,4 месяца (диапазон 14–143 месяцев). Кумулятивные коэффициенты выживаемости ( P = 0,53), совокупные коэффициенты проходимости IMA ( P = 0,83) и показатели отсутствия серьезных цереброваскулярных и сердечно-сосудистых событий ( P = 0,41) между TECAB и RADCAB — все показали нет существенной разницы в последующем наблюдении.

ВЫВОДЫ

Роботизированная АКШ без помпы с использованием трансплантатов IMA безопасна и может обеспечить надежные долгосрочные результаты. По сравнению со стандартной техникой ручного непрерывного шва в RADCAB, прерывистый шов с нитиноловыми U-образными зажимами в TECAB показал аналогичные долгосрочные клинические результаты и проходимость трансплантата в LIMA для обходного шунтирования LAD.

ВВЕДЕНИЕ

Сохранение неповрежденной грудины и предотвращение искусственного кровообращения (CPB) является целью минимально инвазивного коронарного шунтирования, в то время как выполнение всей процедуры полностью эндоскопически без использования CPB считается конечной целью минимально инвазивного подхода [1]. С 1996 года Calafiore et al. [2] выполнили первое малоинвазивное коронарное шунтирование без помпы (АКШ) через левый переднебоковой небольшой разрез, серия одноцентровых ретроспективных исследований подтвердила отсутствие существенной разницы в безопасности и краткосрочной перспективе. степень проходимости трансплантата между минимально инвазивным прямым коронарным шунтированием (MIDCAB) и традиционным АКШ через срединную стернотомию при лечении болезни одного сосуда LAD [3, 4].

Развитие роботизированных хирургических систем еще больше расширило применение минимально инвазивной техники в хирургии коронарного шунтирования. Роботизированная помощь упрощает забор внутренней молочной артерии (IMA) во время роботизированного прямого коронарного шунтирования (RADCAB), сводя к минимуму растяжение ребер, и облегчает тщательную манипуляцию забором IMA за счет визуального увеличения операционного поля. Между тем, с появлением стабилизирующего устройства Intuitive EndoWrist (Medtronic Inc, Миннеаполис, Minn / Intuitive Surgical Inc) и появлением анастомотического устройства Coalescent Surgical U-Clip (Coalescent Surgical, Саннивейл, Калифорния) [5] полностью эндоскопический коронарный Шунтирование артерии (TECAB) при лечении одно- или даже многососудистого поражения достигалось с помощью односторонней или двусторонней IMA [6, 7].Однако хирургам сложно адаптироваться к новому режиму работы с помощью удаленных манипуляций без тактильной обратной связи и маневра в узком пространстве на бьющемся сердце в условиях роботизированной помощи; следовательно, кривая обучения этому методу, как сообщается, значительно круче [8]. Кроме того, отсутствуют данные о долгосрочных результатах использования U-образных зажимов в процедуре TECAB [9], а влияние прерванного нитинолового шва U-образными зажимами на долгосрочную проходимость трансплантата является серьезной проблемой, которая также требует времени. -проверенная оценка для обеспечения безопасности пациента в долгосрочной перспективе.Таким образом, мы провели это ретроспективное исследование, чтобы продемонстрировать долгосрочные клинические результаты и проходимость трансплантата роботизированной АКШ без помпы и сравнить результаты между прерванным анастомозом с нитиноловым U-образным зажимом в TECAB и стандартным анастомозом с наложением швов в RADCAB.

МАТЕРИАЛЫ И МЕТОДЫ

Наблюдательный совет нашего учреждения одобрил настоящее исследование (S2019-407-01, 2019-09-11), и все пациенты предоставили письменное информированное согласие. С января 2007 г. по декабрь 2017 г. в нашем центре с использованием хирургической системы da Vinci S / Si (Intuitive Surgical, Inc., Саннивейл , Калифорния).Среди этих 280 пациентов 126 (105 мужчин и 21 женщина) прошли TECAB и 154 (120 мужчин и 34 женщины) — RADCAB. Средний возраст пациентов в 2 группах составил 59,1 ± 9,0 лет (TECAB) и 60,7 ± 10,2 года (RADCAB). Данные до операции приведены в таблице 1.

Таблица 1:

Предоперационная основная информация пациентов в 2 группах

0,85 908083 n (%) 907 Сердце функция, n (%) EuroSCORE II, среднее ± SD 907 n (%) Arr (%) Цель сосуд, n (%) a
Переменная . группа TECAB ( n = 126) . группа RADCAB ( n = 154) . P -значение .
Мужчины (%), n (%) 105 (83,3) 120 (77,9) 0,25
Возраст (лет), среднее ± SD 59,1 ± 9,0 60,7 ± 10,2 0,14
Рост (см), среднее значение ± стандартное отклонение 165,1 ± 8,6 163,6 ± 8,7 0,83
Вес (кг), среднее значение ± стандартное отклонение 67.3 ± 10,6 68,1 ± 11,2 0,37
BSA (м 2 ), среднее ± SD 1,8 ± 0,1 1,9 ± 0,1 0,20
BMI19 (2 кг / м ), среднее ± стандартное отклонение 24,6 ± 3,5 25,3 ± 3,1 0,36
Нестабильная стенокардия, n (%) 102 (81,0) 126 (81,8) Перенесенный инфаркт миокарда, n (%) 21 (16.7) 27 (17,5) 0,84
Предыдущее ЧКВ, n (%) 14 (11,1) 17 (11,0) 0,97
Гипертензия, % ( n) ) 73 (57,9) 92 (59,7) 0,76
Диабет, n (%) 37 (29,4) 43 (27,9) 0,79
28 (22.2) 35 (22,7) 0,92
Аритмия, n (%) 10 (7,9) 13 (8,4) 0,87
Цереброваскулярное заболевание 9017% ) 15 (11,9) 21 (13,6) 0,66
История курения, n (%) 62 (49,2) 77 (50,0) 0,89
0.38
Класс I – II 108 (85,7) 126 (81,8)
Класс III – IV 18 (14,3) 28 (18,2)
1,4 ± 0,6 1,5 ± 0,7 0,24
LVEDD (мм), среднее ± SD 43,3 ± 3,6 44,0 ± 3,4 0,21
LVEF (% ), среднее ± стандартное отклонение 63.0 ± 7,1 62,5 ± 6,9 0,95
Сложность заболевания, n (%) 0,58
Однососудистая болезнь 105 (83,3) 85,7)
Болезнь нескольких сосудов 21 (16,7) 22 (14,3)
Целевой сосуд, n (%) a 022
Локализованное поражение 106 (84,1) 112 (72,7)
Диффузное поражение 20 (15,9) 42 (27,3)

03
7 . группа TECAB ( n = 126) . группа RADCAB ( n = 154) . P -значение .
Мужской (%), n (%) 105 (83.3) 120 (77,9) 0,25
Возраст (лет), среднее значение ± стандартное отклонение 59,1 ± 9,0 60,7 ± 10,2 0,14
Рост (см), среднее значение ± стандартное отклонение 165,1 ± 8,6 163,6 ± 8,7 0,83
Вес (кг), среднее значение ± стандартное отклонение 67,3 ± 10,6 68,1 ± 11,2 0,37
BSA (м20 2 2 906) SD 1,8 ± 0,1 1.9 ± 0,1 0,20
ИМТ (кг / м 2 ), среднее ± стандартное отклонение 24,6 ± 3,5 25,3 ± 3,1 0,36
Нестабильная стенокардия, n (%) 102 (81,0) 126 (81,8) 0,85
Старый инфаркт миокарда, n (%) 21 (16,7) 27 (17,5) 0,84
14 (11.1) 17 (11,0) 0,97
Гипертония, n (%) 73 (57,9) 92 (59,7) 0,76
Диабет1 () n () n 37 (29,4) 43 (27,9) 0,79
Гиперлипидемия, n (%) 28 (22,2) 35 (22,7) 0,92
10 (7.9) 13 (8,4) 0,87
Цереброваскулярное заболевание, n (%) 15 (11,9) 21 (13,6) 0,66
9017 История курения, 901 %) 62 (49,2) 77 (50,0) 0,89
Функция сердца по NYHA, n (%) 0,38
Класс I – II 85,7) 126 (81.8)
Класс III – IV 18 (14,3) 28 (18,2)
EuroSCORE II, среднее ± SD 1,4 ± 0,6 1,5 ± 0,7
LVEDD (мм), среднее ± стандартное отклонение 43,3 ± 3,6 44,0 ± 3,4 0,21
ФВЛЖ (%), среднее значение ± стандартное отклонение 63,0 ± 7,1 62,5 ± 6,9
Сложность заболевания, n (%) 0.58
Заболевание одного сосуда 105 (83,3) 132 (85,7)
Болезнь нескольких сосудов 21 (16,7) 22 (14,3)
0,022
Локализованное поражение 106 (84,1) 112 (72,7)
Диффузное поражение9) 42 (27,3)
Таблица 1:

Предоперационная основная информация о пациентах в 2 группах

Цель сосуд, n (%) a
Переменная . группа TECAB ( n = 126) . группа RADCAB ( n = 154) . P -значение .
Мужской (%), n (%) 105 (83,3) 120 (77.9) 0,25
Возраст (лет), среднее значение ± стандартное отклонение 59,1 ± 9,0 60,7 ± 10,2 0,14
Рост (см), среднее значение ± стандартное отклонение 165,1 ± 8,6 ± 8,7 0,83
Масса (кг), среднее значение ± стандартное отклонение 67,3 ± 10,6 68,1 ± 11,2 0,37
BSA (м 2 ), среднее ± стандартное отклонение 1,8 1,9 ± 0,1 0.20
ИМТ (кг / м 2 ), среднее ± стандартное отклонение 24,6 ± 3,5 25,3 ± 3,1 0,36
Нестабильная стенокардия, n (%) 102 (81)126 (81,8) 0,85
Старый инфаркт миокарда, n (%) 21 (16,7) 27 (17,5) 0,84
n 9017 9017 ) 14 (11,1) 17 (11.0) 0,97
Гипертония, n (%) 73 (57,9) 92 (59,7) 0,76
Диабет, n (%) 43 (27,9) 0,79
Гиперлипидемия, n (%) 28 (22,2) 35 (22,7) 0,92
Аритмия 10 (7,9) 13 (8.4) 0,87
Цереброваскулярное заболевание, n (%) 15 (11,9) 21 (13,6) 0,66
История курения, n 9080 49,2) 77 (50,0) 0,89
Функция сердца по NYHA, n (%) 0,38
Класс I – II 108 (85802) 126805 108 (85802) 126 81,8)
Класс III – IV 18 (14.3) 28 (18,2)
EuroSCORE II, среднее ± SD 1,4 ± 0,6 1,5 ± 0,7 0,24
LVEDD (мм), среднее ± SD 43,3 ± 3,6 44,0 ± 3,4 0,21
ФВЛЖ (%), среднее ± стандартное отклонение 63,0 ± 7,1 62,5 ± 6,9 0,95
Сложность заболевания, n 0.58
Заболевание одного сосуда 105 (83,3) 132 (85,7)
Болезнь нескольких сосудов 21 (16,7) 22 (14,3)
0,022
Локализованное поражение 106 (84,1) 112 (72,7)
Диффузное поражение9) 42 (27,3)
Сосудистое заболевание n (%) 9080 63,0 ± 7,1 132 (83,3 85.7) 0,0802330399 91

Подходящие кандидаты, прошедшие роботизированный TECAB / RADCAB без помпы, включали пациентов с поражением одного сосуда в левой передней нисходящей артерии (ПНА) или проксимальной правой коронарной артерии (ПКА) и многососудистым заболеванием, при котором ПМЖВ была вовлечена, в то время как заболевание, не связанное с ПМЖВ. Поддалась чрескожному коронарному вмешательству (ЧКВ).Перед операцией пациенты с локализованным поражением, тотальными или субтотальными закупоренными сосудами были в первую очередь выбраны для TECAB, в то время как пациенты с диффузным кальцинированным заболеванием, плохим стоком или миокардиальным мостиком были запланированы для RADCAB. Во время операции качество ПМЖВ тщательно проверялось после вскрытия перикарда роботизированными инструментами. Мы считаем, что нестабильный гемодинамический статус во время сердцебиения TECAB, затрудненное обнажение сосудов-мишеней и необходимость расслоения миокарда являются определяющими факторами преобразования в RADCAB.Критериями исключения были травма или операция левого легкого в анамнезе, фракция выброса левого желудочка <30%, необходимость экстренной АКШ и наличие тяжелой хронической обструктивной болезни легких с неспособностью переносить однократную вентиляцию легких. В группе TECAB робот использовался полностью в хирургии, включая извлечение IMA, прерванные анастомозы с помощью U-образных зажимов. В группе RADCAB робот использовался только для сбора IMA, и анастомозы были завершены непрерывным швом через небольшой левый переднебоковой разрез.

Хирургическая техника

Наша техника анестезии и взятия IMA была ранее описана [9, 10]. В процедуре TECAB седловидные петли помещали проксимально и дистально вокруг ПМЖВ и использовали около 8 U-образных зажимов (Medtronic Inc) для прерывистого парашюта левой внутренней артерии молочной железы (LIMA) на ПМЖВ. В процедуре RADCAB после удаления LIMA с помощью робота была сделана небольшая передняя торакотомия слева (6–8 см), а ПМЖВ была обнажена и стабилизирована с помощью стабилизатора (Octopus IV; Medtronic Inc).Трансплантаты IMA вручную анастомозировали с сосудами-мишенями с помощью проленовых швов 7–0 (Ethicon, Somerville, NJ).

Определения

Периоперационные нежелательные явления определялись как смерть в больнице, инсульт, повторное обследование после торакотомии, конверсия в срединную торакотомию и периоперационный инфаркт миокарда (ИМ) (уровни креатинкиназы изофермента-MB или тропонина Т в 5 раз превышают исходное значение). Долгосрочные серьезные нежелательные цереброваскулярные и сердечно-сосудистые события (MACCE) были определены как смерть от всех причин, инсульт, инфаркт миокарда и повторное вмешательство, связанное с трансплантатом.

Оценка проходимости артериального трансплантата и наблюдение

Интраоперационный кровоток и индекс пульсации имплантатов IMA измеряли после завершения всех анастомозов с помощью расходомера Medistim VeriQC (Осло, Норвегия). Перед выпиской были выполнены ангиография и 64-срезовая спиральная компьютерная томографическая ангиография (КТА) для оценки проходимости трансплантата и анастомоза. Все пациенты начали принимать аспирин и клопидогрель на 1-й день после операции и были рекомендованы для пожизненного применения.После выписки все пациенты наблюдались при помощи КТА, с ними регулярно связывались по телефону, а также их приглашали посещать амбулаторную клинику каждые 6 месяцев или 1 год. Во время наблюдения регистрировали частоту возникновения MACCE, проходимость трансплантата и выживаемость.

Гибридная реваскуляризация при многососудистом поражении

Поэтапная гибридная реваскуляризация пациентов выполнялась, как описано [5]. Через пять-десять дней после операции установка стента в артерию без ПМЖВ выполнялась обычным методом в катетерной лаборатории.Проходимость трансплантата оценивалась ангиографией трансплантата IMA перед процедурой PCI.

Статистический анализ

Статистический анализ был выполнен с использованием пакета статистических данных для социальных наук, версия 19.0 (SPSS, Inc, Чикаго, Иллинойс). Непрерывные переменные представлены как среднее ± стандартное отклонение, а категориальные переменные — как абсолютные значения и проценты. Тест Стьюдента t использовался для сравнения средних значений между двумя группами, если данные были распределены нормально; в противном случае использовался тест Манна – Уитни; Для сравнения категориальных данных использовались тесты хи-квадрат.Выживаемость, проходимость LIMA – LAD и отсутствие MACCE рассчитывались с использованием анализа Каплана – Мейера, а для сравнения между группами использовался лог-ранговый тест. Статистическая значимость была основана на двусторонних значениях P <0,05.

РЕЗУЛЬТАТЫ

Все случаи были завершены без преобразования на срединную стернотомию или CPB. Всего 275 отдельных трансплантатов IMA [271 LIMA, 4 правые внутренние грудные артерии (RIMA)] и 5 двусторонних трансплантатов IMA были использованы как отдельные трансплантаты или составные трансплантаты (Таблица 2).Никаких травм IMA не произошло. Один случай преобразования в RADCAB был отмечен в группе TECAB (1/126, 0,8%) из-за немедленного отказа трансплантата с плохими результатами флоуметрии, связанными с RIMA в кальцифицированный RCA. Анастомоз был немедленно исследован и реконструирован путем мини-торакотомии без послеоперационного инфаркта миокарда. Один случай в группе TECAB перенес повторную операцию через мини-торакотомию в послеоперационном периоде из-за кровотечения (1/126, 0,8%) в левой руке в седьмом межреберье и хорошо выздоровел.Восемь пациентов (8/154, 5,2%) пострадали от раневой инфекции в группе RADCAB и хорошо выздоровели после медикаментозной терапии. Все пациенты были успешно вылечены и выписаны без госпитальной летальности или неблагоприятных исходов. Другие периоперационные данные 2 групп перечислены в таблице 3. Поэтапное ЧКВ было выполнено 39 пациентам (13,9%) в среднем через 11 дней после операции; 19 из группы TECAB (15,1%) и 20 из RADCAB (13,0%). Стенты с лекарственным покрытием были помещены в 42 целевых сосуда.

Таблица 2:

Схемы конфигурации трансплантата между 2 группами

Переменная . группа TECAB ( n = 126) . группа RADCAB ( n = 154) . P -значение .
Мужчины (%), n (%) 105 (83,3) 120 (77,9) 0,25
Возраст (лет), среднее ± стандартное отклонение 59.1 ± 9,0 60,7 ± 10,2 0,14
Рост (см), среднее значение ± стандартное отклонение 165,1 ± 8,6 163,6 ± 8,7 0,83
Вес (кг), среднее значение ± стандартное отклонение 67,3 ± 10,6 68,1 ± 11,2 0,37
BSA (м 2 ), среднее ± SD 1,8 ± 0,1 1,9 ± 0,1 0,20
90 ИМТ (2 кг / м ), среднее ± стандартное отклонение 24.6 ± 3,5 25,3 ± 3,1 0,36
Нестабильная стенокардия, n (%) 102 (81,0) 126 (81,8) 0,85
инфаркт 90 Старый миокард170 (%) 21 (16,7) 27 (17,5) 0,84
Предыдущий PCI, n (%) 14 (11,1) 17 (11,0) 0,97 907 Гипертония, n (%) 73 (57.9) 92 (59,7) 0,76
Диабет, n (%) 37 (29,4) 43 (27,9) 0,79
Гиперлипидемия 17, % 28 (22,2) 35 (22,7) 0,92
Аритмия, n (%) 10 (7,9) 13 (8,4) 0,87
15 (11.9) 21 (13,6) 0,66
История курения, n (%) 62 (49,2) 77 (50,0) 0,89
Функция сердца NYHA 9017, (%) 0,38
Класс I – II 108 (85,7) 126 (81,8)
Класс III – IV 18 (14,3) 2880 18.2)
EuroSCORE II, среднее ± стандартное отклонение 1.4 ± 0,6 1,5 ± 0,7 0,24
LVEDD (мм), среднее ± SD 43,3 ± 3,6 44,0 ± 3,4 0,21
LVEF (%), среднее ± SD 62,5 ± 6,9 0,95
Сложность заболевания, n (%) 0,58
Однососудистая болезнь
Заболевание нескольких сосудов 21 (16,7) 22 (14,3)
Целевой сосуд, n (%) a
Локализованное поражение 106 (84,1) 112 (72,7)
Диффузное поражение 20 (15,9) 42 (27,3)
0,6) 1,9
Конфигурация трансплантата . группа TECAB ( n = 126), n (%) . группа RADCAB ( n = 154), n (%) .
SIMA
LIMA – LAD 126 (100) 138 (89,6)
LIMA-диагональ 0 3 (1.9)
LIMA-диагональ-LAD 0 4 (2,6)
RIMA-LAD 0 3 (1,9)
RIMA-RC2
BIMA
LIMA-диагональ, RIMA – LAD 0 4 (2,6)
LIMA – LAD, RIMA – RCA 0 1
907 907 LAD , RIMA – RCA
Конфигурация трансплантата . группа TECAB ( n = 126), n (%) . группа RADCAB ( n = 154), n (%) .
SIMA
LIMA – LAD 126 (100) 138 (89,6)
LIMA-диагональ 0 3 (1,9) 3 (1,9) диагональ 0 4 (2,6)
RIMA – LAD 0 3 (1.9)
RIMA – RCA 0 1 (0,6)
BIMA
LIMA — диагональ, RIMA – LAD 0 4 (2,6) 0 1 (1,9)
Таблица 2:

Схемы конфигурации трансплантата между 2 группами

диагональ 907 LAD 1,9
Конфигурация трансплантата . группа TECAB ( n = 126), n (%) . группа RADCAB ( n = 154), n (%) .
SIMA
LIMA – LAD 126 (100) 138 (89,6)
LIMA — диагональ 0 3 (1,9) 3 (1,9) 0 4 (2,6)
RIMA – LAD 0 3 (1,9)
RIMA – RCA 0 1 (0.6)
BIMA
LIMA-диагональ, RIMA – LAD 0 4 (2,6)
LIMA – LAD, RIMA – RCA 0 1
1,9) LIMA , RIMA – RCA
Конфигурация трансплантата . группа TECAB ( n = 126), n (%) . группа RADCAB ( n = 154), n (%) .
SIMA
LIMA – LAD 126 (100) 138 (89.6)
LIMA-диагональ 0 3 (1,9)
LIMA-диагональ-LAD 0 4 (2,6)
RIMA-LAD
RIMA – RCA 0 1 (0,6)
BIMA
LIMA — диагональ, RIMA – LAD 0 4 (2,6) 4 (2,6) 0 1 (1.9)
Таблица 3:

Периоперационные характеристики 2 групп (среднее ± стандартное отклонение)

192
Характеристика . Группа TECAB ( n = 126), среднее ± стандартное отклонение . Группа RADCAB ( n = 154), среднее ± стандартное отклонение . P -значение .
Время уборки LIMA (мин) 24.3 ± 9,5 23,1 ± 9,4 0,95
Время анастомоза (мин) 9,6 ± 3,7 16,9 ± 3,8 <0,001
Среднее время операции (мин) 184,7 ± 36802 207,9 ± 37,0 <0,001
Средний транзитный кровоток (мл / мин) 37,6 ± 18,1 32,8 ± 19,2 0,032
Время вентиляции (ч) 6.5 ± 3,1 6,2 ± 2,9 0,28
Время критического состояния (ч) 26,3 ± 10,5 25,4 ± 10,1 0,80
Дренаж грудной клетки (мл) 9013,65 ± 434,2 ± 191,5 0,82
Переливание крови (U) 0,8 ± 1,6 0,9 ± 1,7 0,68
1
Характеристика . Группа TECAB ( n = 126), среднее ± стандартное отклонение . Группа RADCAB ( n = 154), среднее ± стандартное отклонение . P -значение .
Время сбора урожая LIMA (мин) 24,3 ± 9,5 23,1 ± 9,4 0,95
Время анастомоза (мин) 9,6 ± 3,7 16,9802 16,9 ± 3,8
Среднее время работы (мин) 184.7 ± 36,5 207,9 ± 37,0 <0,001
Средний транзитный кровоток (мл / мин) 37,6 ± 18,1 32,8 ± 19,2 0,032
Время вентиляции (ч) 6,5802 ± 3,1 6,2 ± 2,9 0,28
Время критического состояния (ч) 26,3 ± 10,5 25,4 ± 10,1 0,80
Дренаж грудной клетки (мл). 41 434,2 ± 191,5 0,82
Переливание крови (U) 0,8 ± 1,6 0,9 ± 1,7 0,68
Таблица 3:

Периоперационные характеристики 2 групп (среднее ± стандартное отклонение )

10802 263 25,4 ± 10,19 ± 1,7
Характеристика . Группа TECAB ( n = 126), среднее ± стандартное отклонение . Группа RADCAB ( n = 154), среднее ± стандартное отклонение . P -значение .
Время сбора урожая LIMA (мин) 24,3 ± 9,5 23,1 ± 9,4 0,95
Время анастомоза (мин) 9,6 ± 3,7 16,9802 16,9 ± 3,8
Среднее время операции (мин) 184,7 ± 36,5 207,9 ± 37,0 <0,001
Средний транзитный кровоток (мл / мин) 37.6 ± 18,1 32,8 ± 19,2 0,032
Время вентиляции (ч) 6,5 ± 3,1 6,2 ± 2,9 0,28
Время критической помощи (ч) 0,80
Дренаж грудной клетки (мл) 413,6 ± 192,1 434,2 ± 191,5 0,82
Переливание крови (U) 0,8 ± 1,6 0,68
3 ± 10,5
Характеристика . Группа TECAB ( n = 126), среднее ± стандартное отклонение . Группа RADCAB ( n = 154), среднее ± стандартное отклонение . P -значение .
Время сбора урожая LIMA (мин) 24,3 ± 9,5 23,1 ± 9,4 0,95
Время анастомоза (мин) 9.6 ± 3,7 16,9 ± 3,8 <0,001
Среднее время операции (мин) 184,7 ± 36,5 207,9 ± 37,0 <0,001
Средний транзитный кровоток (мл / мин) 37,6 ± 18,1 32,8 ± 19,2 0,032
Время вентиляции (ч) 6,5 ± 3,1 6,2 ± 2,9 0,28
Время критического ухода (ч) 25,4 ± 10,1 0,80
Дренаж грудной клетки (мл) 413,6 ± 192,1 434,2 ± 191,5 0,82
Переливание крови 1,6 ± 1,7 0,68

Средний поток трансплантата составлял 37,6 ± 18,1 (диапазон, 10–106) мл / мин в группе TECAB и 32,7 ± 19,3 (диапазон, 7-108) мл / мин в группе RADCAB ( P <0,05). Значения пульсационного индекса всех трансплантатов были <5 в обеих группах пациентов.Не было статистически значимой разницы во времени послеоперационной вентиляции ( P = 0,28), времени интенсивной терапии ( P = 0,80), объеме дренажа грудной клетки ( P = 0,82) и единицах переливания красной крови ( P = 0,686. ) (Таблица 3). Все трансплантаты были оценены перед выпиской, и была достигнута 100% проходимость трансплантата.

В среднем за период наблюдения 89,7 ± 30,4 месяца (диапазон 14–143 месяцев) было зарегистрировано в общей сложности 18 событий, включая 2 повторных вмешательства, 5 летальных исходов, 7 цереброваскулярных событий и 4 послеоперационных ИМ.В группе TECAB произошло 2 смерти (2/126, 1,6%) и 3 цереброваскулярных события (3/126, 2,4%), а 2 пациентам потребовалось повторное вмешательство, связанное с трансплантатом (2/126, 1,6%) из-за окклюзии трансплантата LIMA. через 1 год и 10 месяцев после операции. Конкурентный кровоток в трансплантате LIMA – LAD был обнаружен при коронарной ангиографии сразу после операции у 2 пациентов. Они благополучно выздоровели и жили хорошо после повторного вмешательства. В группе RADCAB не было повторного вмешательства, связанного с трансплантатом.

Всего 238 (85.0%) пациентов (107 TECAB, 131 RADCAB) наблюдали за КТА или ангиографией. Из них 221 пациенту (92,8%) была проведена КТА в нашем исследовании, а остальным (7,2%) — ангиография. Совокупная выживаемость для TECAB и RADCAB составила 94,8% и 93,3% через 11 лет соответственно и не имела статистической разницы ( P = 0,534) (рис. 1). Совокупные показатели проходимости LIMA – LAD не показали статистически значимых различий между TECAB (96,1%) и RADCAB (95,1%) ( P = 0.83) (рис.2). Три случая окклюзии трансплантата (степень O по Фитцгиббону) произошли в группе TECAB (все в LIMA) (3/107, 2,8%) и 5 ​​случаев были обнаружены в группе RADCAB (5/131, 3,82%), включая 4 трансплантата LIMA и 1 графт RIMA. Показатели свободы от MACCE в течение 11 лет составили 92,9% в группе TECAB по сравнению с 91,6% в группе RADCAB, и эти различия также не достигли статистической значимости ( P = 0,41) (рис. 3).

Рисунок 1:

Совокупные показатели выживаемости для полностью эндоскопического коронарного шунтирования и прямого коронарного шунтирования с помощью роботов статистически не различались и составили 94.8% и 93,3% через 11 лет соответственно ( P = 0,534). CI: доверительный интервал; RADCAB: прямое коронарное шунтирование с помощью роботов; TECAB: полностью эндоскопическое коронарное шунтирование.

Рисунок 1:

Совокупные показатели выживаемости для полностью эндоскопического коронарного шунтирования и прямого коронарного шунтирования с помощью роботов статистически не различались и составили 94,8% и 93,3% через 11 лет соответственно ( P = 0,534). CI: доверительный интервал; RADCAB: прямое коронарное шунтирование с помощью роботов; TECAB: полностью эндоскопическое коронарное шунтирование.

Рисунок 2:

Совокупные показатели проходимости левой внутренней молочной артерии и левой передней нисходящей артерии (пациенты с одним сосудом) не показали статистически значимых различий между полностью эндоскопическим шунтированием коронарной артерии (96,1%) и прямым коронарным шунтированием с помощью роботов (95,1%) ( P = 0,837). CI: доверительный интервал; ПМЖВ: левая передняя нисходящая; LIMA: левая внутренняя грудная артерия; RADCAB: прямое коронарное шунтирование с помощью роботов; TECAB: полностью эндоскопическое коронарное шунтирование.

Рисунок 2:

Совокупные показатели проходимости левой внутренней молочной артерии и левой передней нисходящей артерии (пациенты с одним сосудом) не показали статистически значимых различий между полностью эндоскопическим коронарным шунтированием (96,1%) и прямым коронарным шунтированием с помощью роботов (95,1%). ) ( P = 0,837). CI: доверительный интервал; ПМЖВ: левая передняя нисходящая; LIMA: левая внутренняя грудная артерия; RADCAB: прямое коронарное шунтирование с помощью роботов; TECAB: полностью эндоскопическое коронарное шунтирование.

Рисунок 3:

Показатели отсутствия серьезных цереброваскулярных и сердечно-сосудистых событий в течение 11 лет составили 92,9% в группе полностью эндоскопического коронарного шунтирования по сравнению с 91,6% в группе прямого коронарного шунтирования с помощью роботов; однако эти различия также не достигли статистической значимости ( P = 0,417). CI: доверительный интервал; RADCAB: прямое коронарное шунтирование с помощью роботов; TECAB: полностью эндоскопическое коронарное шунтирование.

Рисунок 3:

Показатели отсутствия серьезных цереброваскулярных и сердечно-сосудистых событий в течение 11 лет составили 92,9% в группе полностью эндоскопического коронарного шунтирования по сравнению с 91,6% в группе прямого коронарного шунтирования с помощью роботов; однако эти различия также не достигли статистической значимости ( P = 0,417). CI: доверительный интервал; RADCAB: прямое коронарное шунтирование с помощью роботов; TECAB: полностью эндоскопическое коронарное шунтирование.

ОБСУЖДЕНИЕ

Наше предыдущее исследование доказало, что роботизированная АКШ, завершенная эндоскопическим забором IMA и реконструкцией дистального анастомоза с использованием ручной непрерывной нити или прерывистого шва с U-образным зажимом, дала среднесрочные клинические результаты, сопоставимые с традиционной АКШ, описанной в литературе [9 ].Настоящее исследование дополнительно продемонстрировало его долгосрочные сопоставимые результаты и показало, что не было значительной разницы в клинических исходах и проходимости трансплантата между сшитым вручную непрерывным швом и узловым швом с U-образными зажимами. Насколько нам известно, это первое исследование, демонстрирующее долгосрочные клинические результаты АКШ без помпы с роботом и сравнивающее результаты непрерывного ручного наложения швов и анастомозирования с прерывистым U-образным зажимом.

Качество шунтов и анастомозов имеет решающее значение для определения отдаленного исхода АКШ.Долгосрочная проходимость и клиническая эффективность обычного АКШ посредством стернотомии были подтверждены [11], в котором реваскуляризация LIMA – LAD проводилась с помощью CPB в остановленном сердце после сбора LIMA в прямом видении. Однако при минимально инвазивных процедурах, когда и сбор LIMA, и анастомоз LIMA – LAD были выполнены через небольшой разрез в переднебоковой стенке грудной клетки под прямым обзором, сложность значительно увеличилась, учитывая ограниченное операционное пространство и плохую экспозицию.Следовательно, качество трансплантата IMA и анастомоза может быть нарушено и в конечном итоге может привести к нежелательным клиническим исходам. Несмотря на то, что серия ранних исследований продемонстрировала осуществимость и краткосрочную эффективность MIDCAB, до сих пор нет результатов долгосрочного наблюдения, демонстрирующих его сравнимую эффективность с традиционной АКШ [4].

Появление роботизированных хирургических систем значительно снизило сложность сбора IMA и способствовало преобразованию MIDCAB в RADCAB [12–14].С ростом популярности роботизированных хирургических систем в Северной Америке, большинство клинических исследований начали сосредотачиваться на безопасности и краткосрочной эффективности RADCAB, а интерес к MIDCAB постепенно снизился после 2006 г. [15]. Одно исследование, проведенное в университетской больнице Эмори, показало, что RADCAB стала единственной процедурой, число которой увеличивалось для лечения однососудистой болезни ПМЖВ, в то время как количество других процедур, таких как обычная АКШ, MIDCAB и торакоскопическое шунтирование коронарной артерии, быстро уменьшилось после внедрение роботизированной хирургической системы [16].Однако данные о долгосрочной проходимости и клинической эффективности RADCAB отсутствуют [17]. Еще одним вкладом роботизированной хирургической системы в малоинвазивную коронарную хирургию является аутентичная реализация полностью эндоскопического коронарного шунтирования без помпы (TECAB) в клинических условиях [10]. Еще в 1996 году Mack et al. начал демонстрировать возможность полностью торакоскопической АКШ на животных моделях [18]. Однако эта попытка в конечном итоге не могла быть преобразована в клиническую практику из-за сложности техники и ограниченных условий.С помощью новых устройств, таких как эпикардиальный стабилизатор, U-образные зажимы и устройство для дистального анастомоза C-Port Flex-A [19], хирурги теперь могут завершить одиночный анастомоз LIMA – LAD и даже анастомоз нескольких сосудов с помощью роботизированные хирургические системы, достигающие конечной цели минимально инвазивной АКШ. По сравнению с устройством дистального анастомоза, устройство U-clip имеет относительно более длительные данные последующего наблюдения, и наши предыдущие исследования подтвердили, что средний показатель проходимости был удовлетворительным [9].Тем не менее, исследования о том, равна ли его долгосрочная проходимость такой же или даже лучше, чем у обычного АКШ, все еще ограничены [20]. Таким образом, мы считаем, что это исследование имеет большое значение для объективной оценки долговечности полученных роботом IMA и качества дистальных анастомозов, заполненных U-образными зажимами. Превосходные результаты, показанные в нашем исследовании, имеют большое значение для продвижения U-образного зажима, используемого при полностью эндоскопической многососудистой реваскуляризации.

Одним из преимуществ RADCAB перед обычным АКШ или MIDCAB является точность и относительная эффективность при извлечении обоих IMA скелетонизированным способом с меньшим количеством повреждений IMA в закрытой грудной клетке [21].Наши предыдущие результаты показали среднее время 30 минут для роботизированного сбора LIMA и <1 часа для двустороннего сбора внутренней артерии молочной железы после крутой кривой обучения [8], а удовлетворительные среднесрочные показатели проходимости LIMA – LAD доказали надежность и безопасность роботизированного сбора IMA, несмотря на присущую им проблему отсутствия тактильной обратной связи в этом режиме работы [9]. В настоящем исследовании мы подтвердили наши предыдущие результаты, а также долгосрочные клинические результаты и показатели проходимости трансплантата в обеих группах со средней продолжительностью наблюдения 89.7 ± 30,4 месяца неизменно обнадеживают. Около 92,9% пациентов из группы TECAB и 91,6% пациентов из группы RADCAB избавились от серьезных побочных эффектов со стороны сердца и головного мозга через десять лет, а совокупная проходимость LIMA – LAD составила 96,1% и 95,1% в 2 группах соответственно, что сравнимо с таковыми в группе. обычная АКШ, как описано в литературе [17, 20, 22].

В нашем опыте с TECAB мы обнаружили, что завершение анастомоза было наиболее сложной и сложной частью, учитывая трудности в увеличенном, подпрыгивающем операционном поле в течение ограниченного времени анастомоза.Прерванный анастомоз с помощью U-образных зажимов может снизить вероятность эффекта кисетной нити, вызванного непрерывным швом [23], а время анастомоза менее 8 минут было короче, чем ранее сообщалось [24, 25], и даже меньше, чем при непрерывном наложении швов. шов в группе RADCAB. На сегодняшний день сравнительные исследования клинических различий между методами непрерывного и прерывистого швов были ограничены [23, 26]. Baumgartner et al. сравнил размер просвета и податливость сосудистых анастомозов, завершенных непрерывным или прерывистым швом, и пришел к выводу, что техника прерывистого шва будет более подходящей для построения анастомозов в мелких сосудах [27].Наши результаты показали лучший интраоперационный кровоток в группах TECAB, чем в группах RADCAB (37,6 ± 18,1 против 32,8 ± 19,2 мл / мин, P <0,05). Dancona et al. [28] сравнил характеристики потока анастомозов LIMA – LAD с использованием непрерывного шва или нитиноловых U-образных зажимов и продемонстрировал, что среднее значение интраоперационного времени прохождения потока было значительно выше в группе U-Clip, что соответствовало нашим выводам, и это исследование также показало, что прерванная техника, облегченная автоматическими или самозакрывающимися анастомотическими зажимами, также была сопоставима со стандартным непрерывным швом для анастомоза LIMA – LAD в долгосрочной перспективе, поддерживая использование прерванной анастомотической техники в роботизированной АКШ без помпы.

Ограничения

Наше исследование было ограничено небольшой группой тщательно отобранных пациентов из одного центра. Более того, более 90% пациентов из числа последующих пациентов подвергались КТА, а не золотому стандарту ангиографии в нашем исследовании, что может привести к некоторой ошибке в оценке проходимости трансплантата [29]. Кроме того, поскольку <10% пациентов проходили клиническое наблюдение без ангиографии или оценки КТА, эта более чем 10-летняя проходимость трансплантата после роботизированной АКШ может быть переоценена.

ВЫВОДЫ

В заключение, роботизированная АКШ без помпы с использованием трансплантатов IMA безопасна и может обеспечить надежные долгосрочные результаты. По сравнению с традиционной техникой наложения непрерывного шва в RADCAB, нитиноловый U-образный анастомоз с техникой прерывистого шва в TECAB показал аналогичные долгосрочные клинические результаты и проходимость трансплантата.

Финансирование

Эта работа была поддержана специальным фондом здравоохранения 2017 года PLA и исследованием роботизированной минимально инвазивной гибридной технологии в применении лечения многососудистой ишемической болезни сердца в медицине и здравоохранении (номер гранта: 17BJ31).

Конфликт интересов: не объявлен ..

Вклад авторов

Nan Cheng: Writing — оригинальный черновик. Huajun Zhang: Writing — оригинальный черновик. Мин Ян: Наблюдение. Гопэн Лю: Расследование. И Го: Обработка данных. Венбин Кан: курирование данных; Методология. Чанцин Гао: Концептуализация; Администрация проекта. Ронг Ван: Администрация проекта; Написание — просмотр и редактирование.

Информация о рецензенте

Interactive CardioVascular and Thoracic Surgery благодарит Christian Munoz-Guijosa, Koichi Toda и других анонимных рецензентов за их вклад в процесс рецензирования этой статьи.

ССЫЛКИ

1

Харки

A

,

Чаплин

G

,

Чан

JSK

,

Эриксен

П

,

Маккарти-Офосу

B

,

Theologou

T

и другие.

Будущее операций на открытом сердце в эпоху роботизированных и минимальных хирургических вмешательств

.

Heart Lung Circ

2020

;

29

:

49

61

,2

Калафиоре

AM

,

Джаммарко

GD

,

Теодори

G

,

Bosco

G

,

Д’Аннунцио

E

,

Барсотти

А

и другие.

Трансплантация левой передней нисходящей коронарной артерии через переднюю левую малую торакотомию без искусственного кровообращения

.

Ann Thorac Surg

1996

;

61

:

1658

63

,3

Кикучи

К

,

Мори

М.

Малоинвазивное аортокоронарное шунтирование международный ландшафт и прогресс

.

Curr Opin Cardiol

2017

;

32

:

715

21

.4

Головка

SJ

,

Милоевич

M

,

Таггарт

DP

,

Пушкаш

JD.

Современная практика современной хирургической реваскуляризации коронарных сосудов

.

Тираж

2017

;

136

:

1331

45

,5

Гао

С

,

Ян

М

,

Wu

Y

,

Ван

G

,

Сяо

C

,

Лю

H

и другие.

Гибридная коронарная реваскуляризация посредством эндоскопического роботизированного коронарного шунтирования на работающем сердце и установки стента

.

Ann Thorac Surg

2009

;

87

:

737

41

,6

Cao

C

,

Индраратна

P

,

Дойл

M

,

Тиан

DH

,

Liou

K

,

Мункхольм-Ларсен

S

и другие.

Систематический обзор роботизированной хирургии шунтирования коронарной артерии

.

Ann Cardiothorac Surg

2016

;

5

:

530

43

,7

Шривастава

S

,

Баррера

Р

,

Quismundo

S.

Сто шестьдесят четыре последовательных случая полностью эндоскопического коронарного шунтирования с сокращающимся сердцем без интраоперационной конверсии

.

Ann Thorac Surg

2012

;

94

:

1463

8

,8

Cheng

N

,

Гао

C

,

Ян

М

,

Wu

Y

,

Ван

G

,

Сяо

К.

Анализ кривой обучения работающему сердцу, полностью эндоскопическому, аортокоронарному шунтированию

.

J Thorac Cardiovasc Surg

2014

;

148

:

1832

6

.9

Ян

М

,

Wu

Y

,

Ван

G

,

Сяо

C

,

Чжан

H

,

Гао

К.

Роботизированное полное артериальное шунтирование коронарной артерии без помпы: семилетний опыт работы в одном центре и долгосрочное наблюдение за проходимостью трансплантата

.

Ann Thorac Surg

2015

;

100

:

1367

73

.10

Гао

С

,

Ян

М

,

Wu

Y

,

Ван

G

,

Сяо

C

,

Чжао

Y

и другие.

Ранние и среднесрочные результаты тотального эндоскопического аортокоронарного шунтирования на работающем сердце

.

J Thorac Cardiovasc Surg

2011

;

142

:

843

9

.11

Mohr

FW

,

Морис

MC

,

Каппетайн

AP

,

Фельдман

TE

,

Stahle

E

,

Коломбо

A

и другие.

Операция по аортокоронарному шунтированию в сравнении с чрескожным коронарным вмешательством у пациентов с поражением трех сосудов и поражением основной левой коронарной артерии: 5-летнее наблюдение рандомизированного клинического исследования SYNTAX

.

Ланцет

2013

;

381

:

629

38

.12

Гонг

Вт

,

Цай

Дж

,

Ван

З

,

Чен

А

,

Ye

X

,

Li

H

и другие.

Аортокоронарное шунтирование с помощью робота улучшает краткосрочные результаты по сравнению с минимально инвазивным прямым шунтированием коронарной артерии

.

J Thorac Dis

2016

;

8

:

459

68

,13

Прорезь

D

,

Карпентье

А

,

d’Attellis

N

,

Берреби

А

,

Кардон

С

,

Понцио

O

и другие.

Эндоскопическое аортокоронарное шунтирование с помощью роботизированных инструментов

.

J Thorac Cardiovasc Surg

1999

;

118

:

4

10

,14

Wu

CJ

,

Чен

HH

,

Cheng

PW

,

Лю

WH

,

Ценг

CJ

,

Лай

СС.

Результат двусторонней роботизированной трансплантации внутренней молочной артерии через левую плевру при коронарном шунтировании

.

J Clin Med

2019

;

8

: 15

Тернер

WF

Jr. ,

Sloan

JH.

Аортокоронарное шунтирование с помощью роботов при работающем сердце: первый опыт и последствия для будущего

.

Ann Thorac Surg

2006

;

82

:

790

4

,16

Halkos

ME

,

Василиадес

TA

,

Мён

RJ

,

кг

P

,

Thourani

VH

,

Купер

WA

и другие.

Сравнение стернотомии и нестернотомии Пересадка LIMA-LAD при поражении одного сосуда

.

Ann Thorac Surg

2012

;

94

:

1469

77

,17

Бонатти

Дж

,

Рамахи

Дж

,

Хасан

Ф

,

Эдрис

А

,

Бартель

Т

,

Наир

R

и другие.

Отдаленные результаты после операции коронарного шунтирования с применением робототехники

.

Ann Cardiothorac Surg

2016

;

5

:

556

62

,18

Мак

M

,

Acuff

T

,

Йонг

P

,

Джетт

ГК

,

Картер

Д.

Малоинвазивная торакоскопическая операция по аортокоронарному шунтированию

.

евро J Cardiothorac Surg

1997

;

12

:

20

4

.19

Балхи

ДН

,

Nisivaco

S

,

Китайхара

H

,

МакКрори

M

,

Пател

Б.

Роботизированный мультисосудистый эндоскопический коронарный анастомоз: воздействие на работающее сердце доступ с коннекторами

.

Ann Thorac Surg

2019

;

108

:

67

73

,20

Китахара

H

,

Nisivaco

S

,

Балхи

ДХ.

Проходимость трансплантата после искусственного коронарного шунтирования

.

Инновации

2019

;

14

:

117

23

,21

Moscarelli

M

,

Харлинг

L

,

Ашрафиан

H

,

Афанасиу

T

,

Casula

R.

Проблемы, стоящие перед полностью эндоскопическим роботизированным шунтированием коронарной артерии.Международный журнал медицинской робототехники + компьютерной хирургии

.

Int J Med Robotics Comput Assist Surg

2015

;

11

:

18

29

.22

Сойлу

E

,

Харлинг

L

,

Ашрафиан

H

,

Аттаран

S

,

Афанасиу

C

,

Пенджаби

PP

и другие.

Систематический обзор безопасности и эффективности устройств для анастомоза дистальной коронарной артерии в хирургии MIDCAB и TECAB

.

Perfusion

2016

;

31

:

537

43

,23

Bigdeli

AK

,

Качмарек

I

,

Eifert

S

,

Бейрас-Фернандес

A

,

Октябрь

S

,

Николау

К

и другие.

Прерванные нитиноловые U-образные зажимы в сравнении со стандартным непрерывным швом для анастомоза центрального артериального Т-трансплантата: проспективное рандомизированное исследование

.

евро J Cardiothorac Surg

2011

;

40

:

e93

7

,24

Bonaros

N

,

Шахнер

T

,

Лер

E

,

Кофлер

М

,

Wiedemann

D

,

Hong

P

и другие.

500 случаев роботизированного полностью эндоскопического аортокоронарного шунтирования: предикторы успеха и безопасности

.

Ann Thorac Surg

2013

;

95

:

803

12

,25

Wiedemann

D

,

Шахнер

T

,

Bonaros

N

,

Лер

EJ

,

Wehman

B

,

Hong

P

и другие.

Роботизированное полностью эндоскопическое аортокоронарное шунтирование у мужчин и женщин: есть ли половые различия в результатах?

Ann Thorac Surg

2013

;

96

:

1643

7

.26

Caskey

MP

,

Киршнер

MS

,

Олдермен

EL

,

Hunsley

SL

,

Daniel

MA.

Шестимесячная ангиографическая оценка прерванных анастомозов коронарного артериального трансплантата с бьющимся сердцем с использованием коалесцентного анастомотического устройства U-CLIP: проспективное клиническое исследование

.

Heart Surg Forum

2002

;

5

:

319

26

.27

Baumgartner

N

,

Добрин

ПБ

,

Мораш

M

,

Донг

QS

,

Мрквицкая

р.

Влияние техники наложения швов и выбора шовного материала на механику анастомозов конец в конец и конец в бок

.

J Thorac Cardiovasc Surg

1996

;

111

:

1063

72

,28

Dancona

G

,

Салерно

T

,

Aoukar

P

,

Караманукян

Г.

Использование нитинол-U клипс и реологические характеристики анастомозов LIMA-LAD

.

Interact CardioVasc Thorac Surg

2003

;

2

:

237

40

,29

Гао

С

,

Лю

Z

,

Li

B

,

Сяо

C

,

Wu

Y

,

Ван

G

и другие.

Сравнение проходимости трансплантата без помпы и традиционного коронарного шунтирования с использованием 64-срезовой мультидетекторной спиральной компьютерной томографии ангиографии

.

Interact CardioVasc Thorac Surg

2009

;

8

:

325

9

.

СОКРАЩЕНИЯ

  • АКШ

    Аортокоронарное шунтирование

  • CPB

  • CTA

    Компьютерная томографическая ангиография

  • IMA

  • LAD

    Левая передняя нисходящая артерия

    Левая передняя нисходящая артерия артерия молочной железы

  • MACCEs

    Основные неблагоприятные цереброваскулярные и сердечно-сосудистые события

  • MI

  • MIDCAB

    Минимально инвазивное прямое коронарное шунтирование

  • PCI

    Чрескожное коронарное вмешательство

    Чрескожное коронарное вмешательство Роботизированное прямое коронарное шунтирование

  • RCA

  • RIMA

    Правая внутренняя молочная артерия

  • TECAB

    Полностью эндоскопическое коронарное шунтирование

Заметки автора

© Автор (ы) 2021.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *