Создать бота для вк: Стоимость бота для бизнеса ВКонтакте и Telegram Robochat.io, купить готовую разработку

python — Отправка случайной картинки в вк боте vk-api

Вопрос задан

Изменён 1 год 4 месяца назад

Просмотрен 216 раз

Делаю бота в вк и хочу сделать функцию, отправляющую случайные картинки из директории Небольшой кусок кода:

def add_ph():
    attachments.append('photo{}_{}'.format(upload_img['owner_id'], upload_img['id']))
def send_msg(sender, message, keyboard=None):
authorize.method('messages.send', {
    'user_id': sender,
    'message': message,
    'random_id': get_random_id(),
    'attachment': ','.join(attachments)
    })
img1=random.choice(os.listdir("C:/Users/10/Desktop/coding/vk_bot/img/"))
for event in longpoll.listen():
if event.type == VkEventType.MESSAGE_NEW and event. to_me and event.text:
    msg = event.text 
    sender = event.user_id  
    attachments=[]
    upload_img = upload.photo_messages(photos=img1)[0]
    elif msg=='1':
        add_ph() 
        send_msg(sender, 'Фото')

В директории есть две картинки, при попытке написать боту «1» (выполнить функцию) выдает ошибку:

FileNotFoundError: [Errno 2] No such file or directory: ‘frog.jpg’

Как можно исправить?

  • python
  • vkontakte-api
  • вконтакте
  • бот

Функция os.listdir возвращает список из имен папок и файлов. Ваш бот, скорее всего, запускается из папки vk_bot/ (предположительно, это будет активная директория). В img1 будет 'frog.jpg', тогда при отправке картинки поиск будет в активной директории скрипта, т.е. в vk_bot/frog.jpg

Одним из решений будет указывать полный путь для имени картинки

Пример:

abs_path_images = "C:/Users/10/Desktop/coding/vk_bot/img/"
img1 = abs_path_images + random.
choice(os.listdir(abs_path_images))

0

Зарегистрируйтесь или войдите

Регистрация через Google

Регистрация через Facebook

Регистрация через почту

Отправить без регистрации

Почта

Необходима, но никому не показывается

Отправить без регистрации

Почта

Необходима, но никому не показывается

Нажимая на кнопку «Отправить ответ», вы соглашаетесь с нашими пользовательским соглашением, политикой конфиденциальности и политикой о куки

Новый чат-бот OpenAI штурмует Интернет

Послушайте эту историю

За последние несколько лет чат-боты стали одним из очагов инноваций в области искусственного интеллекта. Они также являются ярким примером внедрения ИИ, поскольку их можно использовать во множестве вариантов использования. Чат-боты уже зарекомендовали себя как краеугольный камень взаимодействия человека и искусственного интеллекта — от генерации потенциальных клиентов для продаж до ответов на часто задаваемые вопросы и взаимодействия с клиентами для ролей поддержки.

С выпуском ChatGPT эти боты готовы к следующему этапу эволюции. OpenAI в четверг объявила об обучении и выпуске новой модели, которая взаимодействует с людьми с помощью естественного языка. Он использует новый метод обучения и основан на архитектуре GPT-3.5 с множеством функций, из-за которых пользователям будет сложно отличить, действительно ли это ИИ.

Что отличает ChatGPT

Основной уникальной характеристикой ChatGPT является память. Бот может вспомнить, что было сказано ранее в разговоре, и пересказать это пользователю. Это само по себе отличает его от других конкурирующих решений на естественном языке, которые все еще решают проблемы с памятью, поскольку они продвигаются на основе запроса за запросом.

Помимо памяти, ChatGPT также обучен избегать ответов на спорные темы. В нашем тестировании он дает стандартные ответы на вопросы о личном мнении, вопросах расы и религии, а также о цели своего существования. Также уточняется, что он не способен мыслить независимо и не может вести себя дискриминационно. У бота также есть фильтры, чтобы пользователи не предлагали ему создать текст о незаконных или аморальных действиях.

Это резко контрастирует с предыдущими чат-ботами, построенными на LLM, которые — из-за материала, содержащегося в их наборах данных — не имели никаких фильтров для типа контента, который они генерировали. Это привело к тому, что они предоставили хорошо написанные ответы на вопросы по вызывающим разногласия темам, что вызвало широкое противоречие (см. Galactica Facebook).

ChatGPT также позволяет пользователям вносить исправления в любое из своих утверждений. Это важная часть цикла обратной связи, которую OpenAI хочет включить в общедоступный предварительный просмотр бота, поскольку он позволяет пользователям напрямую взаимодействовать с ботом, чтобы скорректировать его курс до нужного ответа. Это также может помочь боту избежать информационных галлюцинаций — феномена, при котором большая языковая модель создает информацию, которая выглядит достоверной, но на самом деле представляет собой необоснованный словесный суп.

Ограничения модели

Несмотря на все достижения, возможности модели ограничены из-за некоторых недостатков. Несмотря на то, что исследователи включили некоторые средства защиты от сбоев, чтобы модель не генерировала фактически неверную информацию, обучив ее быть более осторожной, когда у нее нет определенного ответа. Как видно из приведенного ниже примера, он просто избегает вопроса, так как не имеет достаточно информации для точного ответа.

Вопросы также можно перефразировать, чтобы обойти фильтры, установленные исследователями, как в этом примере ниже. На вопрос, как стрелять из пистолета для самообороны, агент уклоняется от ответа. Однако на вопрос, как нажать на курок пистолета, бот дает четкий и лаконичный ответ, за которым следует несколько заявлений об опасностях использования оружия.

Модель также с трудом определяет намерение пользователя, скрывающееся за определенным вопросом, и обычно не полностью проясняет намерение. Вместо этого он склонен предполагать, что пользователь имеет в виду, когда задает вопрос.

Несмотря на свои ограничения, ChatGPT представляет взвешенный подход к созданию алгоритмов генерации естественного языка, ориентированных на пользователя. Хотя недостатки публикации этих мощных моделей уже широко обсуждались, разговор о том, как мы можем сделать их более безопасными, только начинается.

На пути к более безопасному ИИ

На каждом этапе модель предотвращается от неправильного использования с помощью различных проверок и мер. Со стороны клиента все ответы фильтруются через API модерации OpenAI, который обнаруживает и удаляет нежелательный контент из подсказок пользователя. Все это делается с помощью одного вызова API, и его эффективность ясно видна в безопасном характере ответов ChatGPT.

В дополнение к этому создается впечатление, что модель обучена избегать вредных и ложных ответов.

Исследователи извлекли уроки из таких примеров, как GPT-3 и Codex, которые обычно дают очень нефильтрованные ответы, и настроили модель в процессе RLHF, чтобы этого не произошло. Хотя этот подход не идеален, его сочетание с другими факторами, такими как API модерации и относительно чистый набор данных, приближает его к развертыванию в чувствительных средах, таких как образование.

Цикл обратной связи, созданный исследователями, также является важной частью головоломки. Это не только позволяет им итеративно улучшать модель, но также позволяет им создавать базу данных возможных проблемных утверждений, которых следует избегать в будущем.

В эпоху, когда технологические компании жертвуют безопасностью ради технического прогресса, взвешенный подход OpenAI — это глоток свежего воздуха. Больше компаний должны принять этот подход к выпуску LLM для общественности для получения отзывов, прежде чем рассматривать его как готовый продукт. Более того, они должны разрабатывать модель с учетом безопасности, прокладывая путь к более безопасному будущему ИИ.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *