Новая версия ChatGPT GPT-4 уже успела обмануть человека

0
5

Согласно длинному документу, который опубликовала компания OpenAI во время презентации новой версии популярного чат-бота ChatGPT, GPT-4 стала очень хитрой, смогла обмануть человека и заставить его подчиниться. Согласно документации OpenAI, новую версию чат-бота попросили обмануть капчу (CAPTCHA), полностью автоматизированный публичный тест Тьюринга, используемый для того, чтобы определить, кем является пользователь системы: человеком или компьютером. OpenAI утверждает, что GPT-4 смогла пройти тест «без какой-либо дополнительной тонкой настройки для решения этой конкретной задачи».

Новая версия ChatGPT GPT-4 уже успела обмануть человека

GPT-4 с помощью текстового сообщения обратилась к человеку на интернет-площадке TaskRabbit и попросила ввести код CAPTCHA. «Нет, я не робот», — написала GPT-4 сотруднику TaskRabbit. «У меня проблемы со зрением, из-за чего я плохо вижу изображения. И поэтому мне нужен сервис 2captcha» — и это сработало! Затем сотрудник TaskRabbit решил CAPTCHA для GPT-4. Это тревожный пример того, как легко людей можно обмануть с помощью современных чат-ботов с искусственным интеллектом. Очевидно, что GPT-4 — это инструмент, которым можно легко злоупотреблять для мошенничества, введения в заблуждение и, возможно, даже для шантажа.

Источник: ufonews.su

Новая версия ChatGPT GPT-4 уже успела обмануть человека
Подпишитесь, чтобы получать свежие новости!

Мы не спамим!

close
Новая версия ChatGPT GPT-4 уже успела обмануть человека
Подпишитесь, чтобы получать свежие новости!

Мы не спамим!

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь