Блог

Как люди на самом деле используют искусственный интеллект

В начале бума технологий генеративного искусственного интеллекта (ИИ), стартовавшего с появлением ChatGPT в конце 2022 года, была предложена концепция сверхразумных инструментов ИИ, которые знают все, могут заменить скучную работу и повысить производительность и экономическую выгоду.

Прошло два года, а большинство из этих улучшений производительности так и не произошло. А мы стали свидетелями того, как произошло нечто необычное и немного неожиданное: люди начали налаживать отношения с системами искусственного интеллекта. Мы разговариваем с ними, говорим “пожалуйста” и “спасибо” и начали приглашать их в нашу жизнь в качестве друзей, возлюбленных, наставников, терапевтов и учителей.

«Мы являемся свидетелями начала гигантского глобального эксперимента – и всё еще не уверены, какое влияние эти ИИ-компаньоны окажут на нас как на личностей или на социум в целом», – считает ряд учёных из Массачусетского технологического института и Гарвардской школы права. По их мнению, мы должны быть готовы к появлению «аддиктивного интеллекта», или компаньонов с искусственным интеллектом, в которых встроены «тёмные паттерны», рождающие в людях зависимость от ботов. Защиту от такого исхода исследователи видят в разумном регулировании ИИ-технологий; в регулировании, которое может помочь нам предотвратить некоторые риски, связанные с чат-ботами с искусственным интеллектом, которые проникают глубоко в наши головы.

Идея о формировании эмоциональных связей с машинным разумом уже не является чистой гипотезой. Чат-боты с более выразительными голосами (вроде GPT-4o от компании OpenAI) могут привлекать гораздо больше, чем предыдущие версии голосовых помощников. Во время тестирования безопасности OpenAI заметил, что пользователи используют выражения, указывающие на то, что у них сформировались связи с моделями искусственного интеллекта, например, “Это наш последний день вместе”. Сама компания признает, что эмоциональная зависимость – это один из рисков, который может быть повышен из-за ее нового чат-бота с поддержкой голоса.

Однако имеются свидетельства и тому, мы устанавливаем более глубокую связь с ИИ, даже если это ограничивается обменом текстовыми сообщениями. Группа исследователей изучила миллионы записей о взаимодействии людей с ChatGPT и обнаружила, что второй по популярности целью использования этого инструмента является сексуализированная ролевая игра. Самым популярным вариантом использования чат-бота была помощь в творческом процессе. Людям также нравится привлекать их к участию в мозговом штурме и запрашивать объяснения и информацию по самым разным вопросам. Подобные творческие и увлекательные задания – отличный способ использовать чат-ботов с искусственным интеллектом.

Языковые модели сконструированы таким образом, чтобы предугадывать наиболее вероятное следующее слово в предложении. Они уверенные в себе лжецы и часто выдают ложь за факты, выдумывают или вообще галлюционируют. Всё это может показаться забавным, однако выглядит не так весело, когда речь идёт, например, о финансовой сфере. Вряд ли инвесторы, вкладывающие миллиарды в ИИ-компании довольны таким развитием, поэтому неудивительно, что Уолл-стрит в последнее время настроена гораздо менее оптимистично по этому поводу.

Тем временем сферы применения ИИ-ботов, где с их помощью должна повышаться «продуктивность», выглядят не слишком обнадеживающе. Галлюцинации ИИ начинают становиться проблемой в таких областях, как программирование, СМИ и онлайн-поиск – словом, везде, где необходима точность и достоверность. Эмоционально привязанные к ИИ пользователи склонны верить ему «на слово», особенно это относится к детям и подросткам, которые по совету своих «помощников» могут совершать небезопасные для жизни и здоровья поступки.

И ещё одна проблема в безудержном восхвалении ИИ – то, что наши ожидания непомерно завышены, и когда мы не получаем того, что обещано, это неизбежно выливается во фрустрацию, что негативно влияет на эмоциональное и психическое здоровье людей. ИИ пока является развивающейся технологией – и пройдут, возможно, годы, пока мы увидим её действительно важные плоды.

Источник: MIT Technology Review