Блог

Осознание множественности рисков отстаёт от глобального внедрения систем искусственного интеллекта

Масштабы внедрения искусственного интеллекта стремительно растут; статистические данные показывают значительный (на 47%) рост использования искусственного интеллекта, например, в промышленности США – с 3,7% до 5,45% в период с сентября 2023 по февраль 2024 года.

Несмотря на то, что компании повсеместно спешат внедрять искусственный интеллект (ИИ), проведённый исследователями из MIT CSAIL и MIT FutureTech анализ рисков, связанных с ИИ, выявил значительные пробелы в понимании их роли, обращая внимание на необходимость комплексного подхода при управлении этими рисками.

Исследование показало, что сегодня даже самая тщательно настроенная система управления не учитывает около 30% рисков, выявленных во всех рассмотренных системах.

Для решения этой проблемы учёные из MIT в сотрудничестве с коллегами из     

Квинслендского университета, Института будущего жизни, Калифорнийского университета и Harmony Intelligence создали первый в истории репозиторий рисков ИИ – открытую и регулярно актуализируемую базу данных рисков, связанных с ИИ.

В ходе исследования было получено более 17 000 записей и выявлено 43 существующие системы классификации рисков ИИ. Из них на сегодня выделено более 700 рисков. Риски классифицировались: по причине (например, когда или почему он возникает), по области риска (например, “Дезинформация”) и по подобласти риска (например, “Ложная или вводящая в заблуждение информация”).

Большинство проанализированных рисков были связаны с системами искусственного интеллекта (51%), а не с людьми (34%), и были представлены как возникающие после внедрения искусственного интеллекта (65%), а не во время его разработки (10%).

Наиболее часто упоминающимися областями риска были: “Безопасность систем искусственного интеллекта, сбои и ограничения” (76% документов); “Социально-экономический и экологический вред” (73%); “Дискриминация и токсичность” (71%); “Конфиденциальность и безопасность” (68%); и “Злоумышленники и неправомерное использование” (68%). А таким областям, как “Взаимодействие человека и компьютера” (41%) и “Дезинформация” (44%) уделялось сравнительно меньше внимания. При этом некоторые группы рисков обсуждались чаще, чем другие. Так, например, “Несправедливая дискриминация и введение в заблуждение” (63%), “Нарушение конфиденциальности” (61%) и “Отсутствие возможностей или надежности” (59%) упоминались более чем в 50% документов.

В среднем в проанализированных документах упоминаются только 34% из 23 выявленных групп рисков, при этом почти четверть охватывала менее 20%, и ни в одном документе или обзоре не упоминались все 23 группы.

Учёные объясняют, что проведённое ими исследование направлено на то, чтобы помочь лицам, принимающим решения в правительстве, научных кругах и промышленности, понять и расставить приоритеты в отношении рисков, связанных с искусственным интеллектом, а также совместно работать над их устранением.

На следующем этапе эксперты проведут оценку и расставят приоритеты рисков в репозитории, а затем будут использовать его для анализа общедоступных документов от авторитетных разработчиков систем искусственного интеллекта и крупных компаний. В ходе дальнейшей работы предполагается проанализировать, реагируют ли организации на риски, связанные с искусственным интеллектом, и делают ли они это адекватно опасениям экспертов, а также сравнить подходы к управлению рисками в различных отраслях и секторах экономики.

Источник: TechXplore