Блог

Искусственный интеллект на службе у киберкриминала

(по материалам сайта arstechnica.com)

По мнению британских исследователей из Национального центра кибербезопасности (NCSC), использование преступниками инструментов искусственного интеллекта (ИИ) с большой вероятностью увеличит количество киберугроз и усилит наносимый ими ущерб.

Считается, что самой значимой угрозой в ближайшие несколько лет станут вирусы-вымогатели. Применение инструментов ИИ способно существенно понизить порог вхождения в эту преступную деятельность, что неизбежно повлечёт за собой увеличение числа её последователей. Однако, в первую очередь выгоду от использования ИИ получат опытные профессиональные киберпреступники и их сообщества, получающие новые эффективные возможности обнаружения уязвимостей и способы обхода традиционных средств защиты информации.

«Нарождающееся использование ИИ в кибератаках – явление эволюционное, а не революционное; это значит, что оно увеличит существующие риски вроде кибервымогательства, но не изменит ландшафт угроз в ближайшее время», – считают эксперты NCSC. Шансы того, что ИИ усилит мощность и эффективность кибератак, описываются как «почти достоверные» (almost certain), а это высочайшая оценка достоверности в терминах государственной безопасности.

Достойны упоминания и другие «почти достоверные» прогнозы, а именно: 

  • ИИ улучшит возможности коммерческого шпионажа и социальной инженерии, сделав их более эффективными и хуже обнаруживаемыми;
  • с помощью ИИ злоумышленники станут быстрее и эффективнее анализировать утекшие государственные и персональные данные, а также обучать на них ИИ-модели;
  • благодаря появившимся новым возможностям разовьётся процесс коммерциализации услуг профессиональных хакеров и других финансово мотивированных киберпреступников;
  • тренд на использование ИИ для киберпреступлений сохранится в ближайшем обозримом будущем.

При этом сферой наиболее распространённого преступного воздействия посредством ИИ станет социальная инженерия, где основными выгодоприобретателями станут менее опытные злоумышленники. «Генеративный ИИ уже сейчас может использоваться для убедительного общения с потенциальными жертвами, включая создание документов без грамматических или орфографических ошибок, которые часто являются признаком фишинга. С развитием ИИ-обученных моделей эти возможности, скорее всего, расширятся ещё больше».

Эксперты прогнозируют, что к 2025 году применение генеративного ИИ вкупе с большими моделями глубокого обучения (Deep Learning) существенно осложнит различие между настоящими и подменными электронными письмами или запросами на смену пароля; создаст препятствия для корректной идентификации фишинга, подмены или провокации с помощью средств социальной инженерии, в независимости от того, какого уровня компетенциями в области кибербезопасности владеет потенциальная жертва.