«Лаборатория Касперского» рассказала про помощь ИИ в планировании путешествия
Искусственный интеллект уже вовсю пробует себя в роли турагента: достаточно вбить в чат-бот пару пожеланий — и за пару секунд получишь маршрут по лучшим достопримечательностям, список отелей с хорошими отзывами и даже советы по визам.
А с помощью ИИ-агента можно даже билеты купить, не проверяя сотни раз сайты авиакомпаний и агрегаторов полета. Звучит как мечта любого туриста, но есть нюансы.
Что может пойти не так
Исследование «Лаборатории Касперского» показало, что лишь 28% пользователей ИИ доверяют искусственному интеллекту планирование путешествий. И пока абсолютное большинство (96%) довольны своим опытом. При этом следует помнить, что чат-боты не обладают собственными знаниями, а учатся на текстах и данных, которые в них загружают, — а потом вычисляют наиболее вероятный ответ на вопрос. ИИ может выдать неточную, устаревшую или вообще ложную информацию. Конечно, в некоторых чат-ботах уже прикручена функция поиска в Интернете, но до высокого уровня фактчекинга пока далеко.
В марте 2025 года австралиец Марк Поллард должен был вылететь в Чили, чтобы выступить там с лекцией. Но на стойке регистрации его развернули: оказалось, что для въезда в страну нужна виза. До этого Марк спрашивал у ChatGPT правила въезда в разные страны Латинской Америки — и просчитался, доверившись ИИ. С 2019 года гражданам Австралии нужна виза для посещения Чили, а нейросеть, по всей видимости, этой информации еще не знала. В другом случае ИИ посоветовал журналистке посетить музеи, которые к тому моменту полностью сгорели из-за лесных пожаров.
Иногда на ошибки ИИ ведутся даже профессионалы. В 2024 году работники аэропорта Манилы не хотели пускать пассажирку на рейс в Англию: она гражданка Великобритании, но с собой у нее был только американский паспорт. Вообще-то это никак не препятствует полету в Англию, но работники, как позже выяснилось, поверили некорректной информации из Google AI Overviews. В итоге пришлось звонить в посольство.
Если не хотите, чтобы искусственный интеллект привел вас в закрытый ресторан или к несуществующей достопримечательности, то проверяйте информацию в реальном времени.
Почему не стоит делиться с ИИ персональными данными
Большинство популярных ИИ вроде ChatGPT и Gemini обрабатывают и хранят все запросы, которые им отправляют пользователи. А значит, в случае бага или крупной утечки посторонние люди могут узнать о вас слишком много: даты поездки, подробности перемещений, с кем вы путешествуете и какой у вас бюджет на поездку. Так что делитесь с нейросетью только теми данными, которые вы не против показать всему миру.
Сейчас многие компании также предлагают ИИ-агентов — цифровых помощников, которые умеют автономно выполнять задания по вашему поручению. Например, агента можно попросить забронировать тур и написать коллегам о предстоящем отпуске (пожалуйста, не давайте агентам доступ в рабочие чаты и почту!). Для этого агент либо запускает виртуальную машину, либо захватывает экран вашего компьютера и подключается к сторонним сервисам.
Проблема в том, что так вы рискуете не только «подарить» нейросети свои персональные данные, но и позволить ей самостоятельно совершать нежелательные действия на сайтах. ИИ-агент может запросто повестись на атаки типа prompt injection — скрытые команды, которые злоумышленники специально оставляют на фишинговых страничках и взломанных сайтах. Распознать их самостоятельно — непростая задача: обычно prompt injections внедряют в метаданные или визуальные элементы сайта.
В общем, пока что самый надежный и эффективный способ планирования путешествий — это самостоятельно искать информацию и покупать все необходимое, а ИИ использовать только как вспомогательный инструмент. А чтобы минимизировать риски, связанные с prompt injections, используйте надежное защитное решение, которое предотвратит попытки заразить ваше устройство вредоносным ПО.
Источник: Kaspersky
Image for illustration only. Image source: Freepik.com