Новости

«Лаборатория Касперского» рассказала про помощь ИИ в планировании путешествия

Искусственный интеллект уже вовсю пробует себя в роли турагента: достаточно вбить в чат-бот пару пожеланий — и за пару секунд получишь маршрут по лучшим достопримечательностям, список отелей с хорошими отзывами и даже советы по визам.

А с помощью ИИ-агента можно даже билеты купить, не проверяя сотни раз сайты авиакомпаний и агрегаторов полета. Звучит как мечта любого туриста, но есть нюансы.

Что может пойти не так

Исследование «Лаборатории Касперского» показало, что лишь 28% пользователей ИИ доверяют искусственному интеллекту планирование путешествий. И пока абсолютное большинство (96%) довольны своим опытом. При этом следует помнить, что чат-боты не обладают собственными знаниями, а учатся на текстах и данных, которые в них загружают, — а потом вычисляют наиболее вероятный ответ на вопрос. ИИ может выдать неточную, устаревшую или вообще ложную информацию. Конечно, в некоторых чат-ботах уже прикручена функция поиска в Интернете, но до высокого уровня фактчекинга пока далеко.

В марте 2025 года австралиец Марк Поллард должен был вылететь в Чили, чтобы выступить там с лекцией. Но на стойке регистрации его развернули: оказалось, что для въезда в страну нужна виза. До этого Марк спрашивал у ChatGPT правила въезда в разные страны Латинской Америки — и просчитался, доверившись ИИ. С 2019 года гражданам Австралии нужна виза для посещения Чили, а нейросеть, по всей видимости, этой информации еще не знала. В другом случае ИИ посоветовал журналистке посетить музеи, которые к тому моменту полностью сгорели из-за лесных пожаров.

Иногда на ошибки ИИ ведутся даже профессионалы. В 2024 году работники аэропорта Манилы не хотели пускать пассажирку на рейс в Англию: она гражданка Великобритании, но с собой у нее был только американский паспорт. Вообще-то это никак не препятствует полету в Англию, но работники, как позже выяснилось, поверили некорректной информации из Google AI Overviews. В итоге пришлось звонить в посольство.

Если не хотите, чтобы искусственный интеллект привел вас в закрытый ресторан или к несуществующей достопримечательности, то проверяйте информацию в реальном времени.

Почему не стоит делиться с ИИ персональными данными

Большинство популярных ИИ вроде ChatGPT и Gemini обрабатывают и хранят все запросы, которые им отправляют пользователи. А значит, в случае бага или крупной утечки посторонние люди могут узнать о вас слишком много: даты поездки, подробности перемещений, с кем вы путешествуете и какой у вас бюджет на поездку. Так что делитесь с нейросетью только теми данными, которые вы не против показать всему миру.

Сейчас многие компании также предлагают ИИ-агентов — цифровых помощников, которые умеют автономно выполнять задания по вашему поручению. Например, агента можно попросить забронировать тур и написать коллегам о предстоящем отпуске (пожалуйста, не давайте агентам доступ в рабочие чаты и почту!). Для этого агент либо запускает виртуальную машину, либо захватывает экран вашего компьютера и подключается к сторонним сервисам.

Проблема в том, что так вы рискуете не только «подарить» нейросети свои персональные данные, но и позволить ей самостоятельно совершать нежелательные действия на сайтах. ИИ-агент может запросто повестись на атаки типа prompt injection — скрытые команды, которые злоумышленники специально оставляют на фишинговых страничках и взломанных сайтах. Распознать их самостоятельно — непростая задача: обычно prompt injections внедряют в метаданные или визуальные элементы сайта.

В общем, пока что самый надежный и эффективный способ планирования путешествий — это самостоятельно искать информацию и покупать все необходимое, а ИИ использовать только как вспомогательный инструмент. А чтобы минимизировать риски, связанные с prompt injections, используйте надежное защитное решение, которое предотвратит попытки заразить ваше устройство вредоносным ПО.

Источник: Kaspersky

Image for illustration only. Image source: Freepik.com

Приветствуем! 👋
Приятно познакомиться.

Подпишитесь, чтобы получать наш контент.

Мы не спамим! Прочтите нашу политику конфиденциальности, чтобы узнать больше.