Все больше путешественников, использующих искусственный интеллект для планирования поездок, сталкиваются с ложной информацией. Такие системы, как ChatGPT, Microsoft Copilot и Google Gemini, часто «галлюцинируют» и придумывают достопримечательности и маршруты, которых не существует. Об этом сообщает Би-би-си.
Би-би-си: ИИ стал чаще отправлять путешественников в несуществующие туры

Одним из ярких примеров стал инцидент в Перу, когда двое туристов отправились искать несуществующий «Священный каньон Умантай» в Андах. Им повезло, поскольку их вовремя остановил местный гид Мигель Анхель Гонгора Меса. «Такого рода дезинформация в Перу просто опасна. Высота, климат и доступность троп должны быть тщательно спланированы. Когда программа комбинирует картинки и названия, создавая фантазию, вы можете оказаться на высоте 4000 метров без кислорода и связи», — рассказал он.
Подобные случаи зафиксированы и в других странах. В Японии пара туристов застряла на вершине горы Мисен после того, как ChatGPT предоставил неверное время закрытия канатной дороги, — путешественники не смогли спуститься до наступления темноты. Еще одно приложение, Layla, на короткое время информировало пользователей о якобы существующей «Эйфелевой башне в Пекине» и предлагало британскому туристу пробежать «марафонский маршрут» через северную Италию, что невозможно в реальности.
Также ранее мы писали о возлюбленных из Испании, которые не смогли отправиться в запланированный отпуск из-за того, что нейросеть неправильно подсказала, какие нужны документы для полета на американский остров Пуэрто-Рико.
Как объясняют специалисты, проблема кроется в принципах работы больших языковых моделей. Профессор машинного обучения Университета Карнеги — Меллона Райид Гани отметил, что искусственный интеллект не обладает знаниями о реальном мире, а лишь создает тексты, опираясь на загруженные данные. «Иногда это приводит к созданию так называемых галлюцинаций — информации, которая звучит правдоподобно, но не соответствует действительности», — сказал он.
По данным глобального опроса 2024 года, около 33% путешественников, использовавших ИИ для планирования поездок, сталкивались с недостоверной информацией. Компания Global Rescue сообщает, что 24% туристов уже активно применяют ИИ-приложения.
Однако эксперты предупреждают, что ложные сведения не единственная угроза. Заместитель директора по безопасности Global Rescue Хардинг Буш отметил, что злоумышленники все чаще используют ИИ и дипфейки для создания поддельных сайтов и приложений, чтобы украсть деньги или данные.