Генерация спорна: обратная сторона чат-ботов

Нейросети — естественное продолжение современного человека. Их используют для работы, учебы, занятий спортом, а иногда даже для проработки детских травм. Порой мы доверяем ИИ-ботам самые сокровенные тайны — главное, чтобы они не оказались коммерческими. Разобрались, чем пристрастие или излишнее доверие к новейшим технологиям может обернуться для бизнеса.
Редакция «Правил жизни»
Редакция «Правил жизни»
Генерация спорна: обратная сторона чат-ботов
Василиса Гладышева

Письма против ИИ

В марте 2023 года группа из тысячи ученых и бизнесменов написала открытое письмо, адресованное ИИ-разработчикам и политикам со всего мира. Первых призвали взять паузу в работе над новыми поколениями нейросетей, а вторых — вмешаться, если создатели AI-моделей не прислушаются к просьбе. Среди тех, кто подписался под этим посланием, были глава SpaceX, Tesla и X Илон Маск и сооснователь Apple Стив Возняк. Они предупредили: системы с искусственным интеллектом, похожим на человеческий, могут быть опасными для общества.

Предостережение прозвучало в тот момент, когда американская компания OpenAI представила новую версию всем известного ChatGPT. Разработчики тогда заявили: модель, на базе которой работает многозадачный чат-бот, «демонстрирует производительность на уровне человека в различных профессиональных и академических тестах».

На фоне этих новостей составители открытого письма задались вопросами: «Должны ли мы позволять машинам наводнять наше информационное пространство пропагандой? Должны ли мы полностью автоматизировать сферу производства товаров и услуг? Должны ли мы развивать искусственный интеллект, если машины в итоге могут сначала перехитрить человека, а потом заменить его и сделать ненужным? Должны ли мы рисковать потерей контроля над нашей цивилизацией?»

Вердикт был следующим: мощные системы искусственного интеллекта следует разрабатывать только тогда, когда человек будет уверен, что их эффекты будут положительными, а риски — управляемыми.

Этот эпизод — не отрывок из киберпанк-романа и не сцена из фантастического фильма, а осязаемая действительность наших дней. Он вполне наглядно демонстрирует: квантовый скачок, который человечество сделало в развитии технологий за последние десятилетия, привел к тому, что вопросами, которые еще недавно фантасты вкладывали в уста вымышленных героев, сегодня всерьез задаются реальные люди.

События последних лет показали: попытки поставить на паузу развитие нейросетей не возымели эффекта. Инструменты, построенные на базе искусственного интеллекта, уже используют в атаках, направленных на разные объекты — от государственной инфраструктуры и крупного бизнеса до домашних компьютеров.

Василиса Гладышева

Письма от ИИ

В отчете Signicat «Борьба с мошенничеством с использованием ИИ» за 2024 год утверждается, что мошенничество с использованием нейросетей в настоящее время составляет 42,5% всех выявленных попыток фрода в финансовом и платежном секторах. При этом почти треть этих попыток считаются успешными.

От атак с использованием нейросетей не защищен никто. Так, в мае этого года Федеральное бюро расследований США рассказало, что хакеры активно применяют нейросетевые технологии, чтобы проникнуть в цифровую инфраструктуру американских чиновников. Как пояснили в ФБР, схема состоит в следующем: злоумышленники рассылают чиновникам сгенерированные нейросетями аудиосообщения, имитирующие голоса коллег, с целью установить контакт и проникнуть в их учетные записи. Такие «взломы» чреваты утечками чувствительной информации и могут поставить под угрозу безопасность целых ведомств, предупредили тогда в ведомстве.

Не прошло и двух месяцев, как газета The Washington Post со ссылкой на источник сообщила о реальном случае такого рода мошенничества. Как поведало издание, злоумышленник попытался выдать себя за госсекретаря США Марко Рубио, предположительно, «с целью получения доступа к информации или счетам». Для этого мошенник сгенерировал с помощью нейросетей голосовые и текстовые сообщения, которые позднее разослал американским и иностранным дипломатам и политикам через подставную учетную запись в приложении для обмена сообщениями Signal.

Эти примеры — лишь капля в море киберпреступлений, которые ежесекундно совершаются в разных частях земного шара. Однако они довольно ярко демонстрируют тщетность попыток ученых и бизнес-сообщества взломать законы физики, напоминая: как невозможно остановить разогнавшийся до высоких скоростей автомобиль, так же невозможно притормозить развитие технологий — в особенности генеративного искусственного интеллекта, глобальные инвестиции в который за один 2024 год выросли вдвое, почти достигнув $60 млрд.

Как утверждает главный технологический эксперт «Лаборатории Касперского» Александр Гостев, опасения относительно киберугроз, связанных с машинным обучением, обусловлены комбинацией факторов, среди которых новизна технологий и фундаментальные сложности их контроля. Многие просто не успевают адаптироваться к скорости развития нейросетей. Например, 35% малых предприятий считают свою устойчивость к кибератакам недостаточной, а дефицит квалифицированных кадров в кибербезе постоянно растет.

В ситуации, когда остановить прогресс возможности нет, единственное, что остается человеку, — стараться идти с ним в ногу, насколько это возможно, уверены в «Лаборатории Касперского». В сфере кибербезопасности это возможно, если вовремя реагировать на существующие угрозы и прогнозировать возможные.

В «Лаборатории Касперского» призывают не забывать, что в текущих реалиях бдительность требуется всем, но некоторые сегменты бизнеса наиболее уязвимы. Мишенями хакеров особенно часто становятся компании, которые имеют доступ к чувствительным данным широкого круга людей. В их числе госсектор, банки и страховые сервисы, а также компании из сферы e-commerce.

Василиса Гладышева

Без лишней откровенности

Избежать ситуаций, в которых нейросети могут сыграть с компанией злую шутку, можно посредством внедрения стандартных корпоративных практик, рассказывают в «Лаборатории Касперского». Специалисты рекомендуют проводить тренинги по информационной безопасности, на которых сотрудники научатся идентифицировать угрозы с применением ИИ-технологий, оценивать риски и устранять уязвимости.

Впрочем, чтобы эффективность таких курсов была максимальной, нужно заинтересовать работников, завоевать их внимание и предельно доходчиво объяснить принципы взаимодействия с искусственным интеллектом. Скучные статьи вряд ли помогут сотрудникам развить правильные навыки работы с ИИ, а вот увлекательные уроки с практическими заданиями и примерами из реальной жизни точно будут полезными. Пройти такие тренинги можно, к примеру, на онлайн-платформе Kaspersky ASAP. Причем назначить занятия лучше для всех без исключения менеджеров и специалистов, ведь нейросети сейчас используются повсеместно.

По словам Александра Гостева, такие ликбезы — одна из самых эффективных практик, поскольку зачастую именно человеческий фактор создает белые пятна в системе безопасности организации. Например, если сотрудникам вовремя не объяснить, чем чреват ввод корпоративных данных в ChatGPT, можно столкнуться с утечками конфиденциальной информации и их последствиями, которые могут стать губительными для репутации компании.

Сегодня мало кто задумывается, как хакеры могут использовать полученные из закрытых баз данные. А между тем эта тема — одна из наиболее чувствительных в контексте обеспечения кибербезопасности при работе с системами на базе машинного обучения, подчеркивает эксперт. Прежде всего потому, что последствия утечек по природе своей плохо контролируются. Кому в руки могут попасть утерянные данные, спрогнозировать практически невозможно. Если ими завладеют беспринципные конкуренты или опасные преступники, масштаб последствий может быть сокрушительным.

Реклама. АО «Лаборатория Касперского»