Ума матплата: как искусственный интеллект меняет сферу кибербезопасности?

Появление ИИ предсказали еще фантасты XX века. В их версии будущего алгоритмы управляли роботами-гуманоидами, которые обладали развитым сознанием и психикой. Футуристы пытались предугадать, какую угрозу такие андроиды представляют для человечества и как можно существовать в гармонии с ними. Мыслящих роботов так и не появилось (пока), зато искусственный интеллект действительно превратился в мощный инструмент. Разобрались, на что он способен в плохих руках и как себя можно обезопасить.
Редакция «Правил жизни»
Редакция «Правил жизни»
Ума матплата: как искусственный интеллект меняет сферу кибербезопасности?
Василиса Гладышева

Во времена «Основания» и обратно

Шел 1951 год. Молодой американский биохимик, преподаватель Бостонского университета презентовал эпохальную работу — возможно, главную в его карьере. Как ни парадоксально, труд этот оказался не научным, а литературным. Речь, конечно, об Айзеке Азимове и о первом романе культового цикла «Основание».

Сейчас кажется, что выход именно этой книги определил дальнейшую судьбу фантаста — заставил его забросить научную карьеру и сосредоточиться на литературе. Однако на самом деле в США и до публикации «Основания» знали Азимова прежде всего как писателя. К середине прошлого века он уже успел издать целую серию рассказов о машинах, наделенных разумом. Эти вымышленные истории были очень популярны в Соединенных Штатах, что неудивительно: страна тогда переживала бум интереса к технологиям и космосу.

Впрочем, слава Азимова распространилась далеко за пределы Америки и даже вышла за рамки XX столетия. А все потому, что писатель не просто создал запоминающиеся сюжеты — он дал ответы на многие вопросы, которые продолжают мучить человечество до сих пор.

Главный из этих вопросов: как людям мирно и продуктивно сосуществовать с роботами? Только вдумайтесь, фантаст размышлял на эту тему еще до того, как началась массовая компьютеризация. Что уж говорить, о создании человекоподобных машин инженеры тогда могли только мечтать.

Азимов же в сборнике рассказов «Я, робот» попытался предсказать, как будет выглядеть мир будущего с андроидами, у которых есть психика. Причем сделал это писатель с позиции технооптимиста: в роботе он увидел не врага человека, а его помощника.

Но, как известно, чтобы союз людей и машин состоялся, нужно полностью исключить вероятность бунта умных устройств против их создателей. Азимов решил пресечь конфликты на корню и сформулировал три закона робототехники (кстати, само это слово тоже изобретение американского фантаста).

Василиса Гладышева

Итак, первый закон категорически запрещает роботу вредить людям. Второй обязывает его выполнять их команды. А третий диктует делать все необходимое для обеспечения своей безопасности, если это не противоречит двум другим правилам.

Современников писателя законы впечатлили: еще бы — кратко, точно, исчерпывающе. Но дальше больше: тезисы, сформулированные Азимовым, легли в основу этического кодекса ученых, которые имеют дело с умными технологиями. А дискуссии о том, как правильно обращаться с алгоритмами и «мыслящими» гаджетами, захватили весь мир.

Прокачанные атаки

Сегодня отношения человека и машины заботят практически всех — от обычных интернет-пользователей и владельцев малых бизнесов до мировых элит. Искусственный интеллект становится совершеннее с каждым годом, количество устройств с приставкой «смарт» растет с геометрической прогрессией, и это не может не вызывать беспокойства у сторонних наблюдателей. Неизвестно ведь, какие «тараканы» заведутся в микропроцессорах наших электронных братьев меньших.

Однако опасения, что компьютеры или роботы бросят вызов человечеству и вознамерятся отобрать у нас работу, беспочвенны, уверяет главный технологический эксперт «Лаборатории Касперского» Александр Гостев. Он отмечает, что машины все еще не умеют думать так же, как человек. Они лишь генерируют ответы на основе полученных данных. «Все, с чем мы имеем дело сегодня, — это просто хорошо обученные нейросети», — поясняет эксперт.

Одним словом, с ужасом ждать появления могущественного компьютерного сверхразума не стоит. Однако угрозы, пусть и меньших масштабов, исходят от уже существующих моделей искусственного интеллекта. В плохих руках они вполне могут превратиться в опасное и действенное оружие.

Хакеры, например, научились владеть им в совершенстве. С помощью ИИ они стали проводить атаки практически в режиме автопилота. «Раньше злоумышленникам требовалось много времени, чтобы взломать какую-либо систему, поскольку приходилось вручную писать или подбирать специальные коды, которые воспользуются уязвимостями в ПО, и постоянно все перепроверять», — отмечает Александр Гостев. Теперь же эти манипуляции проводит искусственный интеллект, и, надо сказать, справляется он куда быстрее человека. «Когда в течение часа вместо двух попыток взлома осуществляется двести, вероятность успеха значительно повышается», — добавляет эксперт «Лаборатории Касперского».

Вредоносное ПО хакеры тоже начали создавать в тандеме с алгоритмами. Если прежде злоумышленники могли работать над вирусными программами месяцами, то теперь на это уходят считаные недели.

Но это только полбеды. А что, если искусственный интеллект способен взломать не только наши компьютеры, но и наш мозг?

Василиса Гладышева

Ключ к сознанию

В «Основании» Айзека Азимова есть такой герой — Мул. Он обладал колоссальной силой — умел влезать в головы окружающим. В итоге он использовал эту способность против человечества — подчинял своей воле заклятых врагов и эмоционально подавлял армии противников. Чтобы склонить своих жертв к чему-то, Мулу даже не требовались дополнительные инструменты или посредники — мутант перепрошивал сознание телепатически. Все это ради того, чтобы завладеть миром. Вот вам и урок: способный управлять мыслями других может прибегать к этому в корыстных целях.

В нашем мире никаких мулов, конечно, нет, но зато есть технологии, которые способны превратить любого человека в азимовского мутанта-телепата. «Языковые модели уже начинают формировать контекст и задавать тренды, относящиеся к восприятию информации, — говорит Александр Гостев. — Они создают стиль, как визуальный, так и литературный». Это означает, что тот, кто управляет нейросетями, способен формировать паттерны, шаблоны, по которым действуют пользователи. За примером далеко ходить не нужно. Достаточно вспомнить, как весной этого года соцсети заполонили изображения в стиле мультфильмов анимационной студии Ghibli. Интерес к генерации картинок в стиле «уютного аниме» японского режиссера Хаяо Миядзаки возник после того, как компания OpenAI выпустила функцию создания изображений по текстовому описанию на базе новой ИИ-модели GPT-4o. С ее помощью можно было не только генерировать иллюстрации по запросу, но и обрабатывать фото в определенном стиле. В обновленную версию был встроен плагин, который позволял стилизовать изображение именно под мультфильмы студии Ghibli.

С помощью таких трюков действительно можно влиять на вкусы людей и даже формировать нормы общественной морали, предупреждает Александр Гостев. Риск, по его словам, состоит в том, что «никто не знает, кто будет крутить винтики и закладывать новые идеалы».

ИИ vs ИИ

Как справедливо отмечал польский писатель и футуролог Станислав Лем, любая продвинутая технология «имеет аверс пользы и одновременно реверс новых, неизвестных до поры бед». Иными словами, с угрозами, порожденными прогрессом, можно бороться теми же самыми плодами прогресса.

Искусственный интеллект — превосходное тому доказательство. Алгоритмы активно используют не только мошенники, но и специалисты по кибербезопасности. ИИ помогает автоматически обнаруживать и блокировать атаки, распознает тактики и техники злоумышленников, а также помогает айтишникам в повседневной работе.

Например, модуль Kaspersky Investigation and Response Assistant (сокращенно — KIRA), который работает в SIEM-системе «Лаборатории Касперского», интегрирован с нейросетью GigaChat 2.0. Он упрощает задачи аналитиков и позволяет им быстрее видеть и обрабатывать критически важные события.

Одним словом, найти противоядие можно всегда. Главное — искать и черпать знания о новых угрозах. Этим занимаются в «Лаборатории Касперского». Компания постоянно выпускает отчеты на актуальные темы, которые среди прочего содержат рекомендации для тех, кто стремится обезопасить себя и свои данные.

В конце концов, не стоит из-за страхов записываться в ряды противников технологической революции. Просто нужно постоянно повышать свою осведомленность о возможностях новейших технологий и сопряженных с ними рисках.

Реклама. АО «Лаборатория Касперского»