Компания Google удалила некоторые из автоматических сводок на основе выводов искусственного интеллекта AI Overviews в ответ на расследование The Guardian, выявившее, что эти обзоры предоставляли ложную и потенциально опасную медицинскую информацию. В частности, речь идет о запросах, связанных с нормальными показателями анализов крови на функции печени.
Google удалила ИИ-запросы о медицине, которые могут навредить пользователям
Расследование показало, что при запросе «какой нормальный диапазон для анализов крови печени» Google предоставлял список чисел без критически важных показателей, таких как пол, возраст и конкретная методика теста. По словам экспертов, то, что алгоритм называл «нормальным», могло значительно отличаться от реальных клинических норм.
После публикации расследования Google удалила AI Overviews для конкретных запросов: «какой нормальный диапазон для анализов крови печени» и «какой нормальный диапазон для функциональных тестов печени». Представитель компании заявил, что «работает над внесением широких улучшений» в случаях, когда сводки упускают контекст.
Ванесса Хебдич из British Liver Trust отметила, что при небольшом изменении запроса, например «ссылoчный диапазон LFT», опасные сводки по-прежнему появляются. Она подчеркнула, что интерпретация печеночных проб — сложный процесс и представление упрощенного списка цифр без предупреждений может нанести реальный вред.
При этом другие проблемные примеры, выявленные The Guardian, включая сводки о раке и психическом здоровье, которые эксперты охарактеризовали как «совершенно неверные» и «действительно опасные», остаются в выдаче. Google в ответ заявил, что эти обзоры ссылаются на авторитетные источники и содержат указания обратиться к экспертам.
К слову, это не первый инцидент, когда ИИ дает ложную информацию в интернет-запросах. Ранее пользователи ChatGPT массово обвиняли библиотекарей, что они скрывают существование некоторых книг. К такому выводу они пришли после «галлюцинаций» ИИ, которые выдавали цитаты из неизвестных статей.
