Ситуации, когда системы “искусственного интеллекта” выдают неверную информацию, называют галлюцинациями. Они проявляются тем чаще, чем больше “искусственный интеллект” получает обучающей информации, становясь все мощнее, пишет The New York Times.
Нет никаких гарантий, что даже самые мощные ИИ-системы не станут галлюцинировать, говорится в публикации. Самые новые системы рассуждений от таких компаний, как OpenAI, Google и DeepSeek, — приводят не к уменьшению, а к увеличению бреда. В то время как математические навыки “искусственных интеллектов” заметно улучшаются, их умение работать с фактами отсутствует. Теоретики “искусственного интеллекта” не могут дать ответ на вопрос, почему так происходит.
“Искусственный интеллект” основан на сложных математических системах, которые получают знания, анализируя огромные объемы цифровых данных. Они не решают — и не могут решить, что правда, а что ложь. Часто они просто рандомно выдают что-то, похожее на галлюцинациями. В одном из тестов частота галлюцинаций у новых систем искусственного интеллекта достигала 79%, пишет The New York Times.
Эти системы используют математические вероятности, чтобы угадать лучший ответ. Представители технологических компаний отмечают, что системы “искусственного интеллекта” «всегда будут галлюцинировать».
Особенно серьезной проблемой это является для тех, кто использует эту технологию для работы с серьёзными документами, медицинской информацией или конфиденциальными бизнес-данными. Тем кто с такими документами пытается работать с “искусственным интеллектом” приходится тратить много времени, пытаясь выяснить, какие ответы соответствуют действительности, а какие нет, что сводит на нет всю ценность систем ИИ, которые должны автоматизировать работу.
Новейшие системы OpenAI, согласно тестам, галлюцинируют чаще, чем предыдущие. Компания обнаружила, что o3 — ее самая мощная система — галлюцинировала в 33% случаев при выполнении эталонного теста PersonQA, который предполагает ответы на вопросы о публичных личностях. Это более чем в два раза превышает частоту галлюцинаций предыдущей системы рассуждений OpenAI под названием o1. Новая o4-mini галлюцинировала с еще большей частотой: 48%. При выполнении другого теста под названием SimpleQA, в котором задаются более общие вопросы, уровень галлюцинаций для o3 и o4-mini составил 51% и 79%. Предыдущая система, o1, галлюцинировала в 44% случаев.
В документе с подробным описанием тестов OpenAI заявила, что необходимо провести дополнительные исследования, чтобы понять причину таких результатов. Поскольку системы A.I. учатся на большем количестве данных, чем люди могут себе представить, технологам сложно определить, почему они так себя ведут.
Тесты, проведенные независимыми компаниями и исследователями, показывают, что частота галлюцинаций растет и у моделей Google и DeepSeek.
В течение многих лет технологические компании полагались на простую концепцию: чем больше данных из Интернета они передавали в свои системы искусственного интеллекта, тем лучше те работали. Но они использовали практически весь английский текст в Интернете, а значит, им нужен был новый способ улучшить своих чат-ботов. Поэтому компании стали все больше полагаться на метод, который ученые называют обучением с подкреплением. С помощью этого процесса система может учиться поведению методом проб и ошибок. В некоторых областях, таких как математика и компьютерное программирование, этот метод работает хорошо. Но в других областях он дает сбои, так как при обучении эти системы начинают концентрироваться на одной задаче и забывать о других, отмечает Лаура Перес-Белтрачини, исследовательница из Эдинбургского университета, которая изучает проблему галлюцинаций.
Другая проблема заключается в том, что модели рассуждений предназначены для того, чтобы потратить время на «обдумывание» сложных проблем, прежде чем прийти к какому-то ответу. Когда они пытаются решить проблему шаг за шагом, они рискуют ошибиться на каждом шагу. Ошибки могут усугубляться по мере того, как они тратят все больше времени на размышления. Новейшие боты показывают пользователям каждый шаг, что означает, что пользователи тоже могут увидеть каждую ошибку. Исследователи также обнаружили, что во многих случаях шаги, отображаемые ботом, не связаны с ответом, который он в итоге выдает.
=
“Искусственный интеллект”, как инструмент, применим там, где его галлюцинации не отличимы от галлюцинаций обычных авторов. Он может, комбинируя работы имеющиеся в интернете, писать “новые” подобные же работы по математике, создавать произведения литературы, шедевры киноиндустрии, астрофизики и квантовой механики, создавать дипфейки, руководства по психологии и астрологии…