2 часа назад
В MIT научили ИИ предупреждать о галлюцинациях


Рассуждающие модели ИИ отвечают одинаково уверенно и тогда, когда действительно знают ответ, и тогда, когда просто угадывают. Исследователи из MIT CSAIL утверждают, что нашли корень проблемы и предложили метод ее исправить без потери точности. В конце апреля работу Beyond Binary Rewards: Training LMs to Reason About Their Uncertainty представят на ICLR.
Команда сравнивает поведение современных рассуждающих моделей с "самым громким голосом в комнате": модель говорит, что уверена на 95%, но оказывается права лишь в половине случаев. По словам авторов, такая платформа опаснее модели, которая просто ошибается: у пользователя нет повода усомниться в ответе и поискать второе мнение. В медицине, праве и финансах это особенно критично.
Ресурс проблемы оказался в самой функции награды стандартного RL, которым обучают современные reasoning-модели. Она бинарная: оценивает только правильность финального ответа. Угадывание монеткой и аккуратное рассуждение зарабатывают одинаковую награду, если ответ верен. А воздержание от ответа и неправильный ответ оцениваются одинаково — модели выгоднее всегда что-то отвечать, чем признать неуверенность. Со временем она усваивает простую стратегию — отвечать с непоколебимой уверенностью на все подряд. "Стандартный решение к обучению прост и эффективен, но не дает модели стимула выражать неуверенность или говорить “не знаю", — объясняет соавтор работы Мехул Дамани, аспирант MIT.
Подход, которое команда назвала RLCR — Reinforcement Learning with Calibration Rewards, — добавляет к функции награды еще один элемент: метрику Брайера (Brier score). Это классическая показатель, которая штрафует за разрыв между заявленной уверенностью и фактической точностью. В итоге модель учится не только решать задачу, но и оценивать собственную уверенность в ответе. Уверенно неправильные ответы наказываются. Неуверенно правильные — тоже. Авторы математически доказали, что такая структура награды даёт возможность одновременно сохранять точность и улучшать калибровку.
Способ проверили на модели с 7 млрд параметров и шести наборах данных, которых она не видела при обучении. RLCR сократил ошибку калибровки максимум на 90 процентов — без потери точности как на знакомых, так и на новых задачах. Отдельная важная находка: обычное обучение с подкреплением для reasoning-моделей не нейтрально к калибровке, а ухудшает ее относительно базовой моделью. "Удивительно, что обычное RL-обучение не просто не помогает калибровке. Оно ей активно вредит. Модели становятся способнее и одновременно более самонадеянными", — говорит соавтор Иша Пури.
Самооценка уверенности оказалась полезной и на этапе вывода. Если генерировать несколько ответов и выбирать тот, в котором модель уверена сильнее, или учитывать уверенность при голосовании большинства, точность растет наряду с увеличением вычислительных ресурсов. Еще один итог: рассуждения модели о собственной неуверенности несут полезную информацию, а не служат украшением. Если добавить такую цепочку рассуждений на вход отдельному классификатору, он работает лучше — особенно в случае небольших моделей.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.
Читают сейчас

13 минут назад
Руководитель Google Cloud: практически все крупные студии уже применяют ИИ в разработке игр, но не рассказывают об этом
Практически каждая ведущая студия уже применяет искусственный интеллект, чтобы ускорить разработку видеоигр и снизить расходы на это, объявил глава игрового направления Google Cloud Джек Бузер. Однако

19 минут назад
В Корее арестовали мужчину, который сгенерировал ИИ-картинку сбежавшего из зоопарка волка и затормозил поиски
В Корее арестовали мужчину, который сгенерировал ИИ-изображение сбежавшего из зоопарка волка и пустил поисковую операцию по ложному следу. Ему грозит до пяти лет тюрьмы. Волк по имени Ныкку сбежал из

32 минуты назад
ИИ перебрал 46 млрд молекул и антибиотик-кандидат против устойчивого стафилококка
В Molecular Systems Biology опубликована работа о SyntheMol-RL — системе на базе ИИ, которая проектирует молекулы-кандидаты для новых антибиотиков. В исследовании схема работала с химическим пространс

33 минуты назад
ИИ-агенты уже торгуются за нас, а мы даже не замечаем разницы: исследование Anthropic
Компания Anthropic провела необычный эксперимент под названием Project Deal – в декабре 2025 года 69 сотрудников офиса в Сан-Франциско на неделю стали участниками закрытой онлайн-барахолки (аналог Cra

1 час назад
В Steam появились ещё два коллекционера с 40 000+ игр в библиотеках
Число коллекционеров Steam с билиотекой в более 40 тыс. игр пополнилось: к Sonix присоединились игроки Ian Brandon Anderson (41 090) и Axtor (40 553). Согласно последним сведениям SteamDB, как минимум