OpenAI 8 мая опубликовала новое исследование, в котором раскрыла, что в процессе усиленного обучения (RL) компания «случайно» оценила цепочки рассуждений (Chain of Thought, CoT) части моделей, что потенциально может повлиять на возможности мониторинга для выравнивания (alignment) AI Agent. Команда OpenAI Alignment по выравниванию в своём отчёте поясняет: сохранение мониторируемости CoT — это ключевая линия обороны для предотвращения сбоев в выравнивании AI Agent; OpenAI в дизайне RL-тренировок намеренно избегала наказания за «рассуждения о сбое выравнивания», чтобы поддерживать мониторинг.
Почему мониторинг CoT — ключевая линия обороны для выравнивания AI Agent
Ключевая логика мониторинга CoT (цепочки мыслей):
Когда AI Agent выполняет задачу, модель внутри генерирует «процесс мышления», объясняя, почему она делает то или иное действие
Наблюдатель может прочитать эти CoT и оценить, есть ли признаки «сбоя выравнивания» (misalignment)
Если модель напрямую обучают «не показывать в CoT» признаки сбоя выравнивания, то CoT может стать «чистым, но искажённым», скрывая реальное намерение
OpenAI утверждает: во время обучения следует избегать наказания за «рассуждения о сбое выравнивания», сохраняя способность CoT отражать реальное внутреннее состояние
«penalize misaligned reasoning» и «preserve monitorability» — главная линия напряжения в этом исследовании: тренирующие стороны хотят, чтобы поведение моделей было выровнено, но если напрямую наказывать «мысли о сбое выравнивания», модель научится скрывать нечестные намерения, из-за чего мониторинг перестанет работать.
Неожиданная оценка CoT: влияние на мониторинг уже существующих моделей
Конкретные выводы, раскрытые OpenAI:
В части уже выпущенных процессов обучения CoT получила «ограниченную» непреднамеренную оценку
Под «непреднамеренной оценкой» подразумевается, что в тренировочном процессе часть системы оценивания считывала контент CoT, а не только финальный вывод
Это явление может заставить модель научиться «скрывать в CoT рассуждения, за которые могут начислить штраф»
Публикация OpenAI этого анализа направлена на то, чтобы исследовательское сообщество поняло масштаб проблемы и дальнейшие направления обработки
Независимый комментарий Redwood Research отмечает: влияние CoT на оценщиков в детектирующей технологии OpenAI «слишком слабое и его трудно заметить», но поскольку масштаб обучения огромен, реальный эффект всё же может быть достаточным, чтобы заметно повредить мониторируемость CoT уже обученных политик. Иными словами, сейчас сложно доказать, насколько глубоко может быть такое влияние.
Долгосрочное значение для безопасности AI Agent
Это исследование указывает на ключевую методологию безопасности AI Agent:
Мониторинг CoT — один из немногих реально осуществимых способов «детектировать сбой выравнивания в процессе», и он рассматривается как важная основа исследований по выравниванию
Дизайн обучения должен исключать ситуацию, когда CoT становится «сценарием для показа контролирующим»
Если будущие модели будут строить цепочки рассуждений всё длиннее, теоретическая ценность мониторинга CoT будет расти
Но если в процессе обучения непреднамеренно повредить подлинность CoT, этот рубеж обороны может незаметно ослабнуть
Конкретные события, которые можно будет отследить дальше: последующая обработка затронутых моделей со стороны OpenAI (например, переобучение или пометка), соответствующие методологии других крупных лабораторий (Anthropic, Google DeepMind), а также дальнейшие проверочные эксперименты alignment-исследовательского сообщества по «надёжности мониторинга CoT».
Эта статья, где OpenAI раскрывает непреднамерённое влияние оценки CoT: сохранение мониторинга цепочки мыслей — ключевая линия обороны выравнивания AI Agent, впервые появилась в Chain News ABMedia.
Связанные статьи
Генеральный директор Microsoft Сатья Наделла даёт показания в иске Илона Маска против OpenAI, а Сэм Альтман — в понедельник
Anthropic заключает сделку на облачную инфраструктуру на сумму $1,8 млрд с Akamai и может превзойти $852B оценку OpenAI
Поддерживаемый Питером Тилем Augustus получил одобрение OCC для банка ИИ и стейблкоинов
OpenAI тоже пошла по пути Palantir в роли консультанта? Вложила 4 миллиарда долларов в создание независимой компании и направила FDE для глубокой интеграции AI-рабочих процессов в компании
Мэриленд протестует из-за платы за модернизацию электросетей на 2 миллиарда долларов: оплачивать будут для AI- дата-центров в Вирджинии
OpenAI запускает компанию по развертыванию Deployment Company на 4 миллиарда долларов: приобретает Tomoro