OpenAI открыла разработчикам доступ к готовым правилам безопасности для несовершеннолетних. Их можно встроить в любой продукт на базе моделей компании — без создания системы фильтрации с нуля.
Инструмент называется gpt-oss-safeguard. Разработчики могут подключить его к своим проектам и задать модели текстовые инструкции с описанием, как нужно вести себя с пользователями разного возраста. Благодаря этму модель начнет ограничивать определенные типы ответов, если распознает, что с ней общается несовершеннолетний.
Источник: OpenAI Blog