OpenAI открыла разработчикам доступ к готовым правилам безопасности для несовершеннолетних. Их можно встроить в любой продукт на базе моделей компании — без создания системы фильтрации с нуля.

Инструмент называется gpt-oss-safeguard. Разработчики могут подключить его к своим проектам и задать модели текстовые инструкции с описанием, как нужно вести себя с пользователями разного возраста. Благодаря этму модель начнет ограничивать определенные типы ответов, если распознает, что с ней общается несовершеннолетний.

Источник: OpenAI Blog

Поделиться ВКонтакте Telegram