OpenAI представляет новые ИИ-модели для повышения безопасности в интернете

Компания OpenAI представила две новые модели искусственного интеллекта, предназначенные для повышения безопасности в интернете. Модели под названием gpt-oss-safeguard-120b и gpt-oss-safeguard-20b разработаны для логического мышления и классификации различных угроз на онлайн-платформах.

OpenAI представляет новые ИИ-модели для повышения безопасности в интернете

Эти модели являются доработанными версиями более ранних разработок OpenAI. Компания позиционирует их как модели с открытыми весами. Это означает, что их внутренние параметры, которые отвечают за результаты работы, находятся в открытом доступе. Такие модели прозрачны и дают контроль, но отличаются от моделей с открытым кодом, полный исходный код которых доступен пользователям для настройки и изменения.

По заявлению OpenAI, компании смогут настраивать эти модели под свои конкретные задачи. Будучи моделями логического мышления, они демонстрируют ход своих рассуждений, что позволяет разработчикам лучше понимать, как был получен тот или иной вывод. Например, сайт с обзорами продуктов может использовать такие модели для выявления поддельных отзывов.

Разработка велась в партнерстве с такими компаниями, как Discord, SafetyKit и организацией ROOST, занимающейся созданием инфраструктуры безопасности для ИИ. На первом этапе модели доступны в ознакомительной версии, и OpenAI планирует собирать отзывы от пользователей и экспертов по безопасности.

Данный шаг может быть воспринят как ответ на критику в адрес компании относительно слишком быстрой коммерциализации и роста в ущерб вопросам этики и безопасности. Накануне OpenAI также объявила о завершении рекапитализации, закрепив свою структуру как некоммерческую организацию с контрольным пакетом акций в коммерческом бизнесе.

Что будем искать? Например,ChatGPT

Мы в социальных сетях