Американская компания OpenAI, создавшая ChatGPT, сокращает время и ресурсы на проверку безопасности новых ИИ-моделей, пишет Financial Times со ссылкой на инсайдеров. Эксперты опасаются, что погоня за лидерством на рынке заставляет компанию ускорять выпуск продуктов, увеличивая риски злоупотребления технологией.
Раньше тестирование занимало до полугода — например, GPT-4 проверяли 6 месяцев перед релизом в 2023 году. Сейчас же сотрудникам и независимым экспертам дают всего несколько дней на оценку рисков новых моделей, таких как ожидаемая o3. Некоторые тестировщики получили на проверку меньше недели, что снижает качество анализа угроз.
Главная причина ускорения — давление со стороны конкурентов: Meta (запрещена в России), Google и стартапов вроде xAI Илона Маска. Пока единых стандартов безопасности для ИИ нет, но с конца 2025 года в ЕС вступит закон, обязывающий тестировать мощные модели.
«Нет никаких законов, обязывающих (компании) информировать общественность обо всех пугающих возможностях… также они (компании) находятся под большим давлением, заставляющим их соревноваться друг с другом, поэтому они не собираются прекращать совершенствовать свои возможности».
Дэниел Кокотайло, бывший разработчик OpenAI
В апреле 2024 OpenAI и другие компании подписали добровольные соглашения с США и Великобританией, разрешающие проверки их ИИ. Однако текущие темпы разработки вызывают вопросы: сможет ли компания вовремя выявлять опасные сценарии использования своих технологий.