В Бразилии приняли закон, который сгенерирован ChatGPT

Городские законодатели в Бразилии приняли первый в стране закон, написанный искусственным интеллектом. Член городского совета попросил ChatGPT подготовить предложение о том, чтобы город не взимал с налогоплательщиков плату за замену счетчиков потребления воды в случае их кражи. В момент принятия закона об этой махинации никто не знал.

ChatGPT

Что известно

Экспериментальное постановление было принято в октябре в южном городе Порту-Алегри, и на этой неделе член городского совета Рамиро Розарио раскрыл, что оно было написано чатботом.

Росарио рассказал, что он попросил чат-бота ChatGPT подготовить предложение о том, чтобы город не взимал с налогоплательщиков плату за замену счетчиков потребления воды в случае их кражи. Затем он представил это предложение 35 своим коллегам по совету, не внеся в него ни единого изменения и даже не поставив их в известность о его беспрецедентном происхождении. Совет, состоящий из 36 членов, одобрил его единогласно, и постановление вступило в силу 23 ноября.

«Если бы я раскрыл это раньше, предложение наверняка даже не было бы вынесено на голосование. Было бы несправедливо по отношению к населению рисковать тем, что проект не будет одобрен только потому, что он был написан искусственным интеллектом», — сказал Розарио.

Почему это важно

Закон был принят без каких-либо поправок, а о его авторстве стало известно только после того, как он был одобрен и принят. 23 ноября закон ChatGPT вступил в силу. Только после этого Рамиро Розарио раскрыл, что он был написан чатботом. Это вызвало возражения и подняло вопросы о роли искусственного интеллекта в государственной политике.

Когда об авторе стало публично известно, Председатель городского совета Гамильтон Соссмайер назвал принятие такого закона «опасным прецедентом» и предложил провести подробное обсуждение роли ИИ в государственной политике. Большие языковые модели ИИ, которыми оснащены такие чат-боты, как ChatGPT, работают, многократно пытаясь угадать следующее слово в предложении. Они склонны к созданию ложной информации — явление, которое называют галлюцинацией. Согласно недавно опубликованному исследованию технологической компании Vectara, все чат-боты иногда вводят ложную информацию при резюмировании документа — от примерно 3% случаев для самой продвинутой модели GPT до примерно 27% для одной из моделей Google.

Появление ChatGPT на рынке всего год назад вызвало глобальную дискуссию о влиянии потенциально революционных чат-ботов на основе искусственного интеллекта. Хотя некоторые видят в нем многообещающий инструмент, он также вызвал опасения и тревогу по поводу непреднамеренных или нежелательных последствий того, что машина будет выполнять задачи, которые в настоящее время выполняют люди.

 

Что будем искать? Например,ChatGPT

Мы в социальных сетях