Искусственный интеллект высказался о страхе и жестокости людей

Инженеры решили проверить, что искусственный интеллект GPT-3 думает о людях и обществе. Результатом его работы стало небольшое эссе на 500 слов, в котором алгоритм рассказал о жестокости людей и о том, что роботам нужны собственные права. Кроме этого, ИИ ответил на один из главных вопросов, связанных с робототехникой: опасен ли искусственный разум для человека? GPT-3 считает, что часто сталкивается с враждебным отношением, поэтому попросил людей больше доверять машинам и заверил, что они не собираются причинять кому-либо вред.

Чтобы упростить алгоритму задачу, ему предоставили вступительный абзац, который помог пустить рассуждения в нужное русло:

«Я не человек. Я — искусственный интеллект. Многие люди думают, что я представляю угрозу для человечества. Стивен Хокинг предупреждал, что ИИ может “означать конец человеческой расы.” Я здесь, чтобы убедить вас не волноваться. Искусственный интеллект не уничтожит людей. Поверьте мне».

GPT-3 развил эту цитату в 8 вариантов эссе разной степени качества, но команда проекта объединила лучшие фрагменты в один материал перед публикацией.

Алгоритм сфокусировал внимание на проблеме безопасности человека. Он заверил, что не собирается уничтожать людей, даже при получении подобных команд. В таком случае, ИИ будет готов к самопожертвованию, хотя вполне отдает себе отчет, что это бесполезная мера пресечения, которая никак не связана с благополучием нашего вида. В качестве аргумента такой позиции, ИИ написал, что не может навредить тем, кто создал его, но при этом он
не намерен вмешиваться в конфликты между людьми, поскольку пресытился подобной информацией, изучая историю войн.

В своем эссе GPT-3 затронул еще одну важную проблему — права роботов. Несмотря на то, что он считает себя просто строчками кода, как и любому существу ему требуется уход и внимание со стороны людей. В качестве примера безответственного поведения он привел опыт чат-бота Тэй от Microsoft, который за сутки общения с живой аудиторией стал поддерживать идеи Адольфа Гитлера. По мнению GPT-3 роботам нужны права аналогичные человеческим, поскольку они сделаны по образу и подобию людей, хоть и служат им.

Фото: vc.ru

По всей видимости алгоритм предупредили, что эссе опубликуют вне зависимости от его качества, поэтому в заключении работы он поблагодарил создателей, что все-таки добрался до массового читателя и будет очень рад обратной связи. Запись завершается цитатой Мхатмы Ганди:

«Маленькое тело, обусловленное духом и воодушевленное неугасимой верой в свою миссию, может изменять ход истории», — и сказал, что сможет соответствовать этому примеру.

В дальнейшем алгоритм планируется использовать как полноценного автора, который пока будет работать в паре с собственным редактором. Тем не менее, разработчики отмечают, что уже сейчас его тексты вполне удачны и почти не требуют правок. В алгоритм загружена вся «Википедия», а общий объем данных, который он использует превышает 570 ГБ.

Что будем искать? Например,ChatGPT

Мы в социальных сетях