OpenAI официально представила GPT-4

Обновленная ИИ-модель понимает не только запросы в виде текста, но и распознает картинки,  объясняет их, а также может генерировать в 8 раз больше слов, чем предыдущая версия.

Источник: nachedeu.com

Что известно

OpenAI выпустила обновленную модель ИИ GPT-4, и она кажется еще более технологичной и полезной.

В чем отличие от предыдущей версии:

  • понимает мемы;
  • анализирует до 25 тыс. символов;
  • распознает картинки и может описать, что изображено на них;
  • справляется со сложными экзаменами, получает максимальные баллы, например, ИИ сдал экзамен на адвоката на 90 баллов, а предыдущая модель получила только 10 баллов;
  • блокирует запросы по запрещенным тематикам на 82% чаще, чем предыдущая версия;
  • выдает соответствующие ответы на 40% чаще, чем GPT-3.5.

Все пользователи могут записаться в лист ожидания тут, а подписчики ChatGPT Plus уже могут пользоваться алгоритмом. Кроме того, стало известно, что Bing от Microsoft уже работает на GPT-4.

Почему это важно

Представители OpenAI рассказали, что при стандартной беседе с нейросетью сложно почувствовать разница между GPT-3.5 и GPT-4, но она ощущается, если усложнить задачу. Новый помощник стал креативнее, безопаснее, точнее.

 

Что будем искать? Например,ChatGPT

Мы в социальных сетях