Новое предупреждение об опасности ИИ — на этот раз от всех лидеров сферы

На днях произошло громкое событие — практически все лидеры в области ИИ выступили наконец-то единым фронтом. Лучшие исследователи ИИ и руководители компаний предупреждают о «риске вымирания» в новом заявлении.

О чем говорится в документе

Авторы письма выражают свою озабоченность экзистенциальным риском для человечества из-за быстрого и неуправляемого развития ИИ. Документ опубликован некоммерческой организацией Center for AI Safety из Сан-Франциско.

«Заявление о риске ИИ» (Statement on AI Risk) было предельно коротким всего 22 слова:

«Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».

Ведущие исследователи, инженеры, руководители ИИ-компаний, политики и общественность все чаще обсуждают риски, связанные с ИИ. Опубликованное заявление направлено на то, что пора открыть дискуссии по этому вопросу, а не умалчивать все. Кроме того, документ указывает на то, что с каждым днем растет количество экспертов, обеспокоенных этим.

Кто подписал заявление

Приоритетность ИИ-рисков признали двое из трех «крестных отцов ИИ» Джеффри Хинтон и Йошуа Бенжио — исследователи, которые в 2018 году получили премию Тьюринга (иногда называется «Нобелевской премией по вычислительной технике») за свои работы в области ИИ.

Среди подписавших заявление и другие топовые имена:

  • генеральные директоры, президенты и СТО компаний-лидеров по разработке ИИ: Сэм Альтман из OpenAI, Демис Хассабис из Google DeepMind, Дарио и Даниела Амодеи из Anthropic, Кевин Скотт из Microsoft;
  • ученые и исследователи: Эрик Хорвитц из Microsoft, Илья Суцкевер из OpenAI, Шейн Лэгг из Google DeepMind, Роджер Гросс из Anthropic;
  • профессора ведущих университетов: Стюарт Рассел и Доан Сонг (Беркли, Калифорния), Я-Цинь Чжан и Сяньюань Чжан (Университет Пекина) и другие;
  • руководители исследовательских центров: Center for Responsible AI, Human Centered Technology, Center for AI and Fundamental Interactions, Center for AI Safety.

Почему в списке отсутствует Ян Лекун

Среди звезд первой величины в сфере ИИ заявление не подписал Ян Лекун, третий из «крестных отцов ИИ», лауреат премии Тьюринга 2018 года. Он считает, что сильный ИИ (AGI) не первый в списке рисков для человечества. Все потому, что его пока еще нет, а потому обсуждать, как сделать его безопасным, преждевременно, по мнению ученого.

Этот момент спорный. Во-первых, безответственно обсуждать регулирование сильного ИИ и его безопасность для людей уже после того, как он появится. Во-вторых, нейросети уже по некоторым задачам превосходят уровень людей.

Заключение

Заявление хоть и короткое, но совершенно недвусмысленное. Послание предельно понятно: пора продумать регулирование сферы ИИ. От открытого письма, подписанного Илоном Маском, Стивом Возняком и еще 1000 экспертов, оно отличается тем, что мартовский документ закликает приостановить развитие больших языковых моделей на полгода, а «Заявление о риске ИИ» направлено подчеркнуть приоритетность регулирования сферы. К тому же его подписали практически все лица, от которых зависит развитие ИИ в мире.

 

Что будем искать? Например,ChatGPT

Мы в социальных сетях