Генеральный директор OpenAI предполагает, что международное агентство, такое как ядерная служба ООН, может контролировать ИИ.
Искусственный интеллект представляет собой «экзистенциальный риск» для человечества, предупредил ключевой новатор во время визита в Объединенные Арабские Эмираты во вторник, предложив международному агентству, такому как Международное агентство по атомной энергии, контролировать новаторскую технологию.
Генеральный директор OpenAI Сэм Альтман отправляется в мировое турне, чтобы обсудить искусственный интеллект.
«Мы сталкиваемся с серьезным риском. Мы сталкиваемся с экзистенциальным риском, — сказал 38-летний Альтман. уничтожить мир».
Популярный чат-бот OpenAI ChatGPT привлек внимание всего мира, поскольку он предлагает ответы, похожие на эссе, на запросы пользователей. Microsoft инвестировала около 1 миллиарда долларов в OpenAI.
Успех ChatGPT, предлагающий взглянуть на то, как искусственный интеллект может изменить то, как люди работают и учатся, также вызвал обеспокоенность. Сотни лидеров отрасли, в том числе Альтман, в мае подписали письмо, в котором предупреждают, что «снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».
Альтман сослался на МАГАТЭ, орган Организации Объединенных Наций по наблюдению за ядерной энергетикой, как на пример того, как мир объединился для наблюдения за ядерной энергетикой. Это агентство было создано спустя годы после того, как США сбросили атомные бомбы на Японию в конце Второй мировой войны.
«Давайте удостоверимся, что мы объединимся как глобус — и я надеюсь, что это место может сыграть в этом реальную роль», — сказал Альтман. «Мы говорим о МАГАТЭ как о модели, в которой мир сказал: «Хорошо, очень опасная технология, давайте все поставим ограждения». И я думаю, что мы можем сделать и то, и другое.
«Я думаю, что в данном случае это тонкое сообщение, потому что оно говорит, что сегодня это не так опасно, но может быстро стать опасным. Но мы можем продеть эту иглу».
Законодатели по всему миру также изучают искусственный интеллект. Европейский союз, в состав которого входят 27 стран, работает над принятием Закона об искусственном интеллекте, который может стать глобальным стандартом де-факто для искусственного интеллекта . В мае Альтман заявил Конгрессу США, что вмешательство правительства будет иметь решающее значение для управления рисками, связанными с ИИ .
Но ОАЭ, автократическая федерация семи шейхов, управляемых по наследству, предлагает обратную сторону рисков ИИ. Речь остается жестко контролируемой. Правозащитные группы предупреждают, что ОАЭ и другие государства Персидского залива регулярно используют шпионское программное обеспечение для наблюдения за активистами, журналистами и другими лицами. Эти ограничения влияют на поток точной информации — те же детали, на которые программы искусственного интеллекта, такие как ChatGPT, полагаются в качестве систем машинного обучения, чтобы предоставлять ответы пользователям.
Среди спикеров, разогревающих Альтмана на мероприятии на глобальном рынке Абу-Даби, был Эндрю Джексон, генеральный директор Inception Institute of AI, который описывается как компания G42.
G42 связана с влиятельным советником Абу-Даби по национальной безопасности и заместителем правителя шейхом Тахнуном бин Зайедом Аль Нахайяном. Генеральным директором G42 является Пэн Сяо, который в течение многих лет руководил Pegasus, дочерней компанией DarkMatter, эмиратской охранной фирмы, находящейся под пристальным вниманием из-за найма бывших сотрудников ЦРУ и АНБ, а также других сотрудников из Израиля. G42 также владеет приложением для видео- и голосовых вызовов, которое, как сообщается, было шпионским инструментом для правительства Эмиратов.
В своем выступлении Джексон назвал себя представителем «экосистемы искусственного интеллекта Абу-Даби и ОАЭ».
«Мы являемся политическим центром, и мы будем играть центральную роль в глобальном регулировании ИИ», — сказал он.
Теги: ИИ