Правительства всего мира пытаются понять, как именно подойти к вопросам, возникающим в связи с использованием искусственного интеллекта.
Искусственный интеллект быстро перешел из учебников по информатике в мейнстрим, создавая такие удовольствия, как воспроизведение голосов знаменитостей и чат-боты, готовые развлекать извилистые разговоры.
Но технология, которая относится к машинам, обученным выполнять интеллектуальные задачи, также угрожает глубоким нарушением социальных норм, целых отраслей и состояний технологических компаний. У него есть огромный потенциал изменить все: от диагностики пациентов до прогнозирования погодных условий, но он также может лишить работы миллионы людей или даже превзойти человеческий интеллект, говорят некоторые эксперты.
На прошлой неделе Исследовательский центр Pew опубликовал опрос, в котором большинство американцев — 52 процента — заявили, что они больше обеспокоены, чем воодушевлены растущим использованием искусственного интеллекта, включая опасения по поводу личной конфиденциальности и человеческого контроля над новыми технологиями.
Распространение в этом году генеративных моделей искусственного интеллекта, таких как ChatGPT, Bard и Bing, которые все доступны для общественности, выдвинуло искусственный интеллект на передний план. Теперь правительства от Китая до Бразилии и Израиля также пытаются выяснить, как использовать преобразующую силу ИИ, одновременно обуздывая его худшие крайности и разрабатывая правила его использования в повседневной жизни.
Некоторые страны, в том числе Израиль и Япония, отреагировали на его молниеносный рост, уточнив существующие данные, защиту конфиденциальности и авторских прав – в обоих случаях расчистив путь для использования контента, защищенного авторским правом, для обучения ИИ. Другие, такие как Объединенные Арабские Эмираты, издали расплывчатые и радикальные заявления о стратегии ИИ или создали рабочие группы по передовым практикам ИИ, а также опубликовали законопроекты для общественного рассмотрения и обсуждения.
Другие по-прежнему занимают выжидательную позицию, хотя лидеры отрасли, в том числе OpenAI, создатель вирусного чат-бота ChatGPT, призывают к международному сотрудничеству в сфере регулирования и проверок. В заявлении, сделанном в мае, генеральный директор компании и два ее соучредителя предостерегают от «возможности экзистенциального риска», связанного со сверхинтеллектом, гипотетической сущностью, чей интеллект превысит когнитивные способности человека.
«Чтобы остановить это, потребуется что-то вроде глобального режима наблюдения, но даже это не гарантированно сработает», — говорится в заявлении.
Тем не менее, в мире существует несколько конкретных законов, специально направленных на регулирование ИИ. Вот некоторые способы, которыми законодатели в разных странах пытаются решить вопросы, связанные с его использованием.
Бразилия
В Бразилии есть проект закона об искусственном интеллекте, который является кульминацией трехлетних предложенных (и замороженных) законопроектов по этому вопросу. В документе, который был опубликован в конце прошлого года как часть 900-страничного отчета комитета Сената по ИИ, подробно описываются права пользователей, взаимодействующих с системами ИИ, и приводятся рекомендации по классификации различных типов ИИ на основе риска, который они представляют для общества.
Акцент закона на правах пользователей возлагает на поставщиков ИИ обязанность предоставлять пользователям информацию о своих продуктах ИИ. Пользователи имеют право знать, что они взаимодействуют с ИИ, но также имеют право на объяснение того, как ИИ принял определенное решение или рекомендацию. Пользователи также могут оспаривать решения ИИ или требовать вмешательства человека, особенно если решение ИИ может оказать существенное влияние на пользователя, например, системы, связанные с беспилотными автомобилями, наймом сотрудников, оценкой кредитоспособности или биометрической идентификацией.
Разработчики ИИ также обязаны проводить оценку рисков перед выводом продукта ИИ на рынок. Классификация самого высокого риска относится к любым системам искусственного интеллекта, которые используют «подсознательные» методы или эксплуатируют пользователей способами, наносящими вред их здоровью или безопасности; это категорически запрещено. В проекте закона об искусственном интеллекте также описываются возможные варианты реализации искусственного интеллекта с «высоким риском», включая использование искусственного интеллекта в здравоохранении, биометрической идентификации и кредитном скоринге, а также в других приложениях. Оценки рисков для продуктов искусственного интеллекта «высокого риска» должны публиковаться в государственной базе данных.
Все разработчики ИИ несут ответственность за ущерб, причиненный их системами ИИ, хотя разработчики продуктов с высоким уровнем риска несут еще более высокий уровень ответственности.
Китай
Китай опубликовал проект постановления о генеративном искусственном интеллекте и ждет общественного мнения по новым правилам. Однако, в отличие от большинства других стран, в проекте Китая отмечается, что генеративный ИИ должен отражать «основные социалистические ценности».
В текущей версии проекта правил говорится, что разработчики «несут ответственность» за результаты, создаваемые их ИИ, согласно переводу документа, выполненному проектом DigiChina Стэнфордского университета. Существуют также ограничения на получение данных об обучении; разработчики несут юридическую ответственность, если их обучающие данные нарушают чью-либо интеллектуальную собственность. Постановление также предусматривает, что услуги искусственного интеллекта должны быть предназначены для создания только «правдивого и точного» контента.
Эти предлагаемые правила основаны на существующем законодательстве, касающемся дипфейков, рекомендательных алгоритмов и безопасности данных, что дает Китаю преимущество перед другими странами, разрабатывающими новые законы с нуля. В августе интернет-регулятор страны также объявил об ограничениях на технологию распознавания лиц.
Китай поставил драматические цели для своей отрасли технологий и искусственного интеллекта: в «Плане развития искусственного интеллекта следующего поколения», амбициозном документе, опубликованном правительством Китая в 2017 году, авторы пишут, что к 2030 году «китайские теории, технологии и приложения искусственного интеллекта должны достичь мирового уровня».
Евросоюз
В июне Европейский парламент проголосовал за одобрение так называемого «Закона об искусственном интеллекте». Подобно законопроекту Бразилии, Закон об ИИ классифицирует ИИ по трем категориям: неприемлемый, высокий и ограниченный риск.
Неприемлемыми считаются системы искусственного интеллекта, которые считаются «угрозой» для общества. (В качестве примера Европейский парламент предлагает «активируемые голосом игрушки, поощряющие опасное поведение детей».) Подобные системы запрещены Законом об искусственном интеллекте. Искусственный интеллект высокого риска должен быть одобрен европейскими чиновниками перед выходом на рынок, а также на протяжении всего жизненного цикла продукта. К ним относятся продукты искусственного интеллекта, которые, среди прочего, касаются правоохранительной деятельности, пограничного контроля и проверки занятости.
Системы ИИ, которые считаются представляющими ограниченный риск, должны быть соответствующим образом промаркированы для пользователей, чтобы они могли принимать обоснованные решения об их взаимодействии с ИИ. В противном случае эти продукты в основном избегают контроля со стороны регулирующих органов.
Закон еще должен быть одобрен Европейским советом, хотя парламентские законодатели надеются, что процесс завершится позднее в этом году.
Израиль
В 2022 году Министерство инноваций, науки и технологий Израиля опубликовало проект политики регулирования ИИ. Авторы документа описывают его как «моральный и бизнес-ориентированный компас для любой компании, организации или государственного органа, занимающегося областью искусственного интеллекта», и подчеркивают его направленность на «ответственные инновации».
В проекте политики Израиля говорится, что разработка и использование ИИ должны уважать «верховенство закона, основные права и общественные интересы и, в частности, [поддерживать] человеческое достоинство и конфиденциальность». В другом месте туманно говорится, что «необходимо принять разумные меры в соответствии с принятыми профессиональными концепциями» для обеспечения безопасности использования продуктов искусственного интеллекта.
В более широком смысле проект политики поощряет саморегулирование и «мягкий» подход к вмешательству правительства в развитие ИИ. Вместо того, чтобы предлагать единое общеотраслевое законодательство, документ призывает отраслевые регулирующие органы рассмотреть возможность узкоспециализированных мер, когда это необходимо, а правительство попытаться обеспечить совместимость с лучшими мировыми практиками в области искусственного интеллекта.
Италия
В марте Италия на короткое время запретила ChatGPT, сославшись на опасения по поводу того, как и в каком объеме чат-бот собирает пользовательские данные.
С тех пор Италия выделила около 33 миллионов долларов на поддержку работников, которые рискуют остаться позади в результате цифровой трансформации, включая, помимо прочего, искусственный интеллект. Около трети этой суммы будет направлено на обучение работников, рабочие места которых могут устареть из-за автоматизации. Остальные средства будут направлены на обучение безработных или экономически неактивных людей цифровым навыкам в надежде стимулировать их выход на рынок труда.
Япония
Япония, как и Израиль, приняла подход «мягкого права» к регулированию ИИ: в стране нет предписывающих правил, регулирующих конкретные способы использования ИИ. Вместо этого Япония предпочла подождать и посмотреть, как будет развиваться ИИ, ссылаясь на желание избежать подавления инноваций.
На данный момент разработчикам ИИ в Японии приходится полагаться на смежные законы, например, касающиеся защиты данных, в качестве руководящих принципов. Например, в 2018 году японские законодатели пересмотрели Закон страны об авторском праве, разрешив использование контента, защищенного авторским правом, для анализа данных. С тех пор законодатели пояснили, что пересмотр также касается данных по обучению ИИ, открывая компаниям, занимающимся ИИ, возможность обучать свои алгоритмы на интеллектуальной собственности других компаний. (Израиль применил тот же подход.)
ОАЭ
Регулирование не находится на переднем крае подхода каждой страны к ИИ.
Например, в Национальной стратегии Объединенных Арабских Эмиратов в области искусственного интеллекта регуляторным амбициям страны отведено всего несколько абзацев. В целом, Совет по искусственному интеллекту и блокчейну «рассмотрит национальные подходы к таким вопросам, как управление данными, этика и кибербезопасность», а также будет наблюдать и интегрировать лучшие мировые практики в области ИИ.
Остальная часть 46-страничного документа посвящена поощрению развития ИИ в ОАЭ путем привлечения талантов в области ИИ и интеграции технологий в ключевые сектора, такие как энергетика, туризм и здравоохранение. Эта стратегия, как говорится в кратком изложении документа, согласуется с усилиями ОАЭ стать «лучшей страной в мире к 2071 году».
Теги: ИИ