Google в четверг подтвердил, что он распустил недавно созданную консультативную группу по этике искусственного интеллекта перед лицом споров по поводу его членства.
Окончание Внешнего консультативного совета по передовым технологиям (ATEAC) произошло через несколько дней после того, как группа сотрудников Google начала публичную кампанию против включения в состав президента консервативного исследовательского центра Heritage Foundation.
Другой член совета директоров уже подал в отставку, и включение руководителя компании по производству беспилотников вызвало обеспокоенность по поводу возможного использования искусственного интеллекта в военных целях, согласно новостному веб-сайту Vox, который впервые сообщил о расформировании совета.
«Стало ясно, что в нынешних условиях ATEAC не может функционировать так, как мы хотели», — сказал Google AFP.
«Итак, мы заканчиваем совет и возвращаемся к чертежной доске ».
Google добавил, что будет искать альтернативные способы сбора внешнего мнения относительно ответственного использования искусственного интеллекта.
Сохраняя ИИ беспристрастным
В сети опубликована петиция, призывающая Google отстранить Кей Коулз Джеймса из Heritage Foundation от совета, сформированного неделю назад, из-за ее истории «воинственно настроенных против трансгендеров, против ЛГБТК и против иммигрантов».
«Выбирая Джеймса, Google ясно дает понять, что его версия« этики »подразумевает близость к власти над благополучием транс-людей, других ЛГБТ-людей и иммигрантов», — говорится в заявлении, опубликованном на Medium группой, назвавшей себя «Googlers против трансфобии».
Согласно посту, позиции, высказанные Джеймсом, противоречат заявленным Google ценностям и, если их внедрить в искусственный интеллект, могут привести к дискриминации в супер-умных машинах.
Группа заявила, что аргументы в пользу того, что Джеймс был добавлен в дискуссионную группу, были даны как попытка разнообразить мысли.
По состоянию на конец четверга, онлайн-петиция показала более 2300 подписей от ученых, сотрудников Google и других, включая коллег из индустрии технологий.
Противоречие возникает, когда мир сталкивается с уравновешиванием потенциальных преимуществ искусственного интеллекта и рисками, которые он может использовать против людей, или даже, если ему присуще собственное мнение, включить его создателей.
В интервью, опубликованном в конце прошлого года, глава Google Сундар Пичаи сказал, что технологические компании, занимающиеся созданием ИИ, должны учитывать этику на ранних стадиях процесса, чтобы определенный искусственный интеллект с «собственным агентством» не навредил людям.
Калифорнийский интернет-гигант является лидером в области разработки ИИ, конкурируя в гонке интеллектуального программного обеспечения с такими компаниями, как Amazon, Apple, Facebook, IBM и Microsoft.
В прошлом году Google опубликовал набор внутренних принципов ИИ, во-первых, ИИ должен быть социально выгодным.
Google пообещал не разрабатывать и не использовать ИИ для использования в оружии, надзоре за пределами международных норм или в технологиях, направленных на нарушение прав человека.
Компания отметила, что продолжит работать с военными или правительствами в таких областях, как кибербезопасность, обучение, набор персонала, здравоохранение и поисково-спасательные работы.
ИИ уже используется для распознавания людей на фотографиях, фильтрации нежелательного контента с онлайн-платформ и включения управления автомобилями.
Теги: Google, ИИ