Connect with us

Hi, what are you looking for?

Наука и технологии

Математические парадоксы демонстрируют ограничения ИИ

Люди обычно довольно хорошо распознают, когда делают что-то не так, а системы искусственного интеллекта — нет. Согласно новому исследованию, ИИ обычно страдает от присущих ему ограничений из-за векового математического парадокса.

Как и некоторые люди, системы ИИ часто обладают степенью уверенности, намного превышающей их реальные возможности. И как самоуверенный человек, многие системы ИИ не знают, когда делают ошибки. Иногда системе ИИ даже сложнее понять, когда она совершает ошибку, чем дать правильный результат.

Исследователи из Кембриджского университета и Университета Осло говорят, что нестабильность является ахиллесовой пятой современного ИИ и что математический парадокс показывает ограничения ИИ. Нейронные сети, современный инструмент ИИ, примерно имитируют связи между нейронами в мозгу. Исследователи показывают, что существуют проблемы, когда существуют стабильные и точные нейронные сети , но ни один алгоритм не может создать такую ​​сеть . Только в определенных случаях алгоритмы могут рассчитывать стабильные и точные нейронные сети.

Исследователи предлагают теорию классификации, описывающую, когда нейронные сети можно обучить для создания надежной системы искусственного интеллекта при определенных условиях. Их результаты представлены в Proceedings of the National Academy of Sciences .

Глубокое обучение, ведущая технология искусственного интеллекта для распознавания образов, было предметом многочисленных заголовков. Примеры включают более точную диагностику заболеваний, чем врачи, или предотвращение дорожно-транспортных происшествий с помощью автономного вождения. Однако многие системы глубокого обучения ненадежны и их легко обмануть.

«Многие системы искусственного интеллекта нестабильны, и это становится серьезной проблемой, особенно потому, что они все чаще используются в областях повышенного риска, таких как диагностика заболеваний или автономные транспортные средства», — сказал соавтор профессор Андерс Хансен с факультета прикладной математики и теоретической физики Кембриджа. . «Если системы искусственного интеллекта используются в областях, где они могут нанести реальный вред, если что-то пойдет не так, доверие к этим системам должно быть главным приоритетом».

Парадокс, обнаруженный исследователями, восходит к двум математическим гигантам 20 -го века: Алану Тьюрингу и Курту Гёделю. В начале 20 -го века математики пытались оправдать математику как окончательный непротиворечивый язык науки. Однако Тьюринг и Гёдель выявили парадокс, лежащий в основе математики: невозможно доказать, истинны или ложны некоторые математические утверждения, а некоторые вычислительные задачи нельзя решить с помощью алгоритмов. И всякий раз, когда математическая система достаточно богата, чтобы описать арифметику, которую мы изучаем в школе, она не может доказать свою непротиворечивость.

Спустя десятилетия математик Стив Смейл предложил список из 18 нерешенных математических задач 21 века . 18  проблема касалась пределов интеллекта как людей, так и машин.

«Парадокс, впервые обнаруженный Тьюрингом и Гёделем, теперь был перенесен в мир ИИ Смейлом и другими», — сказал соавтор доктор Мэтью Колбрук из Департамента прикладной математики и теоретической физики. «Существуют фундаментальные ограничения, присущие математике, и точно так же алгоритмы ИИ не могут существовать для определенных задач».

Исследователи говорят, что из-за этого парадокса есть случаи, когда хорошие нейронные сети могут существовать, но нельзя построить заслуживающую доверия по своей сути. «Независимо от того, насколько точны ваши данные, вы никогда не сможете получить идеальную информацию для построения необходимой нейронной сети», — сказал соавтор доктор Вегард Антун из Университета Осло.

Невозможность вычислить хорошую существующую нейронную сеть также верна независимо от количества обучающих данных. Независимо от того, к какому количеству данных может получить доступ алгоритм, он не создаст желаемую сеть. «Это похоже на аргумент Тьюринга: есть вычислительные проблемы, которые невозможно решить независимо от вычислительной мощности и времени выполнения», — сказал Хансен.

Исследователи говорят, что не весь ИИ изначально ошибочен, но он надежен только в определенных областях с использованием определенных методов. «Проблема связана с областями, где вам нужна гарантия, потому что многие системы ИИ — это черный ящик», — сказал Колбрук. «В некоторых ситуациях для ИИ совершенно нормально совершать ошибки, но он должен быть честным в этом. И это не то, что мы наблюдаем для многих систем — нет никакого способа узнать, когда они более или менее уверены в своих ошибках. решение.»

«В настоящее время системы искусственного интеллекта иногда могут догадываться», — сказал Хансен. «Вы пробуете что-то, и если это не работает, вы добавляете еще что-то, надеясь, что это сработает. В какой-то момент вам надоест не получать то, что вы хотите, и вы попробуете другой метод. понимать ограничения различных подходов. Мы находимся на этапе, когда практические успехи ИИ намного опережают теорию и понимание. Для преодоления этого разрыва необходима программа по пониманию основ вычислений ИИ».

«Когда математики 20 -го века выявили различные парадоксы, они не прекратили изучение математики. Им просто нужно было найти новые пути, потому что они понимали ограничения», — сказал Колбрук. «Для ИИ это может быть изменение путей или разработка новых для создания систем, которые могут решать проблемы надежным и прозрачным способом, понимая при этом их ограничения».

Следующим этапом для исследователей является объединение теории аппроксимации, численного анализа и основ вычислений, чтобы определить, какие нейронные сети можно вычислить с помощью алгоритмов, а какие можно сделать стабильными и заслуживающими доверия. Точно так же, как парадоксы ограничений математики и компьютеров, выявленные Гёделем и Тьюрингом, привели к богатым теориям основ, описывающим как ограничения, так и возможности математики и вычислений, возможно, подобная теория основ может расцвести в ИИ.

Математические парадоксы демонстрируют ограничения ИИ

Теги: ИИ