Новое исследование предполагает, что переосмысление того, как мы говорим и взаимодействуем с большими языковыми моделями, может помочь нам адаптироваться к их интеллекту.
Изменение того, как мы думаем и говорим о больших языковых моделях, таких как ChatGPT, может помочь нам справиться с их странным, новым типом интеллекта. Об этом говорится в новой статье исследователя Имперского колледжа Лондона, опубликованной в журнале Nature .
Такие чат-боты, основанные на моделях большого языка (LLM) на основе нейронных сетей, могут вызывать убедительное ощущение того, что мы говорим с другими людьми, а не с искусственным интеллектом .
Человеческий мозг , запрограммированный на общительность, устроен так, чтобы связываться и сопереживать сущностям, похожим на человека. Однако это может создать проблемы для людей, которые взаимодействуют с чат-ботами и другими объектами на основе искусственного интеллекта. Если бы эти LLM использовались недобросовестными субъектами, например, мошенниками или пропагандистами, люди могли бы быть уязвимы для передачи своих банковских реквизитов в поисках связи или подвергнуться политическому влиянию.
Теперь в новой статье изложены рекомендации, которые помогут нам не допустить чрезмерного сочувствия чат-ботам с искусственным интеллектом во вред себе. Ведущий автор профессор Мюррей Шанахан из факультета вычислительной техники Имперского колледжа Лондона сказал: «То, как мы обращаемся к магистрам права, антропоморфизирует их до такой степени, что мы рискуем относиться к ним как к родственникам. Говоря, что магистратуры «понимают» нас, «думают» или «чувствуют», «В определенном смысле мы придаем им человеческие качества. Наш социальный мозг всегда ищет связи, поэтому здесь есть уязвимость, которую мы должны защищать».
Чтобы лучше понять то, что исследователи называют «экзотическими артефактами, подобными разуму», необходимо изменить наше представление о них, утверждают исследователи. Этого можно достичь, используя две основные метафоры. Во-первых, если взглянуть просто и интуитивно, мы можем рассматривать чат-ботов с искусственным интеллектом как актеров, играющих роль одного персонажа. Во-вторых, если взглянуть более детально и с технической точки зрения, мы можем увидеть, что чат-боты с искусственным интеллектом поддерживают симуляцию множества возможных ролей, хеджируя свои ставки в пределах мультивселенной возможных персонажей.
Профессор Шанахан сказал: «Обе точки зрения имеют свои преимущества, что предполагает, что наиболее эффективная стратегия размышлений о таких агентах — не цепляться за одну метафору, а свободно переключаться между несколькими метафорами».
Теги: ИИ