Сторонники искусственного интеллекта говорят, что его потенциал безграничен. Но кибермошенники также могут использовать это в своих целях.
Аналитики объяснили, как эта технология может повысить риск онлайн-преступлений.
Фишеры электронных писем
Чат-боты являются наиболее известными из всех инструментов искусственного интеллекта благодаря безудержному успеху ChatGPT и многих последующих, не в последнюю очередь Bard от Google.
Фишинг является наиболее распространенной формой кибермошенничества. В нем преступники, выдавая себя за компанию или отдельное лицо, отправляют пакеты электронных писем, содержащих ссылки на поддельные веб-сайты или вредоносное ПО.
Два мира уже начинают сталкиваться: киберпреступники обмениваются на онлайн-форумах советами о том, как лучше всего заставить чат-ботов генерировать фишинговые электронные письма.
Крупные игроки не позволяют пользователям создавать подобные электронные письма, поэтому разработчики разработали программы, направленные на создание фишинговых сообщений, в том числе FraudGPT и WormGPT.
Эффективность этих инструментов еще предстоит проверить. Жером Биллуа из консалтинговой фирмы Wavestone заявил агентству Франс Пресс: «Мы только в самом начале».
Эксперты говорят, что главное умение чат-ботов для фишинговых группировок — генерировать достаточно понятный текст.
Одним из явных признаков фишингового электронного письма уже давно является неправильная орфография и пунктуация.
«ИИ ускоряет темп атак», — сказал Биллуа.
ФБР сообщило, что в прошлом году оно получило 300 497 жалоб на фишинговые атаки, понесенные убытки составили 52 миллиона долларов.
Атака клонов
Ранее в этом году мать из США Дженнифер ДеСтефано рассказала, как ей позвонила дочь и просила о помощи, а затем похититель сказал ей заплатить выкуп в 1 миллион долларов.
«Я ни на секунду не сомневалась, что это она», — сказала она местным СМИ.
Только голос был имитацией, созданной искусственным интеллектом, и ДеСтефано быстро раскрыл уловку.
Но это указывает на риск будущего, когда в телефонных или видеозвонках будут появляться фейковые изображения близких или коллег — событие, которое может стать золотой жилой для мошенников.
Записав всего несколько секунд человеческого голоса, онлайн-инструменты могут создать имитацию, способную обмануть сотрудников или друзей.
Жером Саиз, основатель французской консалтинговой компании OPFOR Intelligence, заявил, что «целая индустрия мелких мошенников», уже умеющих вымогать данные кредитных карт с помощью текстовых сообщений, вероятно, начнет использовать такие инструменты.
Он рассказал агентству AFP, что такие мошенники зачастую молоды и умеют обращаться с техническими инструментами.
Руководство по программированию
Одним из хваленых талантов чат-ботов, таких как ChatGPT, является их способность генерировать приемлемый компьютерный код.
Мошенники могут использовать эти навыки для создания вредоносного ПО, способного заблокировать компьютер жертвы или получить доступ к файлам или учетным записям.
В Интернете ходят слухи, что новое поколение чат-ботов, изготовленных на заказ, способно выполнять такого рода операции, но убедительные доказательства найти сложно.
Чат-боты, безусловно, могут выявлять недостатки в существующем коде и даже генерировать вредоносный код, но они не могут выполнить его напрямую.
Саиз сказал, что он видит, как ИИ помогает мошенникам, у которых мало таланта, стать более квалифицированными — своего рода наставник по программированию.
«Но тот, кто начинает с нуля, не сможет заставить ChatGPT кодировать для него вредоносное ПО», — сказал он.
Саиз, которому обычно звонят, когда что-то серьезное идет не так, сказал, что не видел никаких доказательств того, что ни в одном из его дел за последний год был задействован ИИ.
Шон Сёрбер из американской фирмы по кибербезопасности Tanium столь же осторожен.
«Большая часть беспокойства по поводу того, как генеративный ИИ повлияет на риски для бизнеса, основана на страхе перед неизвестным, а не на конкретных угрозах», — сказал он.
Теги: ИИ, Интернет, хакеры