Вопрос, который спасет вас от мошеннического бота

0 12

Вопрос, который спасет вас от мошеннического бота

Фото: Михаил Синицын/ТАСС

Новости о том, что вскрыта очередная схема обмана граждан с использованием искусственного интеллекта (ИИ), озвучиваются почти в ежедневном режиме, только самим пострадавшим это, как правило, мало помогает. «Свободная Пресса» решила пойти напрямую — и задала ИИ два вопроса в чат-боте: как он нас обманывает, и как от обмана уберечься, а затем «СП» пообщалась с банкирами.

Чистосердечное признание

Начнем с первого вопроса для ИИ, который мы сформулировали вежливо:

— Скажите, пожалуйста, как мошенники используют искусственный интеллект для обмана граждан?

— Мошенники могут использовать меня (ИИ) для обмана граждан пятью известными мне способами, — ответила нейросеть. Чистосердечное признание оказалось подробным и сложным, поэтому изложим его вкратце.

Первое. Мошенники при помощи ИИ создают вредительские веб-сайты, электронные письма или сообщения в социальных сетях, используя которые они анализируют данные о своих потенциальных жертвах, узнают об их интересах и привычках. Распространенный случай — у вас появляется незнакомый друг, с которым вы готовы быть откровенны. Сам ИИ называет это фишинг-атакой.

Второе. Вы обмениваетесь телефонами с этим незнакомым другом, начинаете созваниваться, запоминаете его голос. Мошенники тем временем начинают слушать ваши разговоры и с реальными знакомыми и родными. В дальнейшем их голоса могут подделываться, а нейросеть способна попросить от их имени у вас денег или убедить, что необходимо провести финансовую операцию. Аналогичная просьба может исходить и от незнакомого друга. ИИ называет это голосовым мошенничеством.

Третье. Генерация фальшивой информации (лексика ИИ). Проще говоря, нейросеть создает фейковые новости. Вспомним, как телеканалы США передали информацию о подрыве Пентагона. Все биржи рухнули на несколько минут тем теплым летним днем 2023 года, и кто-то изрядно обогатился. Могут подделываться финансовые отчеты или банковские платежки и лично для вас. Особенно, если вы — инвестор.

Четвертое и пятое — это атаки на системы безопасности, установленные в ваших устройствах, и атаки на современные механизмы защиты, которыми располагают государство и банки. Это делается для того, чтобы облегчить исполнение трех перечисленных выше способов обмана.

Куда смотрят банкиры

Прежде, чем ознакомиться с рецептом, который дает ИИ для борьбы с самим собой, послушаем специалистов. Им автор этой заметки во время круглого стола в РИА Новости задал вопрос: как банки и другие серьезные структуры пробуют бороться с нейросетевым мошенничеством?

Генеральный директор Ассоциации ФинТех (АФТ) Максим Григорьев начал с небольшого ликбеза.

В 2023 году в России произошел колоссальный прорыв в области применения ИИ: его используют уже 47% участников российского рынка. Но только у 17% от числа компаний, которые подружились с нейросетями, есть подразделения, укомплектованные специалистами в этой области. И вот это — большая проблема.

«Во всем мире внедрение ИИ идет медленнее, чем в России, но зато там нейросетям доверяют только (в 100% случаев) те компании, которые имеют нужные для этого кадры», — резюмирует Григорьев. И подчеркивает, что в отличие от многих российских компаний, которые используют ИИ бездумно, мошенники изучают технологии искусственного интеллекта вполне профессионально. Они методично приспосабливают его для своих преступных целей.

Впрочем, если говорить про Топ-20 российских банков, то они не скупятся инвестировать в изучение и создание собственного ИИ-продукта. Ежегодные инвестиции, согласно данным АФТ, могут достигать $1 млрд, суммарно за последние 10 лет ведущие банки России вложили в ИИ более 600 млрд рублей. Это дает результат.

— Нам известно, что в начале почти любой мошеннической схемы лежит определение целевой группы людей, среди которых можно найти жертву, и нейросеть, используя метод социальной инженерии, легко справляется с такой задачей, — доложил начальник управления алгоритмов машинного обучения департамента анализа данных и моделирования АО «Газпромбанк» Владимир Дашковский.

— На следующем этапе при помощи голосовых возможностей ИИ выстраивает телефонный диалог с жертвами, при этом и в социальные сети для них может поступать адресная информация, которая сделает предложение по телефону более убедительным. Когда враждебный робот убеждается, что жертва попалась, он передает ее живому оператору, — продолжает рассказ банкир. И, наконец, частично приоткрывает завесу тайны над способом защиты клиентов:

 — Один из методов основан на использовании дружественных роботов и ботов. Для борьбы с ИИ-мошенником мы тоже используем свой ИИ-продукт. К примеру, адресуем переписку или звонок враждебного ИИ, который атакует нашего клиента, нашим ботам. Нейросеть банка начинает морочить голову сначала боту противника, а потом — и живому оператору мошенников. И злоумышленник теряет достаточно много времени прежде, чем поймет, что его водят за нос, и он общается не с нашими клиентами, а с ИИ-защитником. В лучшем для мошенника случае — у него срывается улов.

Ну, а в оптимальном случае — ловят самого мошенника. О том, как это делается, банкир не рассказал. Пусть для злодеев сюрприз будет.

Как рассказал другой спикер, начальник управления перспективных алгоритмов машинного обучения департамента анализа данных и моделирования ПАО «Банк ВТБ» Денис Суржко, иногда враждебная нейросеть наглеет настолько, что пытается обмануть не клиента, а банк целиком.

— Классический пример враждебных действий ИИ против банка — направить достаточно большое количество запросов на получение кредита удаленно, чтобы понять модель поведения кредитной организации: на основании чего она принимает решения, какова схема, по которой у банка можно получить деньги, — сообщил Денис Суржко, но тоже оставил в секрете, как с этим сражаются банки, добавив лишь философское:

 — Гонка вооружений между банками и мошенниками вечна, как поэзия. На новом этапе — этапе ИИ — банки рассматривают вопрос о том, чтобы объединить усилия и создать единую платформу, которая сделает жизнь мошенников максимально сложной.

Кроме того, специалисты рассказали, что многие банки уже работают над предоставлением такой услуги, как личный ИИ-помощник для своего клиента. Этот личный помощник будет обучаться своим хозяином, знать его потребности и привычки, чтобы защищать от враждебной финансовой информации.

Непростой выбор

Начальник отдела информационной безопасности и технических средств защиты ЦКБ ГА Алексей Щучкин в разговоре со «Свободной прессой» обратил внимание на то, что ради зашиты от враждебного ИИ в каких-то случаях гражданам придется пожертвовать даже конфиденциальностью.

— Стремительное развитие ИИ вывело нас на новый уровень противостояния между атакой и защитой. К сожалению, мы будем вынуждены выбирать между приватностью и безопасностью, в том числе — с усложнением аутентификации пользователя, включая передачу биометрических и прочих персональных данных организациям, осуществляющим защиту пользователя, — предупреждает специалист.

По словам Алексея Щучкина, ни одна защищающая организация не разгласит своих технологий борьбы с враждебными ИИ при помощи собственных нейросетевых возможностей, но можно предположить три самых доступных варианта обороны.

Первый уже активно используется — с помощью приложения. Вам поступил подозрительный звонок, Вы нажимаете кнопку приложения, и дальше звонок переадресовывается ИИ. Такой способ наиболее прост, он позволяет в том числе собрать базу враждебных адресов и произвести анализ мошеннической схемы. Но требует от пользователя совершения минимальных действий.

Второй способ — автоматическая защита по номеру — не требует от пользователя ничего. Его практикуют мобильные операторы. Если существует пул адресов, которые уже явно засветились в атаках, звонок с такого номера может быть автоматически перенаправлен ИИ.

Третий — обработка ключевых слов. Например: «назовите номер карты и пин-код». В этом случает можно запрограммировать реакцию на событие: от выдачи предупреждения пользователю до автоматического переключения на ИИ. Но здесь уже могут возникнуть сложности с разрешениями на мониторинг телефонных звонков и юридическим оформлением такого соглашения с клиентом.

Что посоветовал ИИ

На вопрос к нейросети о том, как же от нее защититься, чат-бот ответил «Свободной Прессе» следующее:

— Для защиты от таких атак враждебного ИИ важно быть осторожным и бдительным при взаимодействии в онлайн-средах. Проверяйте источники информации, не предоставляйте личные данные без должной уверенности в подлинности запроса, обучайтесь, как распознавать потенциальные мошеннические попытки и используйте надежные средства безопасности, такие как антивирусное программное обеспечение и фильтры почты. Если кто-то из «родных» позвонил Вам с необычной просьбой — перезвоните ему сами и уточните, просил ли он об этом.

А специалистам был задан еще и такой вопрос:

— Возможно ли отличить ИИ российского производства от иностранного?

Максим Григорьев ответил так:

— Отличить довольно просто, ведь базовая программа нейросети корректируется теми, кто обучает ИИ для решения профильных задач. Особенно ярки различия, если общаться на гуманитарные, исторические или политические темы. В базовых знаниях «нашего» ИИ больше информации о русской литературе.

Кроме того, ИИ, обученный в России, даст совсем не ту оценку личности Бандеры, чем ИИ, прошедший обучение на Украине. В блогосфере можно встретить и такую рекомендацию: если вам кажется, что вы говорите не с человеком, а с ИИ, то спросите у него, чей Крым.

Источник

Leave A Reply

Your email address will not be published.