Окт 08, 2019 Новости отрасли 0 комментариев

Подводные камни искусственного интеллекта

Искусственный интеллект способен красть деньги, создавая дипфейки. Deepfakes – это подделки реальных видео- и аудиозаписей людей посредством алгоритмов, которые анализируют тысячи записей голосов и изображений и на их основе создают новые файлы. Эксперты по кибербезопасности опасаются, что дипфейки станут колоссальной киберпреступной тенденцией использования ИИ.

По данным Threatpost, в августе этого года дипфейк использовал мошенник для того, чтобы обмануть компанию на сумму 220 тыс. евро. Злоумышленник еще в марте создал фальшивую подделку, имитирующую голос ее генерального директора. Гендиректору энергетической компании позвонил босс и во время разговора попросил “срочно перевести 200 тыс. фунтов стерлингов венгерскому провайдеру”. Жертву обманули голосом с “легким немецким акцентом”, который якобы принадлежал начальнику.

Как утверждают в Panda Security, этот инцидент является первым с использованием технологии deepfake. По их данным, с 2013 г. по 2017 г. количество случаев голосового фишинга выросло на 350%.

Пока в России не выявлено случаев мошенничества типа deepfake, но, как полагает руководитель отдела аналитики и спецпроектов ГК InfoWatch Андрей Арсентьев, скорее всего, отечественные злоумышленники возьмут на вооружение новый способ обмана.

По его словам, deepfake будет опасен в двух направлениях. Во-первых, это фишинг. Посредством голосовых или видеосообщений ИИ может помочь преступникам имитировать манеру речи или образ человека, от которого зависит принятие решения, и санкционировать денежные переводы. Во-вторых, это “черный пиар” и кампании по распространению фейковой информации. Освоив в полной мере технологию, злоумышленники могут создавать изображения, видео- и аудиофайлы от лица той или иной персоны с целью ее дискредитации.

Андрей Арсентьев уверен, что спользование deepfake для банковского мошенничества пока маловероятно. Современные нейросети банков без труда распознают обман, если мошенники попытаются выдать себя за другого человека, синтезируя его голос. Система сопоставит этот голос с биометрическим слепком, хранящимся в базе. “Но на всякий случай я бы посоветовал людям внимательно подходить к сдаче биометрии. Она должна проходить строго в банках, имеющих на это право”, – предостерегает Андрей Арсентьев.

При проведении любой транзакции банк использует несколько способов идентификации. Помимо распознавания голоса, организация проверит номер телефона, произведет какие-либо дополнительные манипуляции. “На сегодняшний момент подтверждать голосом транзакции в банке, на мой взгляд, очень смело”, – говорит глава представительства Check Point Software Technologies в России и СНГ Василий Дягилев.

Пока система распознавания голоса не является на 100% надежной. “Если мы говорим об идентификации с помощью биометрии, то всегда нужно сделать что-то дополнительно – например, показать лицо на камеру. Многие банки только начинают с этим экспериментировать. Подобные случаи поставят важный вопрос перед службами безопасности банков: как избежать того, что голос будет распознан неправильно?” – вопрошает Дягилев.

История именно с голосовым мошенничеством единична. Фишинг все еще остается проблемой. По данным Check Point 2019 Security Report, 66% компаний больше всего опасаются именно фишинга. “Многие предприниматели попадались на это: присылается письмо якобы от имени генерального директора, что вот в таком-то счете просим заменить реквизиты на другие. Сотрудники компании часто отправляют деньги, даже не разбираясь в деталях”, – рассказывает представитель Check Point.

Как полагает директор по методологии и стандартизации Positive Technologies Дмитрий Кузнецов, технология deepfake представляет серьезную опасность для дистанционных финансовых операций, подлинность которых подтверждается биометрией. “Биометрические суррогаты можно легко синтезировать с любой точностью. Голос или фотография неотличимы от оригинала. Но нет способа проверить, что они действительно получены от реального человека”, – сказал он. По мнению специалиста, в российской практике подтвержденных случаев использования deepfake пока не было, но связано это прежде всего с низкой популярностью биометрической идентификации.

Алгоритмы для обнаружения deepfake стоят за технологией создания этих же подделок, говорит ИТ-евангелист Avast Луис Корронс. “Deepfake будет большой проблемой, и легкое решение будет найдено нескоро”, – предсказывает эксперт. Microsoft, Google и Facebook уже работают над этим.
Источник: https://www.comnews.ru