psychology
GPT-4 (стандартный режим)

Как защитить ваш бизнес от дипфейков, созданных с помощью ИИ

Недавно киберпреступники использовали «глубокие подделки» (deepfakes) видео руководителей мультинациональной компании, чтобы убедить сотрудников компании в Гонконге перечислить 25,6 миллиона долларов США. Используя видеоконференцию с несколькими поддельными видео, сотрудники поверили, что их финансовый директор из Великобритании запросил перевод средств. По сообщениям, полиция арестовала шесть человек в связи с этим мошенничеством. Это использование технологии ИИ опасно и манипулятивно.

Дипфейки — это формы цифровых медиа, включая фотографии, видео и аудиоклипы, которые кажутся реальными людьми. Они создаются путем обучения ИИ-системы на реальных клипах с участием человека, а затем используют эту систему ИИ для создания реалистичных, но не подлинных новых медиа. Использование глубоких подделок становится все более распространенным.

Киберпреступники также нацеливаются на отдельных людей с помощью атак типа "спир фишинг", используя дипфейки. Обычный подход заключается в том, чтобы обмануть членов семьи и друзей человека, используя клон его голоса для имитации звонка и запроса перевода средств на счет третьей стороны.

В феврале Федеральная комиссия по связи США постановила, что телефонные звонки с использованием генерируемых ИИ человеческих голосов незаконны без предварительного явного согласия вызываемой стороны. Федеральная торговая комиссия также утвердила правило, запрещающее ИИ имитировать организации правительства и бизнеса, и предложила аналогичное правило, запрещающее ИИ имитировать личности.

Для защиты сотрудников и репутации бренда от глубоких подделок, руководители должны следовать следующим шагам: образовывать сотрудников на постоянной основе, улучшать руководства по фишингу, чтобы включать угрозы глубоких подделок, и соответствующим образом увеличивать или калибровать аутентификацию сотрудников, бизнес-партнеров и клиентов.

Режимы
settings
send
Режим: Стандартный режим
settings
Режимы
menu Меню