Від голосу мами не відрізниш: шахраї почали ще майстерніше виманювати мільйони в українців, як не потрапити на гачок

Від голосу мами не відрізниш: шахраї почали ще майстерніше виманювати мільйони в українців, як не потрапити на гачок

Коли не можна вірити власним вухам: deepfake-шахрайство набирає обертів

Шахраї почали ще майстерніше використовувати штучний інтелект для створення фейкових голосів рідних людей, щоб виманювати гроші у довірливих українців. Цей новий тип онлайн-шахрайства стає все популярнішим серед зловмисників через високу ефективність.

Статистика НБУ показує, що у 2024 році 83% шахрайських операцій відбулося в інтернеті, а сума збитків від незаконних дій з платіжними картками зросла на 37% до 1,1 млрд грн. Про це йдеться у пресрелізі "Глобус банку", який поступив до нашої редакції.

Голос рідної людини перетворюється на зброю

Шахраї навчилися створювати надзвичайно переконливі імітації голосів за допомогою технології deepfake. Зловмисники можуть телефонувати та представлятися співробітниками банку, поліцейськими або навіть родичами жертви.

"Спільною рисою більшості випадків шахрайства є те, що зловмисники "переконують" людину добровільно розголосити свої персональні дані. Вони можуть представитися співробітником банку, правоохоронцем або навіть вашим родичем — голосовий deepfake сьогодні здатен на більше, ніж нам здається", — пояснює спікерка банку Анна Довгальська.



Загрузка...