Giả mạo giọng nói, Deepfake AI có thể phá huỷ tài chính của doanh nghiệp
Sử dụng công nghệ Deepfake AI, những kẻ lừa đảo đã đánh cắp nhiều triệu USD từ những người cả tin bằng cách ngụy tạo giọng nói của người thân, bác sĩ và luật sư của họ để yêu cầu chuyển tiền. Nhiều đến mức, Ủy ban Thương mại Liên bang Mỹ (FTC) cảm thấy cần phải đưa ra cảnh báo về trò lừa đảo AI “nghe giống như một âm mưu trong truyện khoa học viễn tưởng”.
Deepfake AI được nguỵ trang bằng một cuộc gọi hoảng loạn từ một người họ hàng, hoặc cũng có thể là một tên trộm sử dụng bản sao giọng nói, FTC cảnh báo.
|
Ngày nay, có vẻ như rất nhiều người đang lo lắng về tác động tiềm ẩn của trí tuệ nhân tạo (AI). Ngay cả các nhà lãnh đạo công nghệ bao gồm Elon Musk và người đồng sáng lập Apple Steve Wozniak cũng đã ký một bản kiến nghị công khai kêu gọi OpenAI, nhà sản xuất chatbot đàm thoại ChatGPT, tạm dừng phát triển trong sáu tháng để ứng dụng mới này có thể được “kiểm tra và giám sát nghiêm ngặt bởi các chuyên gia độc lập bên ngoài”.
Những lo ngại của họ về tác động mà AI có thể gây ra đối với nhân loại trong tương lai là chính đáng - chúng ta đang nói về một số thứ nghiêm trọng của kẻ hủy diệt, mà không có Schwarzenegger để cứu chúng ta. Nhưng đó là tương lai. Thật không may, hiện tại AI đang được sử dụng đã bắt đầu có tác động lớn, thậm chí phá hủy tài chính của các doanh nghiệp và cá nhân. Nhiều đến mức Ủy ban Thương mại Liên bang Mỹ (FTC) cảm thấy cần phải đưa ra cảnh báo về một trò lừa đảo AI “nghe giống như một âm mưu trong truyện khoa học viễn tưởng”.
FTC gợi ý rằng nếu ai đó trông giống như bạn bè hoặc người thân yêu cầu tiền - đặc biệt nếu họ muốn được thanh toán qua chuyển khoản ngân hàng, tiền điện tử hoặc thẻ quà tặng - bạn nên gác máy và gọi trực tiếp cho người đó để xác minh câu chuyện của họ.
|
Nhưng đây không phải là khoa học viễn tưởng. Sử dụng công nghệ Deepfake AI, những kẻ lừa đảo vào năm ngoái đã đánh cắp khoảng 11 triệu USD từ những người tiêu dùng cả tin bằng cách ngụy tạo giọng nói của những người thân yêu, bác sĩ và luật sư để yêu cầu tiền từ người thân và bạn bè của họ.
“Tất cả những gì (kẻ lừa đảo) cần là một đoạn âm thanh ngắn giọng nói của thành viên gia đình bạn - thứ mà hắn có thể lấy từ nội dung được đăng trực tuyến và một chương trình nhân bản giọng nói” - FTC cho biết. “Khi kẻ lừa đảo gọi cho bạn, anh ta sẽ nói giống như người thân của bạn”.
Những sự cố này không chỉ giới hạn ở người tiêu dùng, các doanh nghiệp thuộc mọi quy mô đang nhanh chóng trở thành nạn nhân của kiểu gian lận mới này.
Đó là điều đã xảy ra với một giám đốc ngân hàng ở Hồng Kông, người đã nhận được những cuộc gọi giả mạo rất thân mật từ một giám đốc ngân hàng yêu cầu chuyển khoản, kẻ lừa đảo đã làm tốt đến mức cuối cùng vị giám đốc kia đã chuyển 35 triệu USD và không bao giờ lấy lại được nữa.
Một vụ việc tương tự đã xảy ra tại một công ty năng lượng có trụ sở tại Vương quốc Anh, nơi một nhân viên vô tình chuyển khoảng 250.000 USD cho bọn tội phạm sau khi bị lừa người nhận là giám đốc điều hành của công ty mẹ. Ít nhất 8 người cao tuổi ở Canada đã mất tổng cộng 200.000 USD vào đầu năm nay trong một vụ lừa đảo rõ ràng là nhân bản giọng nói...
Người phát ngôn của FTC cho biết, cơ quan này không thể đưa ra ước tính về số lượng báo cáo về những người đã bị lừa bởi những tên trộm sử dụng công nghệ nhân bản giọng nói.
|
FBI hiện đang cảnh báo các doanh nghiệp rằng, bọn tội phạm đang sử dụng Deepfakes để tạo “nhân viên” trực tuyến cho các vị trí làm việc từ xa nhằm có quyền truy cập vào thông tin của công ty.
Công nghệ video Deepfake đã được sử dụng ngày càng nhiều trong vài năm qua, chủ yếu nhắm vào những người nổi tiếng và chính trị gia như Mark Zuckerberg, Tom Cruise, Barack Obama và Donald Trump, nhưng chính tác động tiềm ẩn đối với nhiều chủ doanh nghiệp nhỏ cả tin mới là điều khiến lo lắng nhất.
Các video Deepfak ngày càng tinh vi hơn cho thấy những người nổi tiếng làm và nói những điều họ không làm và các chuyên gia cho rằng, công nghệ sao chép giọng nói cũng đang phát triển.
Subbarao Kambhampati, giáo sư khoa học máy tính tại Đại học bang Arizona cho biết, chi phí nhân bản giọng nói cũng đang giảm, khiến những kẻ lừa đảo dễ tiếp cận hơn. “Trước đây, nó đòi hỏi kỹ thuật phức tạp, nhưng bây giờ, kẻ gian nhỏ cũng có thể sử dụng" - Kambhampati nói.
|
Nhiều người trong chúng ta đã xuất hiện trên các video được truy cập công khai, có thể là trên YouTube, Facebook hoặc LinkedIn. Nhưng ngay cả những người không xuất hiện trên video cũng có thể bị “đánh cắp” giọng nói do những kẻ lừa đảo sao chép tin nhắn thư thoại gửi đi, hoặc thậm chí bằng cách thực hiện các cuộc gọi giả vờ để lôi kéo “con mồi” vào cuộc trò chuyện với mục tiêu duy nhất là ghi lại giọng nói của họ.
Điều này còn tệ hơn cả phần mềm độc hại hoặc mã độc tống tiền. Nếu được sử dụng hiệu quả, nó có thể gây ra những tổn thất rất lớn và ngay lập tức. Vậy phải làm gì?
Để ngăn chặn lừa đảo, bất kỳ người quản lý tài chính nào trong doanh nghiệp đều không được phép thực hiện các giao dịch tài chính như chuyển tiền mặt dựa trên một cuộc điện thoại gọi đến. Mọi người đều yêu cầu gọi lại, kể cả CEO của công ty, để xác minh nguồn tin.
Quan trọng không kém, không được phép giao dịch trước với một số tiền nhất định mà không có sự chấp thuận trước bằng văn bản của các lãnh đạo trong công ty. Tất nhiên cũng phải có tài liệu bằng văn bản - yêu cầu hoặc hợp đồng đã ký - làm cơ sở cho yêu cầu giao dịch.
Các loại kiểm soát này dễ thực hiện hơn trong một công ty lớn có nhiều bộ phận, nhưng các kế toán viên tại các doanh nghiệp nhỏ hơn thường thấy mình là nạn nhân của việc quản lý vượt quyền, điều này có thể được giải thích theo kiểu: “Tôi không quan tâm các quy tắc là gì, đây là việc của tôi, vì vậy hãy chuyển tiền ngay đi!”. Do đó, nếu các chủ doanh nghiệp đang đọc điều này thì vui lòng: thiết lập các quy tắc và tuân theo chúng. Đó là vì lợi ích của chính bạn.
Công nghệ AI như ChatGPT mang đến một số rủi ro đáng sợ trong tương lai cho nhân loại, nhưng đó là tương lai. Hiện tại, công nghệ Deepfake bắt chước giọng nói của các giám đốc điều hành và giả mạo nhân viên đang tồn tại với số lượng, tần suất ngày càng tăng. Đây mới là nguy hiểm hiện hữu và đáng báo động./.
Hoàng Lê
TBTCVN
|