Nguy cơ từ công nghệ Deepfake Voice
Thời gian gần đây, nhiều vụ lừa đảo sử dụng trí tuệ nhân tạo (AI) để giả giọng lãnh đạo cấp cao đã được phát hiện. Không chỉ nhằm mục tiêu chiếm đoạt tài sản, các đối tượng còn mạo danh lãnh đạo để đưa ra những chỉ đạo sai lệch, gây ảnh hưởng nghiêm trọng đến hoạt động của cơ quan, doanh nghiệp và tình hình an ninh trật tự địa phương. Đây là một hình thức tấn công nguy hiểm, đòi hỏi các tổ chức và cá nhân phải nâng cao cảnh giác để tránh trở thành nạn nhân.
Deepfake Voice là gì?
Deepfake Voice là công nghệ trí tuệ nhân tạo (AI Voice Cloning) có thể tái tạo giọng nói của bất kỳ ai dựa trên mẫu giọng nói thu thập được. Công nghệ này không chỉ giả giọng mà còn có thể bắt chước ngữ điệu, phong cách nói và cảm xúc của người thật, khiến nạn nhân khó phát hiện sự giả mạo.
Thủ đoạn lừa đảo bằng Deepfake Voice
Công nghệ Deepfake Voice cho phép kẻ gian giả mạo giọng nói của bất kỳ ai chỉ bằng một đoạn ghi âm mẫu ngắn. Do đó, khi đã có giọng nói của lãnh đạo tỉnh, chúng có thể thực hiện các cuộc gọi lừa đảo với nhiều kịch bản khác nhau:
• Giả danh lãnh đạo tỉnh gọi điện yêu cầu chuyển khoản: Kẻ gian gọi điện đến doanh nghiệp, đơn vị hành chính hoặc người dân, sử dụng giọng nói được tạo bằng AI để giả danh chủ tịch tỉnh, giám đốc sở hoặc lãnh đạo ban ngành. Chúng đưa ra lý do như: ủng hộ quỹ từ thiện, hỗ trợ dự án đặc biệt, thanh toán một khoản gấp cho một đơn vị trong tỉnh và yêu cầu chuyển tiền ngay.
• Giả danh lãnh đạo tỉnh, giám đốc sở, hoặc quan chức cấp cao để yêu cầu cấp dưới thực hiện các giao dịch tài chính.
• Dùng giọng giả để chỉ đạo nhân viên kế toán, tài chính chuyển khoản đến một tài khoản lạ với lý do khẩn cấp như hỗ trợ dự án, đóng góp quỹ từ thiện hoặc thanh toán hợp đồng.
• Giả danh lãnh đạo để đưa ra các yêu cầu nội bộ không chính xác, gây rối loạn quy trình làm việc, tác động đến quyết định quan trọng của doanh nghiệp hoặc cơ quan nhà nước.
• Yêu cầu doanh nghiệp thay đổi nội dung hợp đồng, điều chỉnh điều khoản đấu thầu hoặc ra quyết định liên quan đến nhân sự.
Một giám đốc doanh nghiệp chia sẻ: "Tôi đã nhận được một cuộc gọi từ người tự xưng là lãnh đạo tỉnh, yêu cầu thay đổi điều khoản trong hợp đồng đấu thầu. Giọng nói rất giống, ngữ điệu và cách nói chuyện không có gì khác biệt. Nếu không kiểm tra lại với văn phòng, có lẽ tôi đã thực hiện theo yêu cầu này."
Hậu quả nghiêm trọng
Việc giả mạo giọng nói của lãnh đạo không chỉ gây thiệt hại tài chính mà còn dẫn đến nhiều hệ lụy khác:
• Các chỉ đạo sai lệch có thể làm thay đổi quyết định quan trọng trong hoạt động của cơ quan nhà nước, ảnh hưởng đến tiến độ thực hiện các chính sách và dự án...
• Trong doanh nghiệp, các chỉ đạo sai có thể tác động đến hợp đồng kinh tế, gây mất uy tín hoặc thậm chí làm thay đổi chiến lược kinh doanh.
• Gây rối nội bộ, tạo ra sự hoang mang trong dư luận, làm ảnh hưởng đến môi trường đầu tư và phát triển kinh tế.
Một chuyên gia an ninh mạng cảnh báo: "Các công cụ tạo Deepfake Voice hiện nay có thể mô phỏng giọng nói rất chân thực, thậm chí thêm cả cảm xúc và phong cách nói chuyện của từng cá nhân. Điều này khiến việc nhận diện lừa đảo bằng giọng nói trở nên phức tạp hơn rất nhiều."
Biện pháp phòng tránh
Trước nguy cơ ngày càng gia tăng của các vụ giả mạo giọng nói, các tổ chức, doanh nghiệp và cá nhân cần chủ động thực hiện các biện pháp phòng ngừa:
• Xác minh thông tin qua nhiều kênh: Khi nhận được cuộc gọi từ lãnh đạo với nội dung quan trọng, đặc biệt liên quan đến tài chính hoặc quyết định hành chính, cần kiểm tra lại bằng cách gọi trực tiếp qua số chính thức, trao đổi qua email nội bộ hoặc xác nhận khác từ cơ quan chức năng.
• Cẩn trọng với các yêu cầu chuyển khoản khẩn cấp: Kẻ gian thường yêu cầu nạn nhân thực hiện ngay lập tức để không có thời gian suy nghĩ hoặc xác minh. Nếu có dấu hiệu đáng ngờ, hãy dừng lại và kiểm tra trước khi hành động.
• Sử dụng công nghệ phát hiện Deepfake Voice: Một số phần mềm như Deepware Scanner, Resemble Detect có thể hỗ trợ nhận diện giọng nói do AI tạo ra. Tuy nhiên, hiệu quả của các công cụ này vẫn còn hạn chế và cần kết hợp với các biện pháp xác minh truyền thống.
• Nâng cao nhận thức cộng đồng thông qua tập huấn, tuyên truyền về các phương thức lừa đảo mới để nhân viên trong cơ quan, doanh nghiệp có thể nhận diện và phòng tránh kịp thời.
• Nếu phát hiện dấu hiệu lừa đảo, báo ngay cho cơ quan công an để kịp thời xử lý.
Deepfake Voice là công nghệ nguy hiểm nếu bị kẻ xấu lợi dụng để lừa đảo. Mỗi cá nhân, doanh nghiệp và tổ chức cần nâng cao cảnh giác, không nên tin tưởng tuyệt đối vào những cuộc gọi có giọng nói giống lãnh đạo mà chưa qua xác minh. Hãy luôn xác thực thông tin đa chiều, sử dụng các biện pháp kiểm tra và báo cáo kịp thời để bảo vệ tài sản và uy tín của tổ chức.