CẢNH BÁO: THỦ ĐOẠN SỬ DỤNG TRÍ TUỆ NHÂN TẠO (AI) DEEPFAKE VÀ VIDEO CALL ĐỂ LỪA ĐẢO.

18/3/2023, 10:58:30
In trang

Cho dù đã xác minh cuộc gọi, nghe được giọng nói và thấy được hình ảnh người thân qua video call, nhưng một số người vẫn bị lừa chuyển khoản mất tiền, vì giọng nói, video đó là do công nghệ Deepfake tạo thành, chứ không phải là người thật.

Trong thời đại cách mạng công nghiệp 4.0, với sự phát triển vượt bậc của trí tuệ nhân tạo (AI), đặc biệt là Deepfake, đã đang giúp ích rất nhiều trong đời sống của con người. Tuy nhiên, các đối tượng xấu triệt để lợi dụng các thành tựu khoa học này để làm công cụ thực hiện vào các mục đích xấu như lừa đảo, giả mạo, bôi nhọ, thậm chí làm tin giả dạng video.

Vậy, Deepfake là gì? tại sao có thể giả giọng, mặt người thật để lừa đảo?

Deepfake là công nghệ ứng dụng trí tuệ nhân tạo (AI) tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác cao. 

Công nghệ này được xây dựng trên nền tảng machine learning mã nguồn mở của Google. Dựa trên tệp tin hình ảnh, khuôn mặt của một người ngoài đời thực, Deepfake sử dụng thuật toán tái tạo lại khuôn mặt và giọng nói phù hợp với nét mặt, biểu cảm của một người, sau đó tạo ra các video giả mạo hoàn toàn người này ngoài đời thực. Ngoài ra, Deepfake có thể thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói do đó có thể gán khuôn mặt của người này sang người khác trong video một cách chân thực. Càng có nhiều hình ảnh gốc thì Deepfake càng có nhiều dữ liệu để học và tái tạo.

Các thủ đoạn đối tượng sử dụng Deepfake để lừa đảo:

1. Các đối tượng làm giả các video của người thân để thực hiện cuộc gọi video để vay tiền

Nắm bắt được tâm lý người dùng mạng xã hội hiện nay đã cảnh giác với chiêu trò lừa đảo bằng tin nhắn nhờ chuyển tiền, các đối tượng đã sử dụng chiêu lừa đảo tinh vi hơn để vay tiền thông qua hình thức cuộc gọi bằng video giả

Các đối tượng tạo lập các tài khoản mạng xã hội giả mạo, trùng với thông tin ảnh đại diện với người dùng sau đó kết bạn với nạn nhân trong danh sách bạn bè và nhắn tin vay mượn tiền theo kịch bản sẵn có. Trong một số trường hợp, đối tượng chiếm đoạt tài khoản mạng xã hội của người dùng để trực tiếp nhắn tin  cho nạn nhân trong danh sách bạn bè. Để tạo lòng tin với nạn nhân, đối tượng đã truyền tải Deepfake Video có sẵn lên cuộc gọi video (video call), khiến nạn nhân nhận ra hình ảnh và giọng nói của người quen và nhanh chóng chuyển tiền theo yêu cầu của đối tượng.

Với Công nghệ Deepfake, các đối tượng tạo ra các video giả mạo có đội chính xác cao, rất khó phân biệt thật giả. Tuy nhiên, video giả này thường có nội dung chung chung, không phù hợp hoàn toàn với ngữ cảnh thực tế giao tiếp với nạn nhân, có thể kiến nạn nhân nghi ngờ, phát hiện. Để che lấp khuyết điểm trên, các đối tượng thường tạo ra video với âm thanh khó nghe, hình ảnh không rõ nét giống cuộc gọi video tín hiệu chập chờn được thực hiện trong khu vực phủ sóng di động, wifi yếu.

2. Sử dụng Deepfake tạo ra các video mạo danh tung tin giả, sai sự thật.

Các đối tượng đã sử dụng chức năng học hỏi dữ liệu khuôn mặt, hình ảnh và cả giọng nói của con người của Deepfake để tạo ra các video giả mạo các người nổi tiếng, người có có tầm ảnh hưởng, các nhà lãnh đạo để tung các tin tức giả, sai sự thật về chính trị, hay hạ uy tín của nạn nhân nhầm phục vụ mục đích trả thù cá nhân…

3. Sử dụng Deepfake ghép mặt nạn nhân vào video khiêu dâm nhầm vào mục đích bôi nhọ hoặc tống tiền.

Deepfake có khả năng khiến khuôn mặt của một người A được gắn lên cơ thể của người B rất giống thật, đến mức rất khó để nhận biết. Từ đó, Các đối tượng áp dụng công nghệ này để ghép mặt của nạn nhân vào các video khiêu dâm, sau đó sử dụng các video giả này để bội nhọ hoặc thậm chí dùng để tống tiền, chiếm đoạt tài sản.

Làm thế nào để tự bảo vệ trước các hành vi sử dụng Deepfake để lừa đảo?

-       Khi nhận được bất kỳ tin nhắn vay mượn tiền nào thông qua mạng xã hội cần gọi điện trực tiếp thông qua số điện thoại của người nhận để xác minh, cho dù là người thân thiết, vẫn phải xem kỹ thông tin tài khoản nhận tiền có trùng hợp với người đang thực hiện yêu cầu hay không. Thông thường các đối tượng sẽ yêu cầu chuyển tiền sang một tài khoản bên thứ ba hoặc sang một tài khoản có tên gần tương tự.

-       Người dùng mạng xã hội nên hạn chế chia sẻ hình ảnh hay video cá nhân lên trên mạng; đồng thời luôn bảo mật tài khoản mạng xã hội, email bằng mật khẩu có độ khó cao.  Như chúng ta đã biết, để có thể tạo ra hình ảnh và âm thanh giả những kẻ lừa đảo sẽ cần các bản ghi âm, hình ảnh hoặc cảnh quay của bạn để tạo ra những sản phẩm giả. Để ngăn chặn việc dữ liệu hình ảnh, âm thanh của bạn bị sao chép, hãy hạn chế sự hiện diện của người dùng mạng xã hội hoặc đặt tài khoản của bạn ở chế độ riêng tư, chỉ chấp nhận yêu cầu từ những người bạn tin tưởng.

-       Nhận biết các video giả được tạo thành từ Deepfake để tung tin sai sự thật trên Internet như: Chuyển động giật cục, như một đoạn video lỗi; ánh sáng bị thay đổi liên tục từ khung hình này sang khung hình tiếp theo; thay đổi tông màu da liên tục; video có những sự nhấp nháy lạ thường; khẩu hình miệng không đồng bộ với lời nói; hiện lên các đồ vật kỹ thuật số trong hình ảnh; âm thanh, video chất lượng thấp; nhân vật nói liên tục, không chớp mắt.

 Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản, cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ, xử lý kịp thời

ANM