Lừa đảo bằng công nghệ Deepfake lại bùng phát

Thứ Ba, 06/02/2024, 08:13

Những ngày cận Tết Nguyên đán 2024, một số đơn vị chuyên trách về an toàn thông tin đã liên tục nhận được các báo cáo và yêu cầu trợ giúp của nạn nhân về các vụ việc lừa đảo sử dụng trí tuệ nhân tạo (AI) tạo giọng nói và hình ảnh giả mạo.

Bằng công nghệ Deepfake (công nghệ ứng dụng AI), các đối tượng lừa đảo đã tạo ra các đoạn video với hình ảnh, khuôn mặt nhân vật giống hệt như hình ảnh của người dùng muốn giả mạo để thực hiện hành vi lừa đảo tài chính khiến không ít nạn nhân sập bẫy.

Lừa đảo bằng công nghệ Deepfake lại bùng phát -0
Người dân cần gọi điện thoại xác minh trước khi chuyển tiền để không trở thành nạn nhân của công nghệ Deepfake. Ảnh minh họa

Chị Nguyễn Thị Hương Mơ, một nhân viên văn phòng ở quận Hoàng Mai (Hà Nội) chia sẻ: Trong một lần trò chuyện với bạn qua facebook messenger, người bạn đã chào và kết thúc câu chuyện nhưng đột nhiên quay lại nhắn tin, hỏi vay tiền và đề nghị chuyển tiền vào một tài khoản ngân hàng. Để yên tâm hơn trước khi chuyển tiền, chị Mơ đã đề nghị gọi video qua messenger để xác thực.

Người bạn đồng ý ngay nhưng cuộc gọi chỉ kéo dài vài giây rồi tắt. Vì đã thấy đúng mặt bạn mình trong cuộc gọi video nên chị Hương đã chuyển đủ số tiền 10 triệu theo đề nghị của bạn. Tuy nhiên, chỉ sau khi chuyển tiền thành công, xác minh lại bằng điện thoại thì chị mới biết mình đã mắc bẫy của hacker.

Anh Hoàng Anh Nghĩa ở quận Cầu Giấy (Hà Nội) cũng rơi vào tình trạng tương tự như chị Mơ. Tuy nhiên, thay vì gọi điện xác minh qua các ứng dụng mạng xã hội (facebook hoặc zalo), anh Nghĩa đã gọi điện thoại trực tiếp cho người bạn của mình thì mới biết là tài khoản facebook của người bạn này đã bị hack và bị kẻ xấu lợi dụng để thực hiện các hành vi lừa đảo bằng công nghệ Deepfake. 

Các chuyên gia an ninh mạng Bkav cho biết, Bkav liên tục nhận được các báo cáo yêu cầu trợ giúp của nạn nhân về các vụ việc lừa đảo liên quan đến công nghệ Deepfake như trường hợp của chị Mơ. Chúng sử dụng AI để tạo sẵn một đoạn video giả mạo gương mặt và giọng nói của chủ tài khoản facebook, hay còn gọi là công nghệ Deepfake. Khi được yêu cầu gọi điện video call để chứng thực, chúng đồng ý nhận cuộc gọi nhưng sau đó nhanh chóng ngắt kết nối để tránh bị phát hiện.

Ông Nguyễn Tiến Đạt, Tổng Giám đốc Trung tâm Nghiên cứu mã độc của Bkav cho biết, khả năng thu thập và phân tích dữ liệu người dùng thông qua AI cho phép tạo ra những chiến lược lừa đảo tinh vi. Điều này cũng có nghĩa là mức độ phức tạp của các kịch bản lừa đảo khi kết hợp giữa Deepfake và GPT sẽ ngày càng cao, khiến việc nhận diện lừa đảo sẽ khó khăn hơn rất nhiều.

Bkav khuyến cáo người dùng cần đặc biệt nâng cao cảnh giác, không cung cấp thông tin cá nhân như căn cước công dân, tài khoản ngân hàng, mã OTP và không chuyển tiền cho người lạ qua điện thoại, mạng xã hội, các trang web có dấu hiệu lừa đảo. Khi có yêu cầu vay/chuyển tiền vào tài khoản qua mạng xã hội, nên thực hiện các phương thức xác thực khác như gọi điện thoại truyền thống hay sử dụng các kênh liên lạc khác để xác nhận lại.

Ông Trần Quang Hưng, Phó Cục trưởng Cục An toàn thông tin, Bộ Thông tin và Truyền thông cũng cho biết: Việc bùng nổ các cuộc gọi lừa đảo trực tuyến Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Công nghệ này có thể được sử dụng không chỉ để lừa đảo trực tuyến mà còn cho các mục đích khác như tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác...

Để nhận diện cuộc gọi lừa đảo Deepfake, theo Cục An toàn thông tin, bằng mắt thường vẫn có thể có một số dấu hiệu nhận biết như thời gian gọi thường rất ngắn, chỉ vài giây. Bên cạnh đó, khuôn mặt của người gọi thường thiếu tính cảm xúc và khá "trơ" khi nói, hoặc tư thế của họ trông lúng túng, không tự nhiên, hướng đầu và cơ thể của họ trong video không nhất quán với nhau.

Ngoài ra, có thể thấy màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến video trông rất giả tạo và không tự nhiên; âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh. Đặc biệt, cuộc gọi lừa đảo Deepfake thường xảy ra tình huống mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi. Thường kẻ gian sẽ ngắt giữa chừng, bảo là mất sóng, sóng yếu...

“Các yếu tố kỳ lạ như trên là báo hiệu đỏ của Deepfake. Người dân nên cảnh giác và tuyệt đối bình tĩnh để xác minh kỹ thông tin bằng cách gọi điện thoại trực tiếp (không gọi qua zalo, facebook hoặc các ứng dụng khác) trước khi quyết định chuyển tiền", ông Hưng cảnh báo, đồng thời cho rằng, trong lúc chờ đợi các giải pháp kỹ thuật để ngăn chặn triệt để hình thức lừa đảo này thì rất cần các cơ quan truyền thông tiếp tục tuyên truyền rộng rãi tới người dân các dấu hiệu nhận biết để phòng tránh lừa đảo trực tuyến bằng công nghệ Deepfake.

Hùng Quân
.
.
.