Deepfake: Công nghệ tạo ra các thông tin sai lệch nguy hiểm

Thứ Hai, 04/11/2019, 17:09
Bất kỳ việc nào cũng có hai mặt tốt và không tốt. Sự phát triển của công nghệ tạo ra giá trị tốt thì cũng có khả năng bị lợi dụng để làm những điều có hại.


Công nghệ càng phát triển càng kéo theo nhiều hệ lụy. Chẳng hạn, các ứng dụng máy ảnh trở nên ngày càng tinh vi để người dùng có thể kéo dài chân, loại bỏ mụn nhọt, thêm vào tai động vật và bây giờ, một số thậm chí có thể tạo ra các video giả trông rất thật. Công nghệ được sử dụng để tạo ra nội dung kỹ thuật số như vậy đã nhanh chóng trở nên dễ tiếp cận với công chúng và chúng được gọi là deepfake.

Deepfake đề cập đến các video bị thao túng, hoặc các biểu diễn kỹ thuật số khác được tạo ra bởi trí tuệ nhân tạo tinh vi, mang lại hình ảnh và âm thanh bịa đặt có vẻ như thật. Và bất cứ ai có máy tính và có thể truy cập internet đều có thể tạo ra nội dung deepfake.

Deepfake là gì?

Deepfake là viết tắt của 2 từ deep learning" (học sâu) và "fake" (giả tạo) và là một dạng thức của trí tuệ nhân tạo (AI), được dùng để chỉ những video giả mạo, bị chỉnh sửa, bóp méo khiến chúng trông như thật nhờ sự hỗ trợ của phần mềm trí tuệ nhân tạo, làm mờ đi ranh giới giữa sự thực và dối trá. 

Thực ra phần mềm này được xây dựng để phô diễn sức mạnh của trí tuệ nhân tạo, nhưng đang bị lợi dụng để tấn công người khác. Nạn nhân có thể là bất cứ ai: người nổi tiếng, chính trị gia, quan chức cấp cao...

Nhưng mối nguy hiểm của công nghệ này chính là “giả hóa thật” khiến mọi người nhìn vào đó và tin điều này là thật trong khi không phải vậy. Nguy hiểm hơn khi các phần tử xấu sử dụng công nghệ này để làm giảm uy tín của một ứng cử viên chính trị bằng cách khiến ứng cử viên dường như nói hoặc làm những điều chưa bao giờ thực sự xảy ra. Mà chỉ cần một hai hình ảnh sai lệch về họ thôi, nhiều cộng đồng sẽ đảo điên.

Deepfake và những hệ lụy nguy hiểm

Deepfake khai thác các bức ảnh và video của một người từ nhiều góc độ bằng cách sử dụng các mạng đối nghịch tổng quát (GAN), trong đó hai mô hình máy học (machine learning - ML) tấn công nó. Một mô hình ML đào tạo trên một tập dữ liệu và sau đó tạo ra các video giả mạo, trong khi các mô hình khác cố gắng phát hiện các giả mạo. Trình giả mạo tạo ra hàng giả cho đến khi mô hình ML khác không thể phát hiện giả mạo. 

Và sau nhiều vòng phát hiện và cải tiến, deepfake đã hoàn thành. Tập dữ liệu huấn luyện càng lớn, người giả mạo càng dễ dàng tạo ra một deepfake đáng tin cậy. Đây là lý do tại sao video của các cựu tổng thống và những người nổi tiếng Hollywood thường được làm giả đầu tiên, bởi có rất nhiều cảnh quay video có sẵn công khai.

Ngày nay, bất cứ ai cũng có thể tải xuống phần mềm deepfake và tạo video giả thuyết phục trong thời gian rảnh rỗi. Thực tế là đã có nhiều khuôn mặt của những người nổi tiếng bị gắn lên cơ thể của các ngôi sao khiêu dâm hay khiến các chính trị gia nói những điều buồn cười. 

Nhưng cũng thật dễ dàng để tạo ra một cảnh báo khẩn cấp về một cuộc tấn công sắp xảy ra, hoặc phá hủy cuộc hôn nhân của ai đó bằng một video sex giả, hoặc phá vỡ một cuộc bầu cử sắp tới bằng cách thả một video giả hoặc ghi âm thanh của một trong số các ứng cử viên ngày trước khi bỏ phiếu bắt đầu.

Đây mới chính là điều khiến nhiều người lo lắng, đến nỗi Marco Rubio, Thượng nghị sĩ đảng Cộng hòa, ứng cử viên tổng thống Mỹ năm 2016, ví chúng là tương đương với vũ khí hạt nhân. 

Ông Marco nói: "Ngày xưa, nếu bạn muốn đe dọa Mỹ, bạn cần 10 tàu sân bay, vũ khí hạt nhân và tên lửa tầm xa. Ngày nay, bạn chỉ cần truy cập vào hệ thống internet, hệ thống ngân hàng, vào mạng lưới điện và cơ sở hạ tầng của chúng tôi... Tất cả những gì bạn cần làm là tạo ra một video giả rất thực để có thể làm suy yếu cuộc bầu cử, có thể khiến đất nước chúng ta rơi vào khủng hoảng khủng khiếp và khiến nội bộ chúng tôi chia rẽ sâu sắc".

Rõ ràng, công nghệ deepfake được xem là một trong những công nghệ bị lợi dụng làm những điều tai hại, nguy hiểm nhất.

Làm sao để phát hiện các video bị làm giả?

Phát hiện deepfake là một vấn đề khó khăn. Dĩ nhiên, những “con sâu không chuyên” có thể được phát hiện bằng mắt thường. Các dấu hiệu khác mà máy móc có thể phát hiện bao gồm thiếu chớp mắt hoặc bóng nhìn sai. Các GAN tạo ra deepfake đang trở nên tốt hơn mọi lúc, và chúng ta sẽ sớm phải dựa vào “pháp y kỹ thuật số” để phát hiện các deepfake.

Peter Singer, chiến lược gia về an ninh mạng và quốc phòng Mỹ, nói: “Việc phát hiện ra các video deepfake ngày càng khó hơn khi công nghệ trở nên tiên tiến hơn và video trông thực tế hơn”.

Còn ông John Villasenor, nghiên cứu viên quản trị cấp cao tại Trung tâm Đổi mới Công nghệ thuộc Viện Brookings, ở Washington khẳng định: “Mặc dù AI có thể được sử dụng để tạo ra các deepfake, nhưng cũng có thể được sử dụng để phát hiện ra chúng”. Song ông cũng cảnh báo rằng các kỹ thuật phát hiện thường bị tụt hậu so với các phương pháp tạo video deepfake tiên tiến nhất.

Hiện có nhiều nhà nghiên cứu tập trung vào phát hiện deepfake cũng như tìm cách đối phó. Facebook và Microsoft đã công bố một dự án trị giá 10 triệu USD tạo ra các video deepfake để giúp xây dựng hệ thống phát hiện. 

Google đầu năm nay cũng đã phát hành một bộ dữ liệu giúp phát hiện âm thanh deepfake nhằm ngăn chặn các trường hợp như giám đốc điều hành gần đây ở Mỹ đã bị lừa chuyển hơn 200.000 USD cho một kẻ lừa đảo giả mạo giọng nói ông chủ của vị giám đốc này.

Song có lẽ cách tốt nhất để giảm thiểu tối đa khả năng bị làm giả danh tính là hãy bớt sống ảo.

Bảo Ngọc
.
.
.