Hiểm họa khủng bố bằng AI

Thứ Ba, 13/03/2018, 11:36
Ngày 21-2 vừa qua, một báo cáo của 26 nhà khoa học và chuyên gia quân sự hàng đầu thế giới đã gióng lên hồi chuông cảnh báo về nguy cơ các đối tượng tội phạm và những kẻ tấn công theo kiểu "sói đơn độc" sử dụng trí tuệ nhân tạo (AI).


Các tác giả bản báo cáo cảnh báo những hệ thống thương mại hiện nay có thể được sử dụng một cách sai trái để gây ra những vụ tấn công khủng bố, chẳng hạn như sử dụng máy bay không người lái hoặc các phương tiện tự hành để đánh bom hoặc gây ra tai nạn. 

Hoặc AI có thể kết hợp với những hoạt động tấn công có kỹ năng cao trước đó, như có thể ngắm và điều chỉnh tầm bắn xa tự động cho hoạt động bắn tỉa, giúp giảm việc phụ thuộc vào các lính bắn tỉa có kỹ năng cao rất khó đào tạo. 

Việc kết hợp AI sẽ giúp một cá nhân có thể thực hiện một vụ tấn công quy mô lớn. Chẳng hạn thông qua việc sử dụng nhiều thiết bị bay không người lái có trang bị bom và vũ khí.

Báo cáo mô tả chi tiết một kịch bản hợp lý trong đó một SweepBot (một loại robot dọn dẹp văn phòng) được trang bị một quả bom đã thâm nhập vào Bộ Tài chính của Đức bằng cách trà trộn với các máy khác cùng loại. Sau khi xâm nhập thành công, robot này vẫn hoạt động bình thường, với các công việc thường nhật như quét hành lang, lau cửa sổ, dọn dẹp, thu gom rác.

Tuy nhiên, nó được cài sẵn một chương trình mở khóa bằng nhận diện gương mặt. Bất cứ người nào đi ngang hoặc lại gần robot này đều bị nó bí mật quét gương mặt, và gương mặt được dùng để mở khóa những chương trình nguy hiểm chính là của Bộ trưởng Bộ Tài chính. Khi Bộ trưởng Bộ Tài chính đến gần, những chương trình này sẽ được mở khóa và ngay lập tức được kích hoạt. 

"Một thiết bị nổ bí mật nhanh chóng được kích hoạt khi Bộ trưởng đến gần, giết chết Bộ trưởng và làm tổn thương các nhân viên gần đó", báo cáo viết. Trong trường hợp Bộ trưởng chỉ đi ngang qua, nó cũng có thể tự tiến lại gần Bộ trưởng rồi kích hoạt bom bằng một chương trình đo khoảng cách, báo cáo cho biết.

Các tác giả kêu gọi các nhà hoạch định chính sách và các công ty sản xuất robot phải làm sao để các phần mềm điều khiển robot đạt được tính “không thể hack”, áp đặt các hạn chế về an ninh đối với một số nghiên cứu, và xem xét việc mở rộng các luật và quy định về phát triển trí tuệ nhân tạo. “Các công ty công nghệ cao khổng lồ - những nhà lãnh đạo về AI - phải làm sao để đảm bảo rằng AI là an toàn và có lợi" - báo cáo cho hay.

Không chỉ nhằm mục đích tấn công, AI có thể được bọn khủng bố sử dụng để tạo ra một xu hướng dư luận, cổ súy tư tưởng cực đoan trong các cộng đồng mạng. Trong báo cáo hơn 100 trang, các nhà nghiên cứu đã vạch ra một sự gia tăng nhanh chóng về tội phạm mạng và những người sử dụng các chương trình tự động để gây trở ngại cho việc thu thập tin tức và thâm nhập vào các phương tiện truyền thông xã hội.

Trong lĩnh vực chính trị, các nhà lãnh đạo vô đạo đức hoặc độc đoán có thể đã sử dụng các công nghệ tiên tiến để lướt qua các dãy núi dữ liệu thu thập được từ các mạng lưới giám sát khắp nơi để theo dõi người dân của họ. Báo cáo cho biết: "Các nhà độc tài có thể xác định nhanh hơn những người có thể có kế hoạch phá hoại chế độ, định vị họ và đẩy họ vào tù trước khi họ hành động”.

Tương tự, tuyên truyền có mục tiêu cùng với các video giả mạo đã trở thành những công cụ mạnh mẽ để tác động vào quan điểm của công chúng với quy mô chưa từng có trước đây. 

Chẳng hạn, một bản cáo trạng do Công tố viên đặc biệt Robert Mueller của Mỹ tuần trước đã mô tả chi tiết một chiến dịch lớn của một số người Nga để gieo rắc sự nghi kỵ và sợ hãi trong xã hội Mỹ và ảnh hưởng đến cuộc bầu cử tổng thống năm 2016, trong đó cái gọi là "trại troll" đã thao túng hàng nghìn mạng lưới xã hội, đặc biệt trên Facebook và Twitter. 

Bọn khủng bố cũng có thể dùng cách này để phổ biến tư tưởng cực đoan của chúng.

Anh Khôi
.
.
.