Facebook ứng dụng công nghệ trí tuệ nhân tạo để ngăn nạn tự tử

Thứ Bảy, 23/02/2019, 17:33
Hạ tuần tháng 1, Phó Chủ tịch mới của Facebook, Sir Nick Clegg đã nói với hãng BBC rằng Công ty sẽ làm "bất cứ điều gì" để làm cho các nền tảng truyền thông xã hội của họ an toàn hơn với những người trẻ tuổi.


Trả lời về việc ứng dụng công nghệ trí tuệ nhân tạo để ngăn nạn tử tử sau khi xảy ra trường hợp của Molly Russell (14 tuổi) - người đã tự kết liễu đời mình sau khi xem những hình ảnh tự làm đau khổ trên Instagram, Sir Nick Clegg cho biết thêm rằng, một số chuyên gia nhận định, cách tốt nhất là giữ một số hình ảnh không phù hợp để chúng không kích động người xem. Sir Nick Clegg cũng thừa nhận rằng bản thân ông không hề muốn con mình xem và bị lôi cuốn vào những mạng xã hội với câu chuyện thương tâm như vậy.

"Tôi có thể nói với bạn trước tiên là chúng ta sẽ xem xét điều này từ trên xuống dưới, thay đổi mọi thứ chúng ta đang làm nếu cần thiết, để làm cho đúng", Sir Nick Clegg nói: "Chúng tôi đã sớm thực hiện các bước để làm mờ hình ảnh, chặn một số hashtag đã được đưa ra ánh sáng và thứ ba là tiếp tục hoạt động ... với Samaritans và các tổ chức khác".

Năm 2018, Facebook đã gửi 3.500 báo cáo tới các cơ quan địa phương về khả năng nghi vấn người tự tử.

Theo tin từ hãng BBC, Molly Russell đã tự kết liễu đời mình vào năm 2017. Khi gia đình kiểm tra tài khoản Instagram của cô, họ đã tìm thấy những tài liệu đau khổ về trầm cảm và tự tử. Cha cô tin rằng Instagram chịu trách nhiệm một phần cho cái chết của con gái mình. Thống kê xã hội học cho thấy, trung bình cứ mỗi 40 giây trôi qua thì có một người tự tử.

Tự tử chính là lý do phổ biến thứ 2 dẫn đến tử vong ở người có độ tuổi từ 15 đến 29. Gần đây việc sử dụng mạng xã hội gia tăng, đặc biệt là Facebook cũng tác động nhiều đến tâm sinh lý lứa tuổi này và ảnh hưởng tiêu cực đến ý định muốn tự tử. Vì thế, các tính năng mới như chia sẻ trạng thái và hình ảnh trên Facebook giúp ích rất nhiều cho việc nhận biết những người có ý định tự tử.

Và Facebook đang muốn phát huy sức mạnh của trí tuệ nhân tạo (AI) trong việc này. Bước đầu tiên là Facebook cải tiến chức năng của trí thông minh nhân tạo sử dụng trên nên tảng xã hội để có thể phát hiện điều bất thường khi một người chia sẻ về ý định tự vẫn của mình trên mạng xã hội.

Giám đốc an toàn toàn cầu của Facebook Antigone Davis cho biết, một năm trước, Facebook đã bắt đầu sử dụng AI để quét tài khoản của mọi người nhằm tìm các dấu hiệu nguy hiểm về việc tự làm hại bản thân. "Trong tháng đầu tiên khi chúng tôi bắt đầu, chúng tôi đã có khoảng 100 trường hợp phản ứng sắp xảy ra. Kết quả là Facebook đã liên hệ với người ứng cứu khẩn cấp địa phương để kiểm tra.

Để giúp bạn hiểu được công nghệ đang hoạt động tốt như thế nào và những cải thiện nhanh chóng trong năm ngoái, chúng tôi đã có 3.500 báo cáo gửi tới các cơ quan chức năng ở địa phương", Antigone Davis nói: "Điều đó có nghĩa là giám sát AI đang giúp Facebook liên lạc với người trả lời khẩn cấp trung bình khoảng 10 lần một ngày để kiểm tra ai đó và điều đó không ổn".

Cũng theo lời Giám đốc an toàn toàn cầu của Facebook, AI hoạt động bằng cách theo dõi không chỉ những gì một người viết trên mạng mà còn cả cách bạn bè của anh ấy hoặc cô ấy phản hồi. Chẳng hạn, nếu ai đó bắt đầu truyền phát video trực tiếp, AI có thể chọn giai điệu trả lời của mọi người.

"Đó có thể là những cụm từ: "Có thể như", "Làm ơn đừng làm điều này", "Chúng tôi thực sự quan tâm đến bạn"… Có nhiều loại tín hiệu khác nhau sẽ cho chúng ta cảm giác mạnh mẽ rằng ai đó có thể đang đăng nội dung tự gây hại", Antigone Davis nói. Rồi khi phần mềm gắn cờ ai đó, nhân viên của Facebook sẽ quyết định có nên gọi cảnh sát địa phương hay không và AI cũng sẽ tham gia. Như ở Mỹ, cuộc gọi của Facebook thường đến một trung tâm 911 địa phương.

Bác sĩ Mason Marks - thành viên nghiên cứu tại các trường luật Yale và NYU, người gần đây đã viết về hệ thống AI của Facebook lý giải: "Kể từ khi họ giới thiệu việc livestream trên nền tảng của họ, họ đã gặp vấn đề thực sự với những người tự tử khi phát trực tiếp.

Facebook có một mối quan tâm thực sự trong việc ngăn chặn điều đó". Tuy nhiên, Mason Marks chưa dám chắc hệ thống AI này là giải pháp phù hợp, một phần vì Facebook đã từ chối chia sẻ dữ liệu chính, như tỷ lệ chính xác của AI. Có bao nhiêu trong số 3.500 "kiểm tra sức khỏe" đó hóa ra là trường hợp khẩn cấp thực tế?

Facebook đã không đưa ra câu trả lời. Vì thế, Mason Marks lưu ý rằng, sự xem xét kỹ lưỡng của hệ thống là đặc biệt quan trọng bởi vì "hộp thuật toán đen" này, như ông gọi nó, có sức mạnh để kích hoạt một chuyến thăm từ cảnh sát.

"Nó cần phải được thực hiện rất có phương pháp, rất thận trọng, minh bạch và thực sự xem xét các bằng chứng", Mason Marks nói: "Chẳng hạn, các kết quả cần phải được kiểm tra để nhận hậu quả ngoài ý muốn, như một cuộc trò chuyện thẳng thắn về những cuộc trao đổi về tự tử trên các nền tảng khác nhau của Facebook. Mọi người có thể sợ một chuyến viếng thăm của cảnh sát, vì vậy họ có thể lùi lại và không tham gia vào một cuộc đối thoại cởi mở và trung thực. Tôi không chắc đó là một điều tốt."

Nhưng GS Luật học Ryan Calo, đồng Giám đốc Phòng thí nghiệm chính sách công nghệ của Đại học Washington thì bày tỏ quan điểm rằng,  giám sát phương tiện truyền thông xã hội dựa trên AI có thể theo mô hình dự đoán về cách các công nghệ mới dần dần tiến hành thực thi pháp luật.

"Cách nó sẽ xảy ra là chúng ta sẽ lấy thứ gì đó mà mọi người đồng ý là khủng khiếp - thứ gì đó như tự tử, là dịch bệnh, thứ gì đó như khiêu dâm trẻ em, thứ gì đó như khủng bố. Sau đó nếu chúng thể hiện sự hứa hẹn trong các lĩnh vực này, chúng tôi mở rộng chúng ra ngày càng nhiều thứ hơn.

Thực tế, đã có một sự cám dỗ để sử dụng loại AI này phân tích các cuộc trò chuyện trên phương tiện truyền thông xã hội, lần tìm các dấu hiệu của tội phạm sắp xảy ra - đặc biệt là bạo lực trả thù. Một số sở cảnh sát đã cố gắng xem phương tiện truyền thông xã hội để cảnh báo sớm về bạo lực giữa các thành viên băng đảng bị nghi ngờ", Ryan Calo cho biết.

Linh Oanh
.
.
.