Mặc dù thông tin sai lệch là một vấn đề đang diễn ra mà mạng xã hội chỉ góp phần gây ra, nhưng AI có thể giúp những kẻ xấu lan truyền thông tin sai lệch dễ dàng hơn nhiều.
Năm 2018, thế giới bàng hoàng khi biết công ty tư vấn chính trị Cambridge Analytica của Anh đã thu thập dữ liệu cá nhân của ít nhất 50 triệu người dùng Facebook mà không có sự đồng ý của họ và sử dụng dữ liệu đó để gây ảnh hưởng đến các cuộc bầu cử ở Hoa Kỳ và nước ngoài.
Một cuộc điều tra bí mật của Channel 4 News đã dẫn đến cảnh quay của Giám đốc điều hành lúc bấy giờ của công ty, Alexander Nix, cho thấy công ty không có vấn đề gì với việc cố tình đánh lừa công chúng để ủng hộ các khách hàng chính trị của mình, nói rằng:
“Nói ra thì có vẻ ghê gớm, nhưng đó là những điều không nhất thiết phải đúng.Miễn là họ tin”
Vụ bê bối là một hồi chuông cảnh tỉnh về sự nguy hiểm của cả mạng xã hội và dữ liệu lớn, cũng như nền dân chủ mong manh như thế nào trước sự thay đổi công nghệ nhanh chóng đang diễn ra trên toàn cầu.
Trí tuệ nhân tạo
Làm thế nào để trí tuệ nhân tạo (AI) phù hợp với bức tranh này? Nó cũng có thể được sử dụng để gây ảnh hưởng đến các cuộc bầu cử và đe dọa tính toàn vẹn của các nền dân chủ trên toàn thế giới?
Theo Trish McCluskey, phó giáo sư tại Đại học Deakin và nhiều người khác, câu trả lời là có.
McCluskey nói với Cointelegraph rằng các mô hình ngôn ngữ lớn như ChatGPT của OpenAI “có thể tạo ra nội dung không thể phân biệt được với văn bản do con người viết”, điều này có thể góp phần vào các chiến dịch thông tin sai lệch hoặc phổ biến tin tức giả trực tuyến.
Trong số các ví dụ khác về cách AI có thể đe dọa các nền dân chủ, McCluskey nhấn mạnh khả năng của AI trong việc tạo ra những giả mạo sâu sắc, có thể tạo ra các video về các nhân vật của công chúng như các ứng cử viên tổng thống và thao túng dư luận.
Mặc dù nhìn chung vẫn có thể dễ dàng nhận biết khi nào một video là deepfake, nhưng công nghệ này đang phát triển nhanh chóng và cuối cùng sẽ trở nên không thể phân biệt được với thực tế.
Ví dụ: một video deepfake của cựu Giám đốc điều hành FTX Sam Bankman-Fried được liên kết với một trang web lừa đảo cho thấy đôi môi thường có thể không đồng bộ với từ ngữ như thế nào, khiến người xem cảm thấy có điều gì đó không ổn.
Gary Marcu, một doanh nhân AI và đồng tác giả của cuốn sách Khởi động lại AI: Xây dựng trí tuệ nhân tạo mà chúng ta có thể tin tưởng, đã đồng ý với đánh giá của McCluskey, nói với Cointelegraph rằng trong ngắn hạn, rủi ro lớn nhất do AI gây ra là:
“Mối đe dọa của thông tin sai lệch lớn, tự động, hợp lý đang lấn át nền dân chủ.”
Một bài báo được đánh giá ngang hàng vào năm 2021 của các nhà nghiên cứu Noémi Bontridder và Yves Poullet có tiêu đề “Vai trò của trí tuệ nhân tạo đối với thông tin sai lệch” cũng nêu bật khả năng góp phần tạo ra thông tin sai lệch của các hệ thống AI và gợi ý rằng nó làm như vậy theo hai cách:
“Đầu tiên, chúng [AI] có thể được các bên liên quan độc hại tận dụng để thao túng các cá nhân theo cách đặc biệt hiệu quả và ở quy mô lớn.Thứ hai, chúng trực tiếp khuếch đại sự lan truyền của nội dung đó.”
Ngoài ra, các hệ thống AI ngày nay chỉ hoạt động tốt khi dữ liệu được cung cấp vào chúng, điều này đôi khi có thể dẫn đến phản ứng thiên vị có thể ảnh hưởng đến ý kiến của người dùng.
Làm thế nào để giảm thiểu rủi ro
Mặc dù rõ ràng là AI có khả năng đe dọa nền dân chủ và các cuộc bầu cử trên toàn thế giới, nhưng điều đáng nói là AI cũng có thể đóng một vai trò tích cực trong nền dân chủ và chống lại thông tin sai lệch.
Ví dụ, McCluskey tuyên bố rằng AI có thể được “sử dụng để phát hiện và gắn cờ thông tin sai lệch, tạo điều kiện kiểm tra thực tế, giám sát tính toàn vẹn của cuộc bầu cử,” cũng như giáo dục và thu hút người dân tham gia vào các quy trình dân chủ.
“Chìa khóa,” McCluskey cho biết thêm, “là đảm bảo rằng các công nghệ AI được phát triển và sử dụng một cách có trách nhiệm, với các quy định và biện pháp bảo vệ thích hợp được áp dụng.”
Một ví dụ về các quy định có thể giúp giảm thiểu khả năng sản xuất và phổ biến thông tin sai lệch của AI là Đạo luật Dịch vụ Kỹ thuật số (DSA) của Liên minh Châu Âu .
Khi DSA có hiệu lực hoàn toàn, các nền tảng trực tuyến lớn như Twitter và Facebook sẽ phải đáp ứng một danh sách các nghĩa vụ nhằm giảm thiểu thông tin sai lệch, trong số những thứ khác, hoặc bị phạt tới 6% doanh thu hàng năm của họ.
DSA cũng đưa ra các yêu cầu tăng cường về tính minh bạch đối với các nền tảng trực tuyến này, yêu cầu họ tiết lộ cách nền tảng đề xuất nội dung cho người dùng — thường được thực hiện bằng thuật toán AI — cũng như cách nền tảng đó kiểm duyệt nội dung.
Bontridder và Poullet lưu ý rằng các công ty đang ngày càng sử dụng AI để kiểm duyệt nội dung, điều mà họ cho rằng có thể “đặc biệt có vấn đề”, vì AI có khả năng kiểm duyệt quá mức và ảnh hưởng đến quyền tự do ngôn luận.
DSA chỉ áp dụng cho các hoạt động ở Liên minh Châu Âu; McCluskey lưu ý rằng với tư cách là một hiện tượng toàn cầu, cần có sự hợp tác quốc tế để điều chỉnh AI và chống lại thông tin sai lệch.
McCluskey cho rằng điều này có thể xảy ra thông qua “các thỏa thuận quốc tế về đạo đức AI, tiêu chuẩn về quyền riêng tư dữ liệu hoặc nỗ lực chung để theo dõi và chống lại các chiến dịch thông tin sai lệch”.
Cuối cùng, McCluskey nói rằng “việc chống lại nguy cơ AI góp phần gây ra thông tin sai lệch sẽ đòi hỏi một cách tiếp cận nhiều mặt”, liên quan đến “quy định của chính phủ, sự tự điều chỉnh của các công ty công nghệ, hợp tác quốc tế, giáo dục cộng đồng, giải pháp công nghệ, hiểu biết về phương tiện truyền thông và nghiên cứu đang diễn ra”.
Tất cả bình luận