Tác giả: Guneet Kaur. Nhóm CoinTime dịch
ChatGPT, một mô hình ngôn ngữ lớn có thể trò chuyện với người dùng, là một trong những mô hình đột phá của OpenAI. Mặc dù có rất nhiều lợi thế đối với công nghệ này, nhưng một số người lo lắng rằng nó cần được điều chỉnh theo cách đảm bảo quyền riêng tư, tính trung lập và kiến thức phi tập trung. Một tổ chức tự trị phi tập trung (DAO) có thể là giải pháp cho những vấn đề này.
Đầu tiên, quyền riêng tư là mối quan tâm chính khi sử dụng ChatGPT. Để nâng cao phản hồi của mình, mô hình thu thập dữ liệu từ người dùng — nhưng dữ liệu này có thể chứa thông tin nhạy cảm mà các cá nhân có thể không muốn tiết lộ cho cơ quan trung ương. Chẳng hạn, nếu người dùng tiết lộ cho ChatGPT lịch sử tài chính hoặc y tế của họ, thông tin này có thể được lưu giữ và sử dụng theo cách mà họ không mong đợi hoặc không cho phép. Nếu thông tin được lấy bởi các bên trái phép, nó có thể dẫn đến vi phạm quyền riêng tư hoặc thậm chí là đánh cắp danh tính.
Hơn nữa, ChatGPT có thể được sử dụng cho các hoạt động bất hợp pháp như lừa đảo trực tuyến hoặc tấn công kỹ thuật xã hội. Bằng cách bắt chước một cuộc thảo luận của con người, ChatGPT có thể đánh lừa người dùng tiết lộ thông tin cá nhân hoặc thực hiện các hành động mà họ thường không làm. Điều quan trọng là OpenAI phải thiết lập các chính sách và thủ tục rõ ràng để quản lý và lưu trữ dữ liệu người dùng để giảm bớt những lo lắng về quyền riêng tư này. Một DAO có thể đảm bảo rằng dữ liệu do ChatGPT thu thập được lưu trữ theo cách phi tập trung, trong đó người dùng có nhiều quyền kiểm soát hơn đối với dữ liệu của họ và chỉ những thực thể được ủy quyền mới có thể truy cập dữ liệu đó.
Thứ hai, ngày càng có nhiều lo ngại về sự thiên vị chính trị trong các mô hình trí tuệ nhân tạo và ChatGPT cũng không ngoại lệ. Một số lo ngại rằng khi những mô hình này phát triển hơn nữa, chúng có thể vô tình củng cố những thành kiến xã hội hiện có hoặc có thể giới thiệu những thành kiến mới. Chatbot AI cũng có thể được sử dụng để phổ biến tuyên truyền hoặc thông tin sai lệch. Điều này có thể dẫn đến kết quả không công bằng hoặc bất công có ảnh hưởng tiêu cực đến cả cá nhân và cộng đồng. Các câu trả lời sai lệch có thể xuất phát từ mô hình, phản ánh định kiến của nhà phát triển hoặc dữ liệu đào tạo.
Một DAO có thể đảm bảo rằng ChatGPT được đào tạo dựa trên dữ liệu khách quan và các phản hồi mà nó tạo ra được xem xét kỹ lưỡng bởi nhiều người, chẳng hạn như đại diện từ các công ty, tổ chức học thuật và tổ chức xã hội khác nhau, những người có thể phát hiện và khắc phục bất kỳ sự thiên vị nào. Điều này sẽ giảm thiểu khả năng sai lệch bằng cách đảm bảo rằng các quyết định về ChatGPT được đưa ra với thông tin đầu vào từ nhiều quan điểm khác nhau.
DAO cũng có thể đưa ra một hệ thống kiểm tra và cân bằng để đảm bảo rằng ChatGPT không củng cố những định kiến đã tồn tại trong xã hội hoặc đưa ra bất kỳ định kiến mới nào. Ví dụ: DAO có thể đưa ra một quy trình để kiểm tra các phản hồi của ChatGPT để đảm bảo chúng vô tư và công bằng. Điều này có thể dẫn đến việc các chuyên gia không thiên vị kiểm tra các nhận xét của ChatGPT và chỉ ra bất kỳ trường hợp định kiến nào.
– Ted Cruz (@tedcruz) ngày 4 tháng 2 năm 2023
Cuối cùng, một vấn đề khác với ChatGPT là tập trung kiến thức. Mô hình này có quyền truy cập vào vô số thông tin, điều này có lợi về nhiều mặt. Điều này có thể dẫn đến độc quyền tri thức vì tri thức tập trung trong tay một số ít người hoặc tổ chức. Tương tự như vậy, có nguy cơ là việc chia sẻ kiến thức giữa con người và máy móc sẽ trở thành tiêu chuẩn, khiến các cá nhân hoàn toàn phụ thuộc vào máy móc để có được kiến thức tập thể.
Chẳng hạn, một lập trình viên gặp sự cố mã hóa trước đó có thể đã nhờ đến Stack Overflow để tìm kiếm sự trợ giúp bằng cách đăng câu hỏi của họ và nhận câu trả lời từ các lập trình viên khác, những người có thể đã gặp phải sự cố tương tự và đã tìm ra giải pháp. Tuy nhiên, khi các mô hình ngôn ngữ AI như ChatGPT phát triển nhanh chóng, việc các lập trình viên đặt câu hỏi và sau đó nhận được phản hồi mà không cần phải giao tiếp với người khác trở nên phổ biến hơn. Điều này có thể dẫn đến việc người dùng tương tác ít hơn và chia sẻ ít kiến thức trực tuyến hơn — ví dụ: trên các trang web như Stack Overflow — và sự hợp nhất kiến thức trong các mô hình ngôn ngữ AI. Điều đó có thể làm suy yếu đáng kể quyền tự quyết của con người và quyền kiểm soát đối với việc sản xuất và phân phối kiến thức — khiến chúng ta khó tiếp cận kiến thức hơn trong tương lai.
Tôi thuộc top 2% người dùng trên StackOverflow. Nội dung của tôi ở đó đã được hơn 1,7 triệu người xem. Và có vẻ như tôi sẽ không bao giờ viết bất cứ điều gì ở đó nữa. Đó có thể là một vấn đề lớn hơn nhiều so với nó có vẻ. Bởi vì nó có thể là con chim hoàng yến trong mỏ kiến thức chung của chúng ta. Một… pic.twitter.com/YNZvFtwyfu
– Peter Nixey (@peternixey) ngày 26 tháng 3 năm 2023
Không có câu trả lời dễ dàng cho vấn đề phức tạp về tập trung kiến thức. Tuy nhiên, nó nhấn mạnh sự cần thiết của một chiến lược phi tập trung hơn để sản xuất và chuyển giao tri thức. Một DAO, cung cấp một khuôn khổ cho dân chủ hơn và bút chia sẻ thông tin, có thể giúp đỡ trong tình huống này. Bằng cách sử dụng công nghệ chuỗi khối và hợp đồng thông minh, DAO có thể giúp mọi người và tổ chức có thể làm việc cùng nhau và đóng góp vào khối kiến thức được chia sẻ đồng thời có nhiều quyền kiểm soát hơn đối với cách truy cập kiến thức đó.
Cuối cùng, một DAO có thể cung cấp một khuôn khổ để giám sát và quản lý các hoạt động của ChatGPT, đảm bảo lưu trữ dữ liệu người dùng phi tập trung, các phản hồi được xem xét kỹ lưỡng để phát hiện sai lệch cũng như trao đổi thông tin cởi mở và dân chủ hơn. Việc sử dụng DAO có thể là một giải pháp khả thi cho những lo ngại này, cho phép trách nhiệm giải trình, minh bạch và kiểm soát tốt hơn đối với việc sử dụng ChatGPT và các mô hình ngôn ngữ AI khác. Khi công nghệ AI tiếp tục phát triển, điều quan trọng là chúng ta phải ưu tiên các cân nhắc về đạo đức và thực hiện các bước chủ động để giải quyết các vấn đề tiềm ẩn trước khi chúng trở thành vấn đề.
Tất cả bình luận