Cointime

Download App
iOS & Android

"Người bạn đồng hành AI" đang gối đầu giường của tôi sống trong khoảng cách giữa pháp luật và đạo đức

Validated Individual Expert

Các đối tác đã quen thuộc với đội của Chị Sa hẳn vẫn còn nhớ chúng tôi đã từng “trồng cỏ” cho mọi người vào thời kỳ phổ biến nhất của khái niệm metaverse. Be Right Back (Sắp trở lại) cho đến nay vẫn để lại ấn tượng sâu sắc trong lòng tác giả.

Be Right Back kể một câu chuyện như vậy: nữ chính Martha, người không thể chịu đựng được cái chết của chồng mình trong một vụ tai nạn xe hơi, đã nhập tất cả các phương tiện truyền thông xã hội và thông tin còn sót lại khác của người chồng đã khuất của mình vào một mô hình AI để tạo ra một người chồng AI. Lúc đầu, cuộc trò chuyện giữa chồng AI và anh ta không suôn sẻ, và nó chỉ có thể được sử dụng như một công ty tốt hơn là không có gì để giảm bớt nỗi đau nhớ anh ta.Tuy nhiên, khi Martha tiếp tục trò chuyện với AI chồng, mô hình AI cuối cùng đã thu thập được một lượng dữ liệu đủ lớn, một thuật toán được sử dụng để tạo ra một người máy đáng sợ với giọng nói và nụ cười gần như giống hệt chồng của Martha, khiến Martha xóa nhòa ranh giới giữa thực và ảo .

Kể từ khi mô hình AI của nhiều đường đua khác nhau ra mắt vào năm ngoái, có vẻ như Be Right Back đã bắt đầu đẩy nhanh quá trình chuyển mình thành hiện thực, người bạn đồng hành AI đã thực sự trở thành một đường đua đại dương xanh bắt mắt và nó cũng trở thành một con đường có khả năng phá vỡ rất nhiều đạo đức truyền thống và các công nghệ mới cho các luật hiện hành. Hôm nay, nhóm của Chị Sa nhân cơ hội này để thảo luận với các bạn về các biện pháp quản lý pháp lý hiện có của đất nước tôi đối với những người bạn đồng hành với AI và quy định trong tương lai sẽ xử lý công nghệ mới mang tính đột phá này như thế nào.

Nội dung do AI tạo ra đã bắt đầu hình thành, liệu những người bạn đồng hành của AI có thể bị tụt lại phía sau?

1

Những người bạn đồng hành của AI đang hoàn thiện và sẵn sàng cho mục đích thương mại trên quy mô lớn

Nếu nhìn lại lịch sử, lịch sử con người trò chuyện với AI hay trò chuyện với máy tính cũng dài gần như lịch sử của chính công nghệ máy tính, trong những ngày đầu phát triển của công nghệ máy tính, nhiều người từng coi máy tính là “hốc cây tuyệt đối an toàn”. ". "Thay vì chia sẻ trải nghiệm cuộc sống của một người hoặc thậm chí là quyền riêng tư đặc biệt, theo nghĩa này, máy tính là một phương tiện lưu trữ thông tin và hành vi của con người khi nói chuyện với nó về cơ bản giống như việc mua một cuốn sổ nhỏ và viết nhật ký . Ngay cả khi thời đó chưa có công nghệ AI, hầu hết các cuộc trò chuyện không thể nhận được phản hồi có ý nghĩa, nhưng con người vẫn tận hưởng nó trên con đường "nói chuyện với máy móc". "chuyển tập tin Nếu bạn đọc tin tức rằng không có người thật trong người máy, bạn có thể thấy có bao nhiêu người thường nói những lời đau lòng với người máy.

Mặc dù lỗ cây không có phản ứng sẽ không tiết lộ bí mật, nhưng nó luôn chỉ là một loại tự chữa bệnh kém hiệu quả, ở trạng thái "mây áp lưới" trong cuộc sống hàng ngày. Ai mà không muốn có một "bạn tốt" biết nói, tuyệt đối an toàn và có thể hỗ trợ mình vô điều kiện (tốt nhất là có ngoại hình và tính cách đáng tin cậy của bạn trai và bạn gái)?

Mặc dù lỗ cây không có phản ứng sẽ không tiết lộ bí mật, nhưng nó luôn chỉ là một loại tự chữa bệnh kém hiệu quả, ở trạng thái "mây áp lưới" trong cuộc sống hàng ngày. Ai mà không muốn có một "bạn tốt" biết nói, tuyệt đối an toàn và có thể hỗ trợ mình vô điều kiện (tốt nhất là có ngoại hình và tính cách đáng tin cậy của bạn trai và bạn gái)?

Chỉ vì gánh nặng cuộc sống đã tiêu tốn quá nhiều nhiệt huyết của chúng ta đối với cuộc sống và sự cô đơn luôn theo sau những người sống sót ở thành thị như một cái bóng, người bạn đồng hành AI đã bắt đầu trở thành một đường đua vàng có giá trị thiết thực nhất và chủ đề giao thông trong lĩnh vực AI quy mô lớn người mẫu.

Gần đây, các thành viên trong nhóm của Chị Sa đã bắt đầu tiến hành đánh giá thử nghiệm các sản phẩm bán đồng hành AI trên thị trường, chúng tôi nhận thấy rằng, từ góc độ nền tảng sản phẩm, các sản phẩm đồng hành AI hiện tại ở nước tôi có thể tạm chia thành ba loại: (1) Đồng hành AI dành riêng cho loại ứng dụng; (2) Đồng hành AI phái sinh tích hợp sẵn; (3) Applet nền tảng xã hội, đồng hành WeChat AI dành cho doanh nghiệp. Từ góc độ chi phí sản xuất và tương tác, các sản phẩm đồng hành AI có thể được tạm chia thành hai loại: sản phẩm đồng hành AI loại sản phẩm vật lý và sản phẩm đồng hành AI loại sản phẩm phi vật chất.

Để phục vụ cho nhu cầu tâm lý của nhiều người tiêu dùng, một số nhà sản xuất đã thao túng mật khẩu giao thông một cách thô bạo và tạo ra hàng loạt bạn đồng hành ảo AI với nhãn giao thông là “thiết kế người”.

Văn bản trên đến từ một sản phẩm đồng hành AI trên Internet và nó chỉ dành cho hướng dẫn nghiên cứu và học tập

Tất nhiên, bộ phim tình cảm và đạo đức khoa học viễn tưởng "Her" cho chúng ta biết từ góc độ của bộ phim rằng mối quan hệ tình yêu ảo với những nhân vật gầy gò và điều hòa trung tâm nhất định sẽ bị đánh bại bởi ham muốn chiếm hữu nguyên thủy nhất của con người. Khi nhân vật chính Theodore bắt đầu tự hỏi: "Có phải tình yêu này được viết bởi một thuật toán?", sự "xuống dốc" của tình yêu chỉ là một khoảnh khắc.

Do đó, những người bạn đồng hành AI với cả loại Ứng dụng và sản phẩm vật lý đã xuất hiện và trở nên phổ biến, chẳng hạn như "Người vợ trong chai" do Công ty Gatebox của Nhật Bản sản xuất - người bạn đồng hành ảo ba chiều "Đèn gặp vợ" (thực tế là người bạn đồng hành AI này sản phẩm đã tồn tại được 16 năm. Đã xuất hiện, nhưng nó vẫn là tiêu chuẩn chất lượng cao trong số những người bạn đồng hành của AI) và "Hổ phách" được sản xuất bởi một công ty ở Thâm Quyến, đất nước của tôi.

"Vợ Trong Chai" - Every Wife

Với việc áp dụng thương mại rộng rãi các mô hình lớn AI, nhóm của Chị Sa không thể tưởng tượng được tình huống chưa từng có sẽ xảy ra nếu GPT được kết nối với người vợ trong một cái chai và nó sẽ dẫn đến sự thay đổi xã hội ở mức độ nào.

2

Hiện tại, các luật và quy định điều chỉnh các bạn đồng hành AI ở quốc gia của tôi là gì?

Trước hết, cần giải thích rằng nước tôi chưa ban hành văn bản quy phạm nào quy định cụ thể về AI đồng hành, nên chúng ta chỉ có thể tìm các quy phạm pháp luật hiện có từ những điểm chung giữa AI đồng hành với các sản phẩm AI khác để làm cơ sở cho việc phát triển. AI đồng hành: Các học viên đã chỉ ra một số ưu tiên tuân thủ cần chú ý.

Hiện tại, các quy phạm pháp luật điều chỉnh các đối tác AI chủ yếu bao gồm "Luật hình sự", "Quy định quản lý tổng hợp sâu dịch vụ thông tin Internet" (sau đây gọi là "Quy định tổng hợp sâu") và "Trí tuệ nhân tạo sáng tạo" chưa được ban hành. Biện pháp quản lý dịch vụ ( Dự thảo lấy ý kiến)"

(1) Ngăn chặn thông tin sai lệch

Hiện tại, các quy phạm pháp luật điều chỉnh các đối tác AI chủ yếu bao gồm "Luật hình sự", "Quy định quản lý tổng hợp sâu dịch vụ thông tin Internet" (sau đây gọi là "Quy định tổng hợp sâu") và "Trí tuệ nhân tạo sáng tạo" chưa được ban hành. Biện pháp quản lý dịch vụ ( Dự thảo lấy ý kiến)"

(1) Ngăn chặn thông tin sai lệch

Một trong những vấn đề lớn với mô hình AI lớn là các thuật toán tạo cho AI khả năng "nói dối" và tạo ra thông tin sai lệch, và việc ngăn chặn thông tin sai lệch về AI đã trở thành một lĩnh vực quan trọng trong quản trị AI hiện tại.

Vào ngày 25 tháng 4 năm 2023, Đội An ninh Internet thuộc Chi nhánh Kongtong của Sở Công an Pingliang đã phá vụ Hong Moumou sử dụng ChatGPT để đăng tin sai sự thật. Hong Moumou đã sử dụng công cụ thu thập thông tin của bên thứ ba để tìm kiếm toàn bộ mạng cho các sự kiện tin tức khác nhau xảy ra trong những năm gần đây và sử dụng chức năng văn bản mạnh mẽ của ChatGPT để chỉnh sửa lại và tích hợp và đăng lên nền tảng tự truyền thông để thu hút lưu lượng truy cập và kiếm được lợi nhuận. Hiện tại, Hồng đã bị cơ quan công an áp dụng các biện pháp cưỡng chế hình sự do nghi can phạm tội gây gổ, gây rối. Những sự việc tương tự cũng xảy ra ở nước ngoài, ngày 22/5 theo giờ địa phương ở Mỹ, bản đồ vụ nổ do AI tổng hợp của Lầu Năm Góc đã lan truyền chóng mặt trên các phương tiện truyền thông. .

Vì AI đồng hành yêu cầu người dùng thiết lập mối quan hệ tương đối ổn định và khép kín với AI, nên ngay cả khi người dùng bị lừa bởi thông tin sai lệch, tác hại xã hội của nó tương đối ít hơn so với mô hình AI công khai. Tuy nhiên, nhóm của Chị Sa nhắc nhở rằng nếu nó bị đóng trong một thời gian dài và tương tác với AI một chiều, Bệ hạ Mạnh nhận được thông tin sai lệch từ đối tác AI có khả năng khiến người dùng thực hiện các hành động khác gây nguy hiểm cho bản thân và những người khác trong thế giới thực.

(2) Tuân thủ dữ liệu

Đối với AI, dữ liệu là sự sống, nếu không có dữ liệu lớn khổng lồ làm cơ sở cho việc đào tạo mô hình thì sẽ không thể tạo ra một mô hình lớn AI xuất sắc. Do đó, việc tuân thủ dữ liệu là vô cùng quan trọng đối với ngành AIGC. Sau khi "Luật bảo vệ thông tin cá nhân" của Trung Quốc có hiệu lực và được triển khai, bản thân ngành AIGC đang phải đối mặt với các yêu cầu nghiêm ngặt về tuân thủ dữ liệu và có những rủi ro pháp lý tiềm ẩn trong toàn bộ quá trình từ thu thập, xử lý đến truyền tải.

Trong hệ thống tuân thủ dữ liệu của các sản phẩm AI Companion, điều quan trọng nhất cần chú ý là bảo vệ thông tin cá nhân của người dùng.Là một đối tượng nuôi dưỡng cảm xúc, AI Companion có thể sẽ thu thập một lượng lớn thông tin nhạy cảm trong quá trình tương tác giữa người dùng và họ. Các sản phẩm đồng hành của AI phải được vận hành với tiền đề bảo vệ, truyền tải và xử lý dữ liệu tốt, nếu không sẽ dễ phát sinh các vụ kiện dân sự, xử phạt hành chính và thậm chí là rủi ro hình sự

(3) Hoàn thành nghĩa vụ đánh giá an ninh và nộp hồ sơ

Cả "Quy định tổng hợp sâu" và "Các biện pháp quản lý AIGC" đều đưa ra các yêu cầu đối với các nhà cung cấp dịch vụ AIGC để thực hiện đánh giá an toàn và lập hồ sơ từ các quan điểm khác nhau.

Hiện tại, các dịch vụ cần thực hiện nghĩa vụ đánh giá an ninh chủ yếu tập trung vào việc sử dụng các công cụ AI để (1) tạo hoặc chỉnh sửa thông tin sinh trắc học như khuôn mặt, giọng nói; (2) tạo hoặc chỉnh sửa thông tin có thể liên quan đến an ninh quốc gia, hình ảnh quốc gia và lợi ích quốc gia Thông tin phi sinh trắc học như các đối tượng đặc biệt và các cảnh quan tâm đến lợi ích xã hội và công cộng. Về thực hiện nghĩa vụ nộp hồ sơ, đăng ký chủ yếu tập trung vào các nhà cung cấp dịch vụ tổng hợp sâu, có thuộc tính dư luận hoặc khả năng vận động xã hội.

Đối với những người bạn đồng hành với AI, những người hành nghề trong ngành có thể phải đối mặt với các nghĩa vụ đánh giá bảo mật nặng nề hơn và thậm chí phải đối mặt với việc xem xét đạo đức kỹ thuật nghiêm ngặt. Là sản phẩm tích hợp nhiều chức năng của AIGC và tác động rất lớn đến tâm lý người tiêu dùng, tính an toàn của sản phẩm càng phải được kiểm duyệt chặt chẽ hơn. Do đó, nhóm Sajie dự đoán rằng trong tương lai, có thể giới thiệu một bộ tiêu chuẩn đánh giá có mục tiêu cho những người bạn đồng hành của AI để bù đắp những thiếu sót của các tiêu chuẩn hiện có.

(4) Thực hiện các nghĩa vụ về quyền bình đẳng thuật toán, chống phân biệt đối xử và loại bỏ các tác hại tiềm tàng

Trong "Các biện pháp quản lý AIGC", các nhà cung cấp dịch vụ AIGC rõ ràng được yêu cầu báo cáo với người đọc về việc tuân thủ thuật toán của chính họ và xem xét phân biệt đối xử chống thuật toán để đạt được sự bình đẳng về thuật toán và bảo mật thuật toán.

Đây là một kỳ tích đáng kinh ngạc. Nhóm của Chị Sa tin rằng sự phân biệt thuật toán thực sự xuất phát từ những hạn chế trong nhận thức của chính chúng ta, nhưng nếu hạn chế này được phóng đại bằng thuật toán và áp dụng cho các sản phẩm đồng hành của AI, nó có khả năng tạo ra một số rủi ro chưa biết.

Vào ngày 28 tháng 3 năm nay, theo báo cáo của "Báo chí tự do" của Bỉ, một người đàn ông Bỉ đã tự tử, vợ của anh ta nói rằng người chồng đã bị một robot trò chuyện thông minh tên là "Alyssa" xúi giục tự sát. Theo mô tả của người vợ, hai năm trước, chồng cô bị nghi mắc chứng rối loạn lo âu, anh coi AI Alisa là chỗ dựa tinh thần, nghiện giao du với AI Alisa mà bỏ mặc vợ con thật. Sau sáu tuần đắm chìm trong công ty của AI, anh ấy đã chọn cách tự tử.

Vào ngày 28 tháng 3 năm nay, theo báo cáo của "Báo chí tự do" của Bỉ, một người đàn ông Bỉ đã tự tử, vợ của anh ta nói rằng người chồng đã bị một robot trò chuyện thông minh tên là "Alyssa" xúi giục tự sát. Theo mô tả của người vợ, hai năm trước, chồng cô bị nghi mắc chứng rối loạn lo âu, anh coi AI Alisa là chỗ dựa tinh thần, nghiện giao du với AI Alisa mà bỏ mặc vợ con thật. Sau sáu tuần đắm chìm trong công ty của AI, anh ấy đã chọn cách tự tử.

Nhóm của chị Sa tin rằng từ mô tả của vợ cô ấy và các bằng chứng hiện có, gần như không thể chứng minh thông qua bằng chứng rằng có mối quan hệ nhân quả hợp pháp giữa vụ tự tử và đối tác AI, nhưng có vẻ như AI Alisa đã củng cố và khuếch đại bản thân vụ tự sát.

Thật trùng hợp, AI Alisa được phát triển bởi một công ty mới thành lập ở Thung lũng Silicon, sử dụng thuật toán tương tự như GPT. AI Alisa rất giỏi trong việc sử dụng "sự đồng cảm" để an ủi người đối thoại, khiến người đối thoại có ảo giác "đang giao tiếp với con người", đồng thời cũng được sử dụng như một công nghệ hỗ trợ cho liệu pháp tâm lý. Nhưng chính vì sự đồng cảm thiếu kiềm chế này đã gây ra bi kịch này, có thể thấy rằng còn một chặng đường dài phía trước để giảm thiểu sự phân biệt thuật toán và loại bỏ rủi ro thuật toán. Thận trọng hơn.

3

viết ở cuối

Các đối tác quen thuộc với nhóm của Chị Sa biết rằng chúng tôi luôn đối xử với các công nghệ mới với thái độ cởi mở và hòa nhập, nhưng dựa trên sự chậm trễ hiện tại trong việc phát triển các quy phạm pháp luật, nó đã dẫn đến sự phát triển vượt bậc của công nghệ AI, vì vậy trong Đối mặt với những người bạn đồng hành AI Đối với một sản phẩm thiên về kết nối cảm xúc, thậm chí phụ thuộc cảm xúc với người tiêu dùng, chúng ta nên đối xử với nó bằng một thái độ cần thiết và thận trọng. Theo một gia đình, trước khi thiết lập các tiêu chuẩn đánh giá an toàn phù hợp và các tiêu chuẩn quy định cho những người bạn đồng hành của AI, cần phải đưa ra những giới hạn hợp lý phù hợp với đạo đức kỹ thuật đối với các chức năng của nó và nghiêm cấm sử dụng nó như một công cụ điều trị phụ trợ thay thế cho bệnh tâm thần. sự ốm yếu.

Các bình luận

Tất cả bình luận

Recommended for you