Tác giả: Triệu Dĩnh
Một báo cáo tương tác dài hơn 50 trang và hơn 10.000 từ tiết lộ toàn bộ quá trình phát triển của OpenAI từ một phòng thí nghiệm nghiên cứu phi lợi nhuận thành một gã khổng lồ vì lợi nhuận.
Gần đây, hai tổ chức giám sát công nghệ phi lợi nhuận lớn, Dự án Midas và Dự án Giám sát Công nghệ, đã cùng nhau công bố một báo cáo điều tra chuyên sâu có tựa đề "OpenAI Archives".
Báo cáo do Giám đốc điều hành Dự án Midas Tyler Johnston chỉ đạo đã mất gần một năm thu thập thông tin công khai và một tháng viết chuyên sâu. Báo cáo được gọi là "biên soạn toàn diện nhất về các mối quan tâm được ghi chép về các hoạt động quản trị doanh nghiệp, tính toàn vẹn của ban lãnh đạo và văn hóa tổ chức của OpenAI cho đến nay".
Bằng cách sàng lọc một lượng lớn thông tin công khai như tài liệu công bố thông tin của công ty, thủ tục tố tụng, thư ngỏ và báo cáo phương tiện truyền thông, báo cáo tương tác dài hơn 10.000 từ này phát hiện ra rằng OpenAI đang hoàn thành một sự thay đổi cơ bản một cách có hệ thống và có chủ đích từ "làm việc vì lợi ích của nhân loại" sang "làm việc vì lợi nhuận của nhà đầu tư". Tổng giám đốc điều hành Altman có một mô hình dài hạn và được ghi chép rõ ràng về sự không nhất quán, thao túng thông tin và trốn tránh giám sát, và khoản đầu tư cá nhân của ông gắn chặt với hoạt động kinh doanh của công ty. OpenAI không nhất quán trong lời nói và hành động về an toàn và minh bạch, và các cam kết công khai của công ty này hoàn toàn không liên quan đến các hoạt động nội bộ của công ty.
Báo cáo được chia thành bốn chủ đề chính: tái cấu trúc, tính toàn vẹn của CEO, tính minh bạch và an ninh, và xung đột lợi ích.
Trong số đó, mức độ mà các giám đốc điều hành và thành viên hội đồng quản trị của OpenAI được hưởng lợi trực tiếp hoặc gián tiếp từ thành công của công ty là điều đáng quan tâm. Điều này bao gồm phân tích danh mục đầu tư của CEO Altman, bao gồm Retro Biosciences, Helion Energy, Reddit, Stripe và nhiều công ty khác có quan hệ đối tác với OpenAI.
Tổ chức lại: Một "sự phản bội sứ mệnh" được lên kế hoạch cẩn thận
Báo cáo chỉ ra rằng OpenAI đang phá bỏ một cách có hệ thống và có chủ đích các trụ cột đạo đức và cấu trúc cốt lõi của nền tảng thành lập của mình, và hành động của công ty này hoàn toàn không phù hợp với các tuyên bố công khai của công ty. Về bản chất, đây là sự thay đổi cơ bản từ "tìm kiếm lợi ích cho nhân loại" sang "tìm kiếm lợi nhuận cho các nhà đầu tư".
Đầu tiên, báo cáo tiết lộ sự sụp đổ đồng thời của hai trụ cột cốt lõi của OpenAI: giới hạn lợi nhuận và giám sát phi lợi nhuận.

Nguồn hình ảnh: trang web openaifiles.org/
Báo cáo tiếp tục bác bỏ lập luận chính thức của OpenAI rằng công ty đã từ bỏ cam kết do "cạnh tranh gay gắt trong ngành". Bằng cách trích dẫn điều lệ ban đầu và email nội bộ của công ty, báo cáo chứng minh rằng OpenAI đã lường trước và chuẩn bị đầy đủ cho sự cạnh tranh khốc liệt trong ngành ngay từ khi mới thành lập. Do đó, việc sử dụng sự cạnh tranh làm cái cớ để phá vỡ lời hứa là một "lịch sử sửa đổi" không thể chấp nhận được. Động lực thực sự đằng sau điều này chính là các nhà đầu tư và giám đốc điều hành công ty tin vào tiềm năng lợi nhuận khổng lồ của công ty, vì vậy việc xóa bỏ giới hạn trở nên rất quan trọng.
Tính chính trực của CEO: Các mô hình hành vi của CEO dẫn đến khủng hoảng lòng tin
Báo cáo còn nêu rõ rằng CEO Altman có hành vi không nhất quán giữa lời nói và hành động, thao túng thông tin và tránh giám sát, ưu tiên lợi ích cá nhân hơn trách nhiệm của tổ chức.
Báo cáo trích dẫn nhiều trường hợp Altman công khai nói dối hoặc gây hiểu lầm về các vấn đề quan trọng. Ví dụ:
Báo cáo còn nêu rõ rằng CEO Altman có hành vi không nhất quán giữa lời nói và hành động, thao túng thông tin và tránh giám sát, ưu tiên lợi ích cá nhân hơn trách nhiệm của tổ chức.
Báo cáo trích dẫn nhiều trường hợp Altman công khai nói dối hoặc gây hiểu lầm về các vấn đề quan trọng. Ví dụ:
Về vấn đề thỏa thuận không bôi nhọ nhân viên, Altman công khai tuyên bố rằng ông không biết về điều khoản "tước quyền sở hữu của nhân viên nghỉ việc", nhưng các tài liệu cho thấy ông đã rõ ràng ủy quyền cho điều khoản này. Khi làm chứng dưới lời tuyên thệ tại Thượng viện, ông tuyên bố rằng ông không có quyền sở hữu OpenAI, nhưng sau đó thừa nhận rằng ông đã gián tiếp nắm giữ nó thông qua một quỹ. Ông đã che giấu hội đồng quản trị trong một thời gian dài về việc ông đích thân sở hữu quỹ đầu tư mạo hiểm OpenAI.
Cựu thành viên hội đồng quản trị Helen Toner đã trực tiếp cáo buộc Altman cản trở việc thực hiện nhiệm vụ của hội đồng quản trị bằng cách "giấu thông tin, trình bày sai sự thật và thậm chí là nói dối trắng trợn". Báo cáo cũng chỉ ra rằng mô hình hành vi này vẫn tiếp tục trong suốt sự nghiệp của ông:
Trong thời gian làm việc tại Loopt, các nhân viên cấp cao đã cố gắng hai lần để hội đồng quản trị sa thải ông vì hành vi "lừa dối và hỗn loạn". Trong thời gian làm việc tại Y Combinator, ông đã bỏ bê nhiệm vụ của mình do tập trung vào các dự án cá nhân và cuối cùng đã bị "yêu cầu rời đi" bởi người sáng lập Paul Graham. Biểu hiện rõ ràng nhất là sau khi bị hội đồng quản trị OpenAI sa thải, ông đã sử dụng ảnh hưởng của mình để đảo ngược tình hình và đưa ra điều kiện "loại bỏ các thành viên hội đồng quản trị đã sa thải ông và đưa những người đồng minh của mình vào" để trở lại, thành công trong việc đạt được "phản ứng dữ dội" đối với hệ thống giám sát.
Rủi ro về hoạt động và an toàn: Sự thất bại có hệ thống của các cam kết về an toàn
Báo cáo tiết lộ rằng OpenAI có sự không nhất quán có hệ thống giữa lời nói và hành động về an toàn và minh bạch, và các cam kết công khai của công ty này không liên quan đến các hoạt động nội bộ. Văn hóa công ty cho thấy xu hướng "tốc độ là tất cả" và đang làm suy yếu, né tránh và thậm chí trừng phạt sự giám sát an toàn nội bộ và sự bất đồng chính kiến để theo đuổi lợi ích thương mại và lợi thế cạnh tranh.
Báo cáo tiết lộ sự không nhất quán có hệ thống của OpenAI về mặt an toàn và minh bạch. Công ty đã hứa sẽ dành 20% tài nguyên điện toán của mình cho một nhóm an toàn "siêu liên kết", nhưng theo cựu giám đốc Jan Leike, các nguồn lực này chưa bao giờ được phân bổ. Trong quá trình phát triển GPT-4o, nhóm an toàn đã được yêu cầu "hoàn thành nhanh chóng" thử nghiệm trước khi sản phẩm được phát hành và công ty đã lên kế hoạch tổ chức lễ ra mắt ngay cả trước khi quá trình đánh giá bắt đầu.
Tệ hơn nữa, công ty đã sử dụng các thỏa thuận chia tay khắc nghiệt để đe dọa những nhân viên đã nghỉ việc, nói rằng họ sẽ mất hàng triệu đô la tiền vốn chủ sở hữu nếu họ chỉ trích công ty. Nhân viên Leopold Aschenbrenner đã bị sa thải vì nộp bản ghi nhớ rủi ro an ninh quốc gia cho hội đồng quản trị, và công ty đã nói rõ với anh ta rằng lý do sa thải anh ta là vì anh ta "vượt quá thẩm quyền" của mình để báo cáo các vấn đề an ninh.
Báo cáo cũng chỉ ra rằng OpenAI đã gặp phải một sự cố bảo mật nghiêm trọng vào năm 2023, trong đó tin tặc đã đột nhập vào công ty và đánh cắp thông tin kỹ thuật về AI, nhưng sự cố này không được báo cáo với chính quyền hoặc công chúng trong một năm. Một số nhân viên hiện tại và trước đây đã cáo buộc công ty có "văn hóa liều lĩnh và bí mật" và đặt "lợi nhuận và tăng trưởng" lên trên nhiệm vụ bảo mật của mình.
Rủi ro xung đột lợi ích: Đầu tư cá nhân của CEO gắn chặt với hoạt động kinh doanh của công ty
Báo cáo tiết lộ chi tiết cách Altman thiết lập một mạng lưới đầu tư cá nhân rộng lớn và đan xen, có xung đột lợi ích sâu sắc và trực tiếp với các quan hệ đối tác chiến lược, công nghệ và kinh doanh của OpenAI, về cơ bản thách thức sứ mệnh đã nêu của OpenAI là "làm việc vì lợi ích của toàn thể nhân loại".
Sau đây là một số trường hợp điển hình:
Helion (năng lượng nhiệt hạch): Altman vừa là chủ tịch vừa là nhà đầu tư lớn của Helion và là giám đốc điều hành của OpenAI. Ông đích thân chỉ đạo thỏa thuận để OpenAI mua một lượng lớn năng lượng từ Helion. Có lý khi đặt câu hỏi liệu thỏa thuận này chủ yếu là để bảo vệ khoản đầu tư cá nhân khổng lồ của ông vào Helion hay không. Worldcoin (dự án tiền điện tử): Altman là người đồng sáng lập Worldcoin. OpenAI đã thiết lập quan hệ đối tác chính thức với Worldcoin (chẳng hạn như cung cấp dịch vụ GPT-4 miễn phí). Mọi người đặt câu hỏi liệu đây có phải là sự hợp tác kinh doanh bình đẳng hay Altman đang sử dụng các nguồn lực và thương hiệu của OpenAI để hỗ trợ và thúc đẩy một dự án rủi ro cao khác của riêng mình. Humane (phần cứng AI): Altman là cổ đông lớn nhất của Humane và các sản phẩm của Humane phụ thuộc rất nhiều vào các mô hình của OpenAI. Là giám đốc điều hành của OpenAI, ông có động lực tài chính cá nhân mạnh mẽ để đảm bảo rằng Humane nhận được các điều khoản ưu đãi hoặc hỗ trợ kỹ thuật ưu tiên, điều này có thể gây tổn hại đến lợi ích của các khách hàng khác và sự công bằng của thị trường.
Những lợi ích phức tạp này đã làm xói mòn nghiêm trọng trách nhiệm ủy thác của Altman với tư cách là CEO. Quyết định của ông là vì sứ mệnh của OpenAI hay vì sự tăng trưởng tài sản cá nhân của ông? Bức tranh mà báo cáo cuối cùng vẽ ra là Altman giống như một nhà điều hành vốn khôn ngoan hơn. Ông khéo léo đặt OpenAI vào trung tâm đế chế kinh doanh cá nhân của mình và sử dụng vị trí CEO của mình để chuyển đổi một cách có hệ thống công nghệ, nguồn lực và các mối quan hệ chiến lược của OpenAI thành động lực tăng trưởng cho danh mục đầu tư cá nhân của mình.
Tất cả bình luận