Tác giả: Cynic Shigeru, CGV Research
Tận dụng sức mạnh của thuật toán, sức mạnh tính toán và dữ liệu, những tiến bộ trong công nghệ AI đang xác định lại ranh giới của việc xử lý dữ liệu và ra quyết định thông minh. Đồng thời, DePIN thể hiện sự thay đổi mô hình từ cơ sở hạ tầng tập trung sang các mạng dựa trên blockchain phi tập trung.
Khi thế giới tiếp tục tăng tốc theo hướng chuyển đổi kỹ thuật số, AI và DePIN (cơ sở hạ tầng vật lý phi tập trung) đã trở thành những công nghệ cơ bản thúc đẩy sự thay đổi trong mọi tầng lớp xã hội. Việc tích hợp AI và DePIN sẽ không chỉ thúc đẩy quá trình lặp lại nhanh chóng và ứng dụng công nghệ rộng rãi mà còn mở ra một mô hình dịch vụ an toàn, minh bạch và hiệu quả hơn, mang lại những thay đổi sâu rộng cho nền kinh tế toàn cầu.
DePIN: Phân quyền chuyển từ ảo sang hiện thực, trụ cột của nền kinh tế số
DePIN là tên viết tắt của Cơ sở hạ tầng vật lý phi tập trung. Theo nghĩa hẹp, DePIN chủ yếu đề cập đến mạng phân tán của cơ sở hạ tầng vật lý truyền thống được hỗ trợ bởi công nghệ sổ cái phân tán, như mạng điện, mạng truyền thông, mạng định vị, v.v. Nói rộng ra, tất cả các mạng phân tán được hỗ trợ bởi các thiết bị vật lý đều có thể được gọi là DePIN, chẳng hạn như mạng lưu trữ và mạng máy tính.
từ: Messari
Nếu Crypto đã mang lại những thay đổi phi tập trung ở cấp độ tài chính thì DePIN là một giải pháp phi tập trung trong nền kinh tế thực. Có thể nói máy khai thác PoW là một loại DePIN. DePIN đã là trụ cột cốt lõi của Web3 ngay từ ngày đầu.
Ba yếu tố của AI—thuật toán, sức mạnh tính toán và dữ liệu, DePIN độc quyền sở hữu yếu tố thứ hai
Sự phát triển của trí tuệ nhân tạo thường được coi là dựa vào ba yếu tố chính: thuật toán, sức mạnh tính toán và dữ liệu. Thuật toán đề cập đến các mô hình toán học và logic chương trình điều khiển hệ thống AI, sức mạnh tính toán đề cập đến các tài nguyên điện toán cần thiết để thực thi các thuật toán này và dữ liệu là cơ sở để đào tạo và tối ưu hóa các mô hình AI.
Trong ba yếu tố nào là quan trọng nhất? Trước khi chatGPT xuất hiện, mọi người thường coi nó như một thuật toán, nếu không thì các hội nghị học thuật và tạp chí sẽ không tràn ngập các thuật toán tinh chỉnh lần lượt. Nhưng khi chatGPT và mô hình ngôn ngữ lớn LLM hỗ trợ trí thông minh của nó được ra mắt, mọi người bắt đầu nhận ra tầm quan trọng của hai mô hình sau. Sức mạnh tính toán khổng lồ là điều kiện tiên quyết cho sự ra đời của các mô hình, chất lượng và tính đa dạng của dữ liệu là yếu tố quyết định để xây dựng một hệ thống AI mạnh mẽ và hiệu quả, ngược lại, các yêu cầu về thuật toán không còn khắt khe như thường lệ.
Trong thời đại của các mô hình lớn, AI đã thay đổi từ sự khéo léo tỉ mỉ sang những viên gạch bay mạnh mẽ, nhu cầu về sức mạnh tính toán và dữ liệu ngày càng tăng và DePIN có thể cung cấp được điều đó. Khuyến khích mã thông báo thúc đẩy thị trường dài hạn, đồng thời sức mạnh tính toán và lưu trữ khổng lồ ở cấp độ người tiêu dùng sẽ trở thành nguồn dinh dưỡng tốt nhất cho các mô hình lớn.
Phân cấp AI không phải là một lựa chọn, mà là phải
Trong thời đại của các mô hình lớn, AI đã thay đổi từ sự khéo léo tỉ mỉ sang những viên gạch bay mạnh mẽ, nhu cầu về sức mạnh tính toán và dữ liệu ngày càng tăng và DePIN có thể cung cấp được điều đó. Khuyến khích mã thông báo thúc đẩy thị trường dài hạn, đồng thời sức mạnh tính toán và lưu trữ khổng lồ ở cấp độ người tiêu dùng sẽ trở thành nguồn dinh dưỡng tốt nhất cho các mô hình lớn.
Phân cấp AI không phải là một lựa chọn, mà là phải
Tất nhiên, sẽ có người hỏi, vì sức mạnh tính toán và dữ liệu đều có sẵn trong phòng máy AWS và chúng tốt hơn DePIN về độ ổn định và trải nghiệm người dùng, tại sao chúng ta nên chọn DePIN thay vì dịch vụ tập trung?
Câu nói này tự nhiên có lý, dù sao nhìn tình hình hiện tại, hầu như tất cả các mô hình lớn đều do các công ty Internet lớn trực tiếp hoặc gián tiếp phát triển, Microsoft đứng sau chatGPT, Google đứng sau Gemini, hầu như mọi công ty Internet lớn ở Trung Quốc đều có một. Mô hình lớn. Tại sao? Bởi vì chỉ những công ty Internet lớn mới có đủ dữ liệu chất lượng cao và sức mạnh tính toán được hỗ trợ bởi nguồn tài chính mạnh. Nhưng điều này đã sai, mọi người không còn muốn bị những gã khổng lồ Internet kiểm soát nữa.
Một mặt, AI tập trung mang đến những rủi ro về quyền riêng tư và bảo mật dữ liệu, đồng thời có thể bị kiểm duyệt và kiểm soát; mặt khác, AI do những gã khổng lồ Internet sản xuất sẽ tăng cường hơn nữa sự phụ thuộc của con người, dẫn đến sự tập trung thị trường và tăng các rào cản đối với sự đổi mới.
từ: https://www.gensyn.ai/
Nhân loại không còn cần một Martin Luther trong thời đại AI nữa, con người nên có quyền nói chuyện trực tiếp với Chúa.
DePIN từ góc độ kinh doanh: Giảm chi phí và tăng hiệu quả là chìa khóa
Ngay cả khi gạt cuộc tranh luận về giá trị giữa phân quyền và tập trung sang một bên, từ góc độ kinh doanh, việc sử dụng DePIN cho AI vẫn có giá trị.
Trước hết, chúng ta cần nhận thức rõ ràng rằng mặc dù những gã khổng lồ Internet có trong tay một lượng lớn tài nguyên card đồ họa cao cấp, nhưng sự kết hợp của các card đồ họa cấp tiêu dùng nằm rải rác trong khu vực tư nhân cũng có thể tạo thành một mạng lưới sức mạnh tính toán rất đáng kể. , đó là hiệu ứng đuôi dài của sức mạnh tính toán. Tốc độ chạy không tải của loại card đồ họa dành cho người tiêu dùng này thực sự rất cao. Miễn là các ưu đãi do DePIN cung cấp có thể vượt quá hóa đơn tiền điện, người dùng sẽ có động cơ đóng góp sức mạnh tính toán cho mạng. Đồng thời, tất cả cơ sở vật chất đều do chính người dùng quản lý, mạng DePIN không cần phải chịu các chi phí vận hành không thể tránh khỏi của các nhà cung cấp tập trung mà chỉ cần tập trung vào chính việc thiết kế giao thức.
Đối với dữ liệu, mạng DePIN có thể giải phóng tính khả dụng của dữ liệu tiềm năng và giảm chi phí truyền tải thông qua điện toán biên và các phương pháp khác. Đồng thời, hầu hết các mạng lưu trữ phân tán đều có chức năng chống trùng lặp tự động, giúp giảm bớt công việc dọn dẹp dữ liệu đào tạo AI.
Cuối cùng, Kinh tế học tiền điện tử do DePIN mang lại sẽ nâng cao khả năng chịu lỗi của hệ thống và dự kiến sẽ đạt được tình hình đôi bên cùng có lợi cho nhà cung cấp, người tiêu dùng và nền tảng.
từ: UCLA
Trong trường hợp bạn không tin, nghiên cứu mới nhất của UCLA cho thấy sử dụng điện toán phi tập trung đạt hiệu suất tốt hơn 2,75 lần so với các cụm GPU truyền thống có cùng mức chi phí, cụ thể là nhanh hơn 1,22 lần và rẻ hơn 4,83 lần.
Con đường khó khăn phía trước: AIxDePIN sẽ gặp phải thách thức gì?
Trong trường hợp bạn không tin, nghiên cứu mới nhất của UCLA cho thấy sử dụng điện toán phi tập trung đạt hiệu suất tốt hơn 2,75 lần so với các cụm GPU truyền thống có cùng mức chi phí, cụ thể là nhanh hơn 1,22 lần và rẻ hơn 4,83 lần.
Con đường khó khăn phía trước: AIxDePIN sẽ gặp phải thách thức gì?
Chúng ta chọn lên mặt trăng trong thập kỷ này và làm những việc khác, không phải vì chúng dễ mà vì chúng khó.
--John Fitzgerald Kennedy
Vẫn còn nhiều thách thức trong việc xây dựng các mô hình trí tuệ nhân tạo mà không cần sự tin cậy bằng cách sử dụng bộ lưu trữ phân tán và điện toán phân tán của DePIN.
Xác minh công việc
Về bản chất, tính toán các mô hình deep learning và khai thác PoW đều là những phép tính chung, lớp thấp nhất là sự thay đổi tín hiệu giữa các mạch cổng. Từ góc độ vĩ mô, khai thác PoW là một "phép tính vô dụng", cố gắng thu được giá trị băm với n số 0 được bắt đầu bằng vô số phép tính tạo số ngẫu nhiên và hàm băm; trong khi các phép tính học sâu là "các phép tính hữu ích", thông qua vô số việc tạo số ngẫu nhiên và tính toán hàm băm. Đạo hàm xuôi và đạo hàm lùi tính toán các giá trị tham số của từng lớp trong deep learning để xây dựng mô hình AI hiệu quả.
Thực tế là những "phép tính vô dụng" như khai thác PoW sử dụng hàm băm, tính toán hình ảnh từ ảnh gốc thì dễ nhưng tính toán ảnh gốc từ ảnh lại rất khó nên bất kỳ ai cũng có thể dễ dàng và nhanh chóng xác minh tính hợp lệ của phép tính; Đối với việc tính toán mô hình deep learning, do cấu trúc phân cấp nên đầu ra của mỗi lớp được dùng làm đầu vào của lớp tiếp theo. Do đó, việc xác minh tính hợp lệ của phép tính đòi hỏi phải thực hiện tất cả các công việc trước đó chứ không thể được xác minh một cách đơn giản và hiệu quả.
từ: AWS
Việc xác minh công việc là rất quan trọng, nếu không, nhà cung cấp phép tính hoàn toàn không thể thực hiện phép tính và gửi kết quả được tạo ngẫu nhiên.
Một ý tưởng là yêu cầu các máy chủ khác nhau thực hiện các nhiệm vụ tính toán giống nhau, sau đó xác minh tính hiệu quả của công việc bằng cách lặp lại quá trình thực thi và kiểm tra xem nó có giống nhau hay không. Tuy nhiên, phần lớn các tính toán mô hình là không xác định và không thể sao chép các kết quả tương tự ngay cả trong cùng một môi trường điện toán và chỉ có thể giống nhau theo nghĩa thống kê. Ngoài ra, việc tính hai lần sẽ dẫn đến chi phí tăng nhanh, điều này không phù hợp với mục tiêu chính của DePIN là giảm chi phí và tăng hiệu quả.
Một loại ý tưởng khác là cơ chế Optimistic, cơ chế này đầu tiên tin tưởng một cách lạc quan rằng kết quả đã được tính toán một cách hiệu quả, đồng thời cho phép mọi người kiểm tra kết quả tính toán, nếu tìm thấy lỗi thì có thể gửi Bằng chứng gian lận. Thỏa thuận sẽ trừng phạt kẻ lừa đảo và báo cáo nó.
Song song hóa
Như đã đề cập trước đó, DePIN chủ yếu tận dụng thị trường sức mạnh tính toán tiêu dùng dài hạn, điều đó có nghĩa là sức mạnh tính toán mà một thiết bị có thể cung cấp tương đối hạn chế. Đối với các mô hình AI lớn, việc đào tạo trên một thiết bị sẽ mất rất nhiều thời gian và phải sử dụng song song để rút ngắn thời gian đào tạo.
Khó khăn chính trong việc song song hóa đào tạo deep learning nằm ở sự phụ thuộc giữa các nhiệm vụ trước đó và nhiệm vụ tiếp theo, điều này khiến cho việc song song hóa khó đạt được.
Hiện nay, việc song song hóa đào tạo deep learning chủ yếu được chia thành song song dữ liệu và song song mô hình.
Song song dữ liệu đề cập đến việc phân phối dữ liệu trên nhiều máy. Mỗi máy lưu tất cả các tham số của một mô hình, sử dụng dữ liệu cục bộ để đào tạo và cuối cùng tổng hợp các tham số của từng máy. Song song dữ liệu hoạt động tốt khi lượng dữ liệu lớn, nhưng yêu cầu giao tiếp đồng bộ để tổng hợp các tham số.
Song song mô hình có nghĩa là khi kích thước của mô hình quá lớn không thể nhét vừa một máy duy nhất, mô hình có thể được chia ra trên nhiều máy và mỗi máy lưu lại một phần tham số của mô hình. Tuyên truyền tiến và lùi yêu cầu giao tiếp giữa các máy khác nhau. Tính song song của mô hình có lợi thế khi mô hình lớn, nhưng chi phí truyền thông trong quá trình truyền tiến và truyền ngược lại lớn.
Thông tin độ dốc giữa các lớp khác nhau có thể được chia thành cập nhật đồng bộ và cập nhật không đồng bộ. Cập nhật đồng bộ đơn giản và trực tiếp nhưng sẽ làm tăng thời gian chờ đợi; thuật toán cập nhật không đồng bộ có thời gian chờ đợi ngắn nhưng sẽ gây ra các vấn đề về tính ổn định.
từ: Đại học Stanford, Học sâu song song và phân tán
sự riêng tư
Xu hướng toàn cầu về bảo vệ quyền riêng tư cá nhân đang gia tăng và các chính phủ trên thế giới đang tăng cường bảo vệ quyền riêng tư dữ liệu cá nhân. Mặc dù AI sử dụng rộng rãi các bộ dữ liệu công cộng, nhưng điều thực sự khác biệt giữa các mô hình AI khác nhau là dữ liệu người dùng độc quyền của mỗi doanh nghiệp.
Làm cách nào để có được lợi ích từ dữ liệu độc quyền trong quá trình đào tạo mà không làm lộ quyền riêng tư? Làm thế nào để đảm bảo các thông số của mô hình AI được xây dựng không bị rò rỉ?
Đây là hai khía cạnh của quyền riêng tư, quyền riêng tư dữ liệu và quyền riêng tư của mô hình. Quyền riêng tư dữ liệu bảo vệ người dùng, trong khi quyền riêng tư của mô hình bảo vệ tổ chức xây dựng mô hình. Trong tình hình hiện tại, quyền riêng tư dữ liệu quan trọng hơn nhiều so với quyền riêng tư của mô hình.
Một loạt các giải pháp đang được cố gắng giải quyết vấn đề riêng tư. Học tập liên kết đảm bảo quyền riêng tư của dữ liệu bằng cách đào tạo tại nguồn dữ liệu, lưu trữ dữ liệu cục bộ và truyền các tham số mô hình; và bằng chứng không có kiến thức có thể trở thành một ngôi sao đang lên.
Phân tích trường hợp: Có những dự án chất lượng cao nào trên thị trường?
gensyn
Gensyn là mạng điện toán phân tán được sử dụng để đào tạo các mô hình AI. Mạng sử dụng một lớp blockchain dựa trên Polkadot để xác minh rằng các tác vụ deep learning đã được thực thi chính xác và kích hoạt thanh toán thông qua các lệnh. Được thành lập vào năm 2020, nó đã tiết lộ khoản tài trợ Series A trị giá 43 triệu đô la Mỹ vào tháng 6 năm 2023, dẫn đầu là a16z.
Gensyn sử dụng siêu dữ liệu của quy trình tối ưu hóa dựa trên độ dốc để xây dựng chứng chỉ của công việc được thực hiện, được thực thi nhất quán bởi giao thức chính xác đa chi tiết, dựa trên biểu đồ và trình đánh giá chéo để cho phép các công việc xác thực được chạy lại và so sánh về tính nhất quán, và cuối cùng là bằng dây chuyền Hãy tự mình xác nhận để đảm bảo tính hợp lệ của phép tính. Để tăng cường hơn nữa độ tin cậy của việc xác minh công việc, Gensyn giới thiệu đặt cược để tạo động lực.
Có bốn loại người tham gia trong hệ thống: người gửi, người giải quyết, người xác minh và người báo cáo.
- Người gửi là người dùng cuối của hệ thống, họ cung cấp các nhiệm vụ cần tính toán và được trả tiền cho các đơn vị công việc đã hoàn thành.
- Người giải quyết là nhân viên chính của hệ thống, thực hiện đào tạo mô hình và tạo ra bằng chứng để người xác minh kiểm tra.
- Trình xác nhận là chìa khóa để liên kết quy trình đào tạo không xác định với tính toán tuyến tính xác định, sao chép bằng chứng giải từng phần và so sánh khoảng cách với ngưỡng dự kiến.
- Người tố cáo là tuyến phòng thủ cuối cùng, kiểm tra công việc của người xác minh và đưa ra các thách thức và được khen thưởng sau khi vượt qua thử thách.
Người giải quyết cần phải cam kết, người tố cáo kiểm tra công việc của người giải quyết, nếu phát hiện ra hành vi xấu xa sẽ thách thức nó, sau khi thử thách được vượt qua, số token mà người giải quyết cam kết sẽ bị phạt và người tố giác sẽ được thưởng.
Theo dự đoán của Gensyn, giải pháp này được kỳ vọng sẽ giảm chi phí đào tạo xuống còn 1/5 so với các nhà cung cấp tập trung.
Người giải quyết cần phải cam kết, người tố cáo kiểm tra công việc của người giải quyết, nếu phát hiện ra hành vi xấu xa sẽ thách thức nó, sau khi thử thách được vượt qua, số token mà người giải quyết cam kết sẽ bị phạt và người tố giác sẽ được thưởng.
Theo dự đoán của Gensyn, giải pháp này được kỳ vọng sẽ giảm chi phí đào tạo xuống còn 1/5 so với các nhà cung cấp tập trung.
từ: Gensyn
FedML
FedML là một nền tảng học máy cộng tác phi tập trung dành cho AI phi tập trung và cộng tác, ở mọi nơi và ở mọi quy mô. Cụ thể hơn, FedML cung cấp hệ sinh thái MLOps để đào tạo, triển khai, giám sát và liên tục cải tiến các mô hình học máy trong khi cộng tác trên dữ liệu, mô hình và tài nguyên máy tính kết hợp theo cách bảo vệ quyền riêng tư. Được thành lập vào năm 2022, FedML đã tiết lộ vòng hạt giống trị giá 6 triệu đô la vào tháng 3 năm 2023.
FedML bao gồm hai thành phần chính: FedML-API và FedML-core, lần lượt đại diện cho API cấp cao và API cấp thấp.
FedML-core bao gồm hai mô-đun độc lập: truyền thông phân tán và đào tạo mô hình. Mô-đun giao tiếp chịu trách nhiệm về giao tiếp cơ bản giữa các nhân viên/khách hàng khác nhau và dựa trên MPI; mô-đun đào tạo mô hình dựa trên PyTorch.
FedML-API được xây dựng trên lõi FedML. Với FedML-core, các thuật toán phân tán mới có thể được triển khai dễ dàng bằng cách áp dụng các giao diện lập trình hướng tới khách hàng.
Công việc mới nhất của nhóm FedML đã chứng minh rằng việc sử dụng FedML Nexus AI để thực hiện suy luận mô hình AI trên GPU RTX 4090 dành cho người tiêu dùng rẻ hơn 20 lần và nhanh hơn 1,88 lần so với A100.
từ: FedML
Triển vọng tương lai: DePIN mang đến sự dân chủ hóa AI
Một ngày nào đó, AI sẽ phát triển hơn nữa thành AGI và sức mạnh tính toán sẽ trở thành loại tiền tệ phổ biến trên thực tế. DePIN sẽ thực hiện trước quá trình này.
Sự tích hợp giữa AI và DePIN đã mở ra một điểm tăng trưởng công nghệ mới và mang lại cơ hội lớn cho sự phát triển của trí tuệ nhân tạo. DePIN cung cấp cho AI sức mạnh tính toán và dữ liệu phân tán khổng lồ, giúp đào tạo các mô hình quy mô lớn hơn và đạt được trí thông minh mạnh mẽ hơn. Đồng thời, DePIN cũng cho phép AI phát triển theo hướng cởi mở, an toàn và đáng tin cậy hơn, giảm sự phụ thuộc vào một cơ sở hạ tầng tập trung duy nhất.
Nhìn về tương lai, AI và DePIN sẽ tiếp tục hợp tác phát triển. Mạng phân tán sẽ cung cấp nền tảng vững chắc cho việc đào tạo các mô hình rất lớn và những mô hình này sẽ đóng một vai trò quan trọng trong việc ứng dụng DePIN. Bên cạnh việc bảo vệ quyền riêng tư và bảo mật, AI cũng sẽ giúp tối ưu hóa các giao thức và thuật toán mạng DePIN. Chúng tôi mong muốn AI và DePIN mang đến một thế giới kỹ thuật số hiệu quả hơn, công bằng hơn và đáng tin cậy hơn.
Tất cả bình luận