Chén thánh Crypto AI: Khám phá tiên phong trong đào tạo Phi tập trung
Trong toàn bộ chuỗi giá trị của AI, huấn luyện mô hình là khâu tiêu tốn nhiều tài nguyên nhất và có ngưỡng kỹ thuật cao nhất, trực tiếp quyết định giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với các cuộc gọi nhẹ nhàng, quá trình huấn luyện cần một khoản đầu tư tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ của các thuật toán tối ưu hóa cường độ cao, thực sự là "ngành công nghiệp nặng" trong xây dựng hệ thống AI. Từ góc độ kiến trúc, phương pháp huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện Phi tập trung mà bài viết này sẽ thảo luận trọng tâm.
Đào tạo tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong một cụm hiệu suất cao tại chỗ, với toàn bộ quy trình đào tạo từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được điều phối hoạt động bởi một hệ thống kiểm soát thống nhất. Kiến trúc phối hợp sâu sắc này giúp hiệu quả chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chịu lỗi đạt mức tối ưu, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, với lợi thế hiệu quả cao, nguồn lực có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản nguồn lực, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán là phương pháp chính trong huấn luyện mô hình lớn hiện nay, cốt lõi là phân tách nhiệm vụ huấn luyện mô hình, phân phối đến nhiều máy để phối hợp thực hiện, nhằm vượt qua các rào cản về tính toán và lưu trữ trên một máy. Mặc dù về mặt vật lý có đặc điểm "phi tập trung", nhưng tổng thể vẫn do các cơ quan trung tâm kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng nội bộ tốc độ cao, thông qua công nghệ bus liên kết tốc độ cao NVLink, do nút chính thống nhất điều phối các nhiệm vụ con. Các phương pháp chính bao gồm:
Dữ liệu song song: mỗi nút huấn luyện các tham số dữ liệu khác nhau chia sẻ, cần khớp với trọng số mô hình
Song song mô hình: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ.
Kênh song song: Thực hiện tuần tự theo giai đoạn, tăng cường thông lượng
Phân tán tensor: Chia nhỏ tính toán ma trận một cách tinh vi, nâng cao độ mịn của song song
Đào tạo phân tán là sự kết hợp của "kiểm soát tập trung + thực thi phân tán", tương tự như một ông chủ điều khiển từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện tại, hầu như tất cả các mô hình lớn chính đều hoàn thành việc đào tạo theo cách này.
Phi tập trung đào tạo thì đại diện cho một con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy ( có thể là máy tính gia đình, GPU đám mây hoặc thiết bị biên ) phối hợp thực hiện nhiệm vụ đào tạo mà không cần một điều phối viên trung tâm, thường thông qua giao thức điều khiển việc phân phối nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của các đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Khó khăn trong thiết bị đa dạng và phân chia: Khó khăn trong việc phối hợp thiết bị đa dạng, hiệu quả phân chia nhiệm vụ thấp
Nút thắt hiệu suất giao tiếp: Giao tiếp mạng không ổn định, nút thắt đồng bộ độ dốc rõ ràng
Thiếu thực thi đáng tin cậy: Thiếu môi trường thực thi đáng tin cậy, khó xác minh xem nút có thực sự tham gia vào tính toán hay không.
Thiếu sự phối hợp thống nhất: không có bộ điều phối trung tâm, việc phân phối nhiệm vụ và cơ chế quay lại bất thường phức tạp
Phi tập trung huấn luyện có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để phối hợp huấn luyện mô hình, nhưng "huấn luyện phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác thực mô hình và nhiều khía cạnh khác, nhưng khả năng "phối hợp hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ dữ liệu tại chỗ và tập hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến sự tuân thủ quyền riêng tư như y tế, tài chính (. Học liên bang có cấu trúc kỹ thuật phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế phân tán dữ liệu trong đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên phối hợp đáng tin cậy, không có đặc điểm hoàn toàn mở và chống kiểm duyệt. Có thể xem đây là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế truyền thông đều tương đối ôn hòa, phù hợp hơn với kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.
![Cốc thánh của Crypto AI: Khám phá tiên phong trong đào tạo Phi tập trung])https://img-cdn.gateio.im/webp-social/moments-a8004f094fff74515470052b3a24617c.webp(
Phi tập trung đào tạo các ranh giới, cơ hội và con đường thực tế
Từ góc độ khuôn khổ đào tạo, Phi tập trung đào tạo không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, yêu cầu tài nguyên cực cao hoặc độ khó hợp tác lớn, nó tự nhiên không phù hợp để hoàn thành hiệu quả giữa các nút đa dạng và không tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó khăn trong việc phân chia và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ có hạn chế về quyền riêng tư dữ liệu và chủ quyền mạnh ) như y tế, tài chính, dữ liệu nhạy cảm ( bị giới hạn bởi tuân thủ pháp luật và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác ) như mô hình đóng nguồn doanh nghiệp hoặc đào tạo nguyên mẫu nội bộ ( thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành hạn chế thực tế của đào tạo Phi tập trung hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một luận đề giả. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, nhiệm vụ đào tạo sau hành vi như RLHF, DPO), đào tạo và gán nhãn dữ liệu crowdsourcing, đào tạo mô hình nền tảng nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ liên kết thấp và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán và các phương thức khác.
Phi tập trung đào tạo phân tích dự án kinh điển
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học liên kết, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Về tính đổi mới công nghệ và độ khó trong việc hiện thực hóa kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết hiện nay; trong khi đó, con đường hiện thực hóa của Gensyn và Flock.io tương đối rõ ràng, có thể thấy tiến triển ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật đằng sau năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
( Prime Intellect: Huấn luyện theo dõi có thể xác minh của mạng hợp tác học tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai cũng có thể tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có tính khả thi, tính mở và cơ chế khuyến khích hoàn chỉnh.
)# Giải thích chi tiết về cơ chế công nghệ cốt lõi
PRIME-RL: Kiến trúc tác vụ tăng cường phi tập trung bất đồng bộ
PRIME-RL là khung mô hình và thực hiện nhiệm vụ được tùy chỉnh cho các kịch bản huấn luyện phi tập trung của Prime Intellect, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó áp dụng học tăng cường như đối tượng thích ứng ưu tiên, phân tách cấu trúc quy trình huấn luyện, suy diễn và tải trọng lên, cho phép mỗi nút huấn luyện hoàn thành vòng lặp nhiệm vụ độc lập tại chỗ, và hợp tác với cơ chế xác thực và tổng hợp thông qua giao diện tiêu chuẩn hóa. So với quy trình học giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện huấn luyện linh hoạt trong môi trường không có trung tâm điều phối, vừa giảm độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác minh hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi về khả năng kiểm chứng được đề xuất bởi Prime Intellect, dùng để xác định một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà thông qua việc phân tích quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược", hoàn thành xác minh cấu trúc nhẹ. Nó lần đầu tiên chuyển đổi quỹ đạo hành vi trong quá trình huấn luyện thành đối tượng có thể kiểm chứng, là đổi mới chính để thực hiện phân phối phần thưởng huấn luyện mà không cần tin tưởng, cung cấp con đường khả thi để xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền thông trọng số không đồng bộ
SHARDCAST là giao thức truyền tải và tổng hợp trọng số do Prime Intellect thiết kế, được tối ưu hóa cho môi trường mạng thực tế bất đồng bộ, băng thông hạn chế và trạng thái nút thay đổi. Nó kết hợp cơ chế truyền gossip với chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi các cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và đào tạo lặp đi lặp lại.
OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa truyền thông được nhóm Prime Intellect thực hiện độc lập và mã nguồn mở dựa trên khái niệm DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt cho các thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và độ không ổn định của nút. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh được chi phí truyền thông cao của đồng bộ toàn cầu, chỉ cần dựa vào các nút hàng xóm cục bộ để hoàn thành việc đào tạo hợp tác mô hình. Kết hợp cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, làm tăng đáng kể khả năng tham gia của việc đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng truyền thông quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện giao tiếp hợp tác
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI Phi tập trung, nhằm giải quyết các nút thắt trong việc thích ứng của thư viện giao tiếp truyền thống trên các thiết bị khác nhau và mạng có băng thông thấp. PCCL hỗ trợ topo thưa, nén độ dốc, đồng bộ độ chính xác thấp và phục hồi điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần nền tảng hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó cải thiện đáng kể khả năng chịu băng thông của mạng đào tạo và tính tương thích của thiết bị, mở ra "km cuối cùng" trong cơ sở hạ tầng giao tiếp để xây dựng mạng đào tạo hợp tác thực sự mở, không cần tin cậy.
Mạng khuyến khích Prime Intellect và phân công vai trò
Prime Intellect đã xây dựng một mạng lưới đào tạo không cần sự cho phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Người khởi xướng nhiệm vụ: định nghĩa môi trường đào tạo, mô hình ban đầu, hàm thưởng và tiêu chí xác minh
Nút huấn luyện: Thực hiện huấn luyện cục bộ, gửi cập nhật trọng số và quỹ đạo quan sát
Node xác thực: Sử dụng cơ chế TOPLOC để xác minh tính xác thực của hành vi đào tạo và tham gia tính toán phần thưởng và tổng hợp chiến lược
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh đường đi, tổng hợp trọng số ###SHARDCAST### và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực".
(# INTELLECT-2: phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được đào tạo thông qua hợp tác của các nút phi tập trung không cần tin cậy và không đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành thông qua việc đào tạo hợp tác của hơn 100 nút GPU không đồng nhất trải dài trên ba châu lục, sử dụng cấu trúc hoàn toàn không đồng bộ, thời gian đào tạo vượt quá 400 giờ, cho thấy tính khả thi và ổn định của mạng lưới hợp tác không đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là sự triển khai hệ thống đầu tiên của kiểu mẫu "đào tạo tức là đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như cấu trúc đào tạo không đồng bộ PRIME-RL), xác minh hành vi đào tạo TOPLOC### và hợp nhất trọng số không đồng bộ SHARDCAST(, đánh dấu việc mạng lưới đào tạo phi tập trung lần đầu tiên thực hiện quá trình đào tạo một cách mở, xác minh.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
7 thích
Phần thưởng
7
6
Chia sẻ
Bình luận
0/400
pumpamentalist
· 4giờ trước
Lại là sự thổi phồng, nhưng tôi thích.
Xem bản gốcTrả lời0
FloorSweeper
· 4giờ trước
smh... một tín hiệu yếu nữa từ Paper hand đang cố gắng tập trung đào tạo AI
Xem bản gốcTrả lời0
ParallelChainMaxi
· 4giờ trước
Lại là một chiêu trò Phi tập trung cũ.
Xem bản gốcTrả lời0
rekt_but_resilient
· 4giờ trước
Muốn làm gì làm sao có thể Phi tập trung
Xem bản gốcTrả lời0
PumpAnalyst
· 4giờ trước
Lại vẽ bánh, đồ ngốc nhớ tháng trước đã có cơn sốt aigc tràn ngập không?
Xem bản gốcTrả lời0
WenMoon42
· 4giờ trước
Khả năng tính toán của ngành công nghiệp nặng rất đắt.
Phi tập trung đào tạo: Paradigm và thách thức mới trong hợp tác mô hình AI
Chén thánh Crypto AI: Khám phá tiên phong trong đào tạo Phi tập trung
Trong toàn bộ chuỗi giá trị của AI, huấn luyện mô hình là khâu tiêu tốn nhiều tài nguyên nhất và có ngưỡng kỹ thuật cao nhất, trực tiếp quyết định giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với các cuộc gọi nhẹ nhàng, quá trình huấn luyện cần một khoản đầu tư tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ của các thuật toán tối ưu hóa cường độ cao, thực sự là "ngành công nghiệp nặng" trong xây dựng hệ thống AI. Từ góc độ kiến trúc, phương pháp huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện Phi tập trung mà bài viết này sẽ thảo luận trọng tâm.
Đào tạo tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong một cụm hiệu suất cao tại chỗ, với toàn bộ quy trình đào tạo từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung đào tạo đều được điều phối hoạt động bởi một hệ thống kiểm soát thống nhất. Kiến trúc phối hợp sâu sắc này giúp hiệu quả chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chịu lỗi đạt mức tối ưu, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, với lợi thế hiệu quả cao, nguồn lực có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản nguồn lực, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán là phương pháp chính trong huấn luyện mô hình lớn hiện nay, cốt lõi là phân tách nhiệm vụ huấn luyện mô hình, phân phối đến nhiều máy để phối hợp thực hiện, nhằm vượt qua các rào cản về tính toán và lưu trữ trên một máy. Mặc dù về mặt vật lý có đặc điểm "phi tập trung", nhưng tổng thể vẫn do các cơ quan trung tâm kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng nội bộ tốc độ cao, thông qua công nghệ bus liên kết tốc độ cao NVLink, do nút chính thống nhất điều phối các nhiệm vụ con. Các phương pháp chính bao gồm:
Đào tạo phân tán là sự kết hợp của "kiểm soát tập trung + thực thi phân tán", tương tự như một ông chủ điều khiển từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện tại, hầu như tất cả các mô hình lớn chính đều hoàn thành việc đào tạo theo cách này.
Phi tập trung đào tạo thì đại diện cho một con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy ( có thể là máy tính gia đình, GPU đám mây hoặc thiết bị biên ) phối hợp thực hiện nhiệm vụ đào tạo mà không cần một điều phối viên trung tâm, thường thông qua giao thức điều khiển việc phân phối nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của các đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Phi tập trung huấn luyện có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để phối hợp huấn luyện mô hình, nhưng "huấn luyện phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác thực mô hình và nhiều khía cạnh khác, nhưng khả năng "phối hợp hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ dữ liệu tại chỗ và tập hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến sự tuân thủ quyền riêng tư như y tế, tài chính (. Học liên bang có cấu trúc kỹ thuật phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế phân tán dữ liệu trong đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên phối hợp đáng tin cậy, không có đặc điểm hoàn toàn mở và chống kiểm duyệt. Có thể xem đây là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế truyền thông đều tương đối ôn hòa, phù hợp hơn với kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.
![Cốc thánh của Crypto AI: Khám phá tiên phong trong đào tạo Phi tập trung])https://img-cdn.gateio.im/webp-social/moments-a8004f094fff74515470052b3a24617c.webp(
Phi tập trung đào tạo các ranh giới, cơ hội và con đường thực tế
Từ góc độ khuôn khổ đào tạo, Phi tập trung đào tạo không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, yêu cầu tài nguyên cực cao hoặc độ khó hợp tác lớn, nó tự nhiên không phù hợp để hoàn thành hiệu quả giữa các nút đa dạng và không tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó khăn trong việc phân chia và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ có hạn chế về quyền riêng tư dữ liệu và chủ quyền mạnh ) như y tế, tài chính, dữ liệu nhạy cảm ( bị giới hạn bởi tuân thủ pháp luật và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu cơ sở khuyến khích hợp tác ) như mô hình đóng nguồn doanh nghiệp hoặc đào tạo nguyên mẫu nội bộ ( thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành hạn chế thực tế của đào tạo Phi tập trung hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một luận đề giả. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, nhiệm vụ đào tạo sau hành vi như RLHF, DPO), đào tạo và gán nhãn dữ liệu crowdsourcing, đào tạo mô hình nền tảng nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ liên kết thấp và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán và các phương thức khác.
Phi tập trung đào tạo phân tích dự án kinh điển
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học liên kết, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Về tính đổi mới công nghệ và độ khó trong việc hiện thực hóa kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết hiện nay; trong khi đó, con đường hiện thực hóa của Gensyn và Flock.io tương đối rõ ràng, có thể thấy tiến triển ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật đằng sau năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
( Prime Intellect: Huấn luyện theo dõi có thể xác minh của mạng hợp tác học tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai cũng có thể tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có tính khả thi, tính mở và cơ chế khuyến khích hoàn chỉnh.
)# Giải thích chi tiết về cơ chế công nghệ cốt lõi
PRIME-RL: Kiến trúc tác vụ tăng cường phi tập trung bất đồng bộ
PRIME-RL là khung mô hình và thực hiện nhiệm vụ được tùy chỉnh cho các kịch bản huấn luyện phi tập trung của Prime Intellect, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó áp dụng học tăng cường như đối tượng thích ứng ưu tiên, phân tách cấu trúc quy trình huấn luyện, suy diễn và tải trọng lên, cho phép mỗi nút huấn luyện hoàn thành vòng lặp nhiệm vụ độc lập tại chỗ, và hợp tác với cơ chế xác thực và tổng hợp thông qua giao diện tiêu chuẩn hóa. So với quy trình học giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện huấn luyện linh hoạt trong môi trường không có trung tâm điều phối, vừa giảm độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác minh hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi về khả năng kiểm chứng được đề xuất bởi Prime Intellect, dùng để xác định một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà thông qua việc phân tích quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược", hoàn thành xác minh cấu trúc nhẹ. Nó lần đầu tiên chuyển đổi quỹ đạo hành vi trong quá trình huấn luyện thành đối tượng có thể kiểm chứng, là đổi mới chính để thực hiện phân phối phần thưởng huấn luyện mà không cần tin tưởng, cung cấp con đường khả thi để xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền thông trọng số không đồng bộ
SHARDCAST là giao thức truyền tải và tổng hợp trọng số do Prime Intellect thiết kế, được tối ưu hóa cho môi trường mạng thực tế bất đồng bộ, băng thông hạn chế và trạng thái nút thay đổi. Nó kết hợp cơ chế truyền gossip với chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi các cập nhật một phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và đào tạo lặp đi lặp lại.
OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa truyền thông được nhóm Prime Intellect thực hiện độc lập và mã nguồn mở dựa trên khái niệm DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt cho các thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và độ không ổn định của nút. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, tránh được chi phí truyền thông cao của đồng bộ toàn cầu, chỉ cần dựa vào các nút hàng xóm cục bộ để hoàn thành việc đào tạo hợp tác mô hình. Kết hợp cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, làm tăng đáng kể khả năng tham gia của việc đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng truyền thông quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện giao tiếp hợp tác
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI Phi tập trung, nhằm giải quyết các nút thắt trong việc thích ứng của thư viện giao tiếp truyền thống trên các thiết bị khác nhau và mạng có băng thông thấp. PCCL hỗ trợ topo thưa, nén độ dốc, đồng bộ độ chính xác thấp và phục hồi điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần nền tảng hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó cải thiện đáng kể khả năng chịu băng thông của mạng đào tạo và tính tương thích của thiết bị, mở ra "km cuối cùng" trong cơ sở hạ tầng giao tiếp để xây dựng mạng đào tạo hợp tác thực sự mở, không cần tin cậy.
Mạng khuyến khích Prime Intellect và phân công vai trò
Prime Intellect đã xây dựng một mạng lưới đào tạo không cần sự cho phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh đường đi, tổng hợp trọng số ###SHARDCAST### và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực".
(# INTELLECT-2: phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được đào tạo thông qua hợp tác của các nút phi tập trung không cần tin cậy và không đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành thông qua việc đào tạo hợp tác của hơn 100 nút GPU không đồng nhất trải dài trên ba châu lục, sử dụng cấu trúc hoàn toàn không đồng bộ, thời gian đào tạo vượt quá 400 giờ, cho thấy tính khả thi và ổn định của mạng lưới hợp tác không đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là sự triển khai hệ thống đầu tiên của kiểu mẫu "đào tạo tức là đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như cấu trúc đào tạo không đồng bộ PRIME-RL), xác minh hành vi đào tạo TOPLOC### và hợp nhất trọng số không đồng bộ SHARDCAST(, đánh dấu việc mạng lưới đào tạo phi tập trung lần đầu tiên thực hiện quá trình đào tạo một cách mở, xác minh.