Fluence đang xây dựng một cơ sở hạ tầng AI mà các đám mây tập trung không thể đạt được: một lớp điện toán cấp doanh nghiệp, chi phí thấp, mở, có chủ quyền, minh bạch và mở cho tất cả mọi người.
Năm 2025 tiếp tục xu hướng của năm 2024 và các gã khổng lồ điện toán đám mây đang đẩy nhanh cuộc cạnh tranh giành quyền thống trị trong cơ sở hạ tầng AI: Microsoft có kế hoạch đầu tư hơn 80 tỷ đô la để xây dựng các trung tâm dữ liệu, Google đã ra mắt siêu máy tính AI, Oracle đã đầu tư 25 tỷ đô la để xây dựng cụm AI Stargate và AWS cũng đang chuyển trọng tâm sang các dịch vụ AI gốc.
Đồng thời, các game thủ chuyên nghiệp đang phát triển nhanh chóng. CoreWeave đã huy động được 1,5 tỷ đô la trong đợt IPO vào tháng 3 năm nay và hiện được định giá hơn 70 tỷ đô la.
Khi AI trở thành một cơ sở hạ tầng quan trọng, quyền sở hữu sức mạnh tính toán sẽ trở thành một trong những chiến trường quan trọng nhất của thời đại này. Những gã khổng lồ tập trung đang độc quyền sức mạnh tính toán bằng cách xây dựng các trung tâm dữ liệu của riêng họ và tích hợp chip theo chiều dọc, trong khi Fluence đã đề xuất một tầm nhìn khác: một nền tảng điện toán AI phi tập trung, mở và trung lập. Fluence tận dụng sức mạnh tính toán và sử dụng FLT làm mã thông báo tài sản thế giới thực (RWA) trên chuỗi để đối phó với nhu cầu tăng trưởng theo cấp số nhân của AI.
Fluence đã hợp tác với nhiều dự án cơ sở hạ tầng phi tập trung, bao gồm mạng AI (Spheron, Aethir, IO.net) và mạng lưu trữ (Filecoin, Arweave, Akave, IPFS) để cùng nhau thúc đẩy việc xây dựng lớp cơ sở dữ liệu điện toán trung lập.
Từ năm 2025 đến năm 2026, lộ trình công nghệ của Fluence tập trung vào các hướng cốt lõi sau:
1. Xây dựng mạng lưới điện toán GPU toàn cầu
Fluence sẽ giới thiệu các nút GPU toàn cầu để hỗ trợ phần cứng hiệu suất cao cần thiết cho các tác vụ AI, đưa khả năng suy luận, tinh chỉnh và dịch vụ mô hình vào mạng. Điều này sẽ nâng cấp nền tảng điện toán dựa trên CPU hiện tại thành một lớp điện toán thực sự hướng đến AI. Nền tảng sẽ tích hợp một môi trường hoạt động được chứa trong container để đảm bảo tính bảo mật và tính di động của các tác vụ.
Ngoài ra, Fluence cũng sẽ khám phá khả năng tính toán bí mật của GPU để đảm bảo suy luận và thực thi dữ liệu riêng tư an toàn. Thông qua môi trường thực thi đáng tin cậy (TEE) và bộ nhớ được mã hóa, dữ liệu kinh doanh nhạy cảm có thể được xử lý ngay cả trong kiến trúc phi tập trung, thúc đẩy việc triển khai các tác nhân AI có chủ quyền.
Các mốc thời gian chính:
Kế hoạch truy cập nút GPU - Quý 3 năm 2025
Môi trường thời gian chạy container GPU được ra mắt - Quý 4 năm 2025
Bắt đầu nghiên cứu và phát triển điện toán bảo mật GPU - Quý 4 năm 2025
Thực hiện nhiệm vụ thí điểm lý luận bí mật — Quý 2 năm 2026
2. Mô hình AI được quản lý và Giao diện suy luận hợp nhất
Fluence sẽ cung cấp các mẫu triển khai một cú nhấp chuột, bao gồm các mô hình nguồn mở chính thống (như LLM), các khuôn khổ điều phối như LangChain, hệ thống tác nhân và máy chủ MCP, đồng thời mở rộng ngăn xếp chức năng AI của nền tảng. Các mô hình triển khai sẽ thuận tiện hơn và các nhà phát triển cộng đồng sẽ được hỗ trợ để cùng nhau tham gia nhằm nâng cao sức sống sinh thái.
Các mốc thời gian chính:
Ra mắt mẫu Model + Orchestration — Quý 4 năm 2025
Điểm cuối suy luận và triển khai hệ thống định tuyến — Quý 2 năm 2026
3. Triển khai SLA do cộng đồng điều hành có thể xác minh được
Fluence đang xây dựng một cơ chế tin cậy và đảm bảo dịch vụ phi tập trung, giới thiệu cơ chế Guardians . Những người tham gia này (có thể là cá nhân hoặc tổ chức) chịu trách nhiệm xác minh tính khả dụng của sức mạnh tính toán mạng và giám sát việc thực hiện các thỏa thuận dịch vụ thông qua các cơ chế đo từ xa trên chuỗi, do đó nhận được phần thưởng FLT.
Người giám hộ có thể tham gia quản lý cơ sở hạ tầng mà không cần đầu tư phần cứng, biến mạng máy tính cấp doanh nghiệp thành nền tảng công cộng mà mọi người đều có thể tham gia . Cơ chế này cũng sẽ được ghép nối với hệ thống [Chương trình vô nghĩa] để khuyến khích hành vi cộng đồng và nâng cao trình độ để trở thành người giám hộ.
Các mốc thời gian chính:
Đợt Guardians đầu tiên sẽ được ra mắt - Quý 3 năm 2025
Guardian được triển khai đầy đủ và thỏa thuận SLA được đưa ra - Quý 4 năm 2025
4. Tích hợp sức mạnh tính toán AI và ngăn xếp dữ liệu có thể cấu hình
Tương lai của AI không chỉ là sức mạnh tính toán, mà là sự tích hợp của sức mạnh tính toán + dữ liệu . Fluence được tích hợp sâu với các mạng lưu trữ phi tập trung (như Filecoin, Arweave, Akave, IPFS), cung cấp cho các nhà phát triển khả năng truy cập các tập dữ liệu có thể xác minh và kết hợp với các nút GPU để hoàn thành các tác vụ thực thi.
Các nhà phát triển sẽ có thể dễ dàng xác định các tác vụ AI truy cập dữ liệu phân tán, chạy chúng trong môi trường GPU và xây dựng một nền tảng AI hoàn chỉnh—tất cả các tác vụ được điều phối bởi FLT. Nền tảng này cũng sẽ cung cấp các mô-đun SDK và các mẫu có thể cấu hình để tạo điều kiện kết nối không gian lưu trữ và dữ liệu trên chuỗi, phù hợp để xây dựng các tác nhân AI, công cụ LLM hoặc các ứng dụng nghiên cứu khoa học.
Các mốc thời gian chính:
Sao lưu lưu trữ phân tán được ra mắt - Quý 1 năm 2026
Bộ dữ liệu được tích hợp vào quy trình làm việc AI — Quý 3 năm 2026
Từ việc loại bỏ sự phụ thuộc vào đám mây đến sự cộng tác thông minh
Fluence đang xây dựng một nền tảng sức mạnh điện toán phi tập trung, chống kiểm duyệt, mở và cộng tác cho kỷ nguyên AI với quyền truy cập GPU, thực thi có thể xác minh và khả năng tổng hợp dữ liệu làm cốt lõi. Nó không bị độc quyền bởi một vài nhà cung cấp đám mây siêu lớn, mà được thúc đẩy bởi các nhà phát triển và nút điện toán toàn cầu .
Cơ sở hạ tầng của AI trong tương lai phải phản ánh các giá trị mà chúng ta muốn AI có: tính cởi mở, tính cộng tác, khả năng xác minh và tính trách nhiệm . Fluence đang mã hóa các nguyên tắc này vào giao thức.
Cách tham gia Fluence:
Nộp đơn để trở thành nhà cung cấp nút GPU
Đăng ký bản beta Fluence Cloudless VM
Tham gia Chương trình Vô nghĩa và mở khóa trạng thái Người bảo vệ