原作者 | @cebillhsu
コンパイル | ゴーレム
GPT-4、Gemini 1.5、Microsoft AI PC などの AI テクノロジーの進歩は目覚ましいものですが、現在の AI 開発には依然としていくつかの問題が直面しています。AppWorks の Web3 研究者である Bill 氏は、その問題を詳しく調査し、Crypto がどのように役立つかを議論しました。 AI エンパワーメントの 7 つの方向性。
データのトークン化
従来の AI トレーニングは主に、インターネット上で公開されているデータ、より正確にはパブリック ドメインのトラフィック データに依存しています。オープン API を提供する数社を除いて、ほとんどのデータは未利用のままです。プライバシーを確実に保護しながら、より多くのデータ所有者が AI トレーニング用のデータを提供または承認できるようにする方法が重要な方向性です。
ただし、この分野が直面している最大の課題は、データの標準化がコンピューティング能力と同様に難しいことです。分散コンピューティング能力は GPU の種類によって定量化できますが、プライベート データの量、質、使用状況を測定するのは困難です。分散コンピューティング能力が ERC 20 のようなものだとすると、データセットのトークン化は ERC 721 のようなものであり、流動性と市場形成が ERC 20 よりも困難になります。
Ocean Protocolの Compute-to-Data 機能を使用すると、データ所有者はプライバシーを保護しながらプライベート データを販売できます。 Vana は、Reddit ユーザーにデータを集約し、大規模な AI モデルをトレーニングする企業に販売する方法を提供します。
資源の配分
現在、GPU コンピューティング能力の需要と供給の間には大きなギャップがあり、大企業が GPU リソースのほとんどを独占しているため、中小企業にとってトレーニング モデルは非常に高価になっています。多くのチームは、分散型ネットワークを通じて小規模で使用率の高い GPU リソースを集中させることでコストを削減しようと懸命に取り組んでいますが、安定したコンピューティング能力と十分な帯域幅を確保するという点で依然として大きな課題に直面しています。
インセンティブ RLHF
RLHF (人間のフィードバックに基づく強化学習) は大規模なモデルを改善するために重要ですが、専門家のトレーニングが必要です。市場での競争が激化するにつれて、これらの専門家を雇用するコストも増加します。高品質のアノテーションを維持しながらコストを削減するには、ステーキングおよびスラッシュ システムを使用できます。データ アノテーションにかかる最大の費用の 1 つは、監督者が品質をチェックする必要があることです。しかし、長年にわたり、ブロックチェーンは経済的インセンティブメカニズムを利用して仕事の質(PoW、PoS)を確保することに成功しており、優れたトークンエコノミーシステムを構築することでRLHFのコストを効果的に削減できると考えられています。
たとえば、 Sapien AI はTag 2 Earn を導入し、複数の Gamefi ギルドと協力しています。Hivemapperはトークンインセンティブメカニズムを通じて 200 万キロメートルの道路のトレーニング データを保有しており、すべての監査人が共同で監査できるようにするオープンソースのスマート コントラクト監査エージェントを立ち上げる予定です。エージェントをトレーニングして報酬を受け取ります。
検証可能性
コンピューティングパワープロバイダーが特定の要件またはモデルに従って推論タスクを実行しているかどうかを確認するにはどうすればよいですか?ユーザーは、AI モデルとその出力の信頼性と正確性を検証できません。この検証可能性の欠如は、金融、医療、法律などの分野で不信感、誤り、さらには損害を引き起こす可能性があります。
ZKP、OP、TEE などの暗号検証システムを使用することで、推論サービス プロバイダーは、出力が特定のモデルによって実行されたことを証明できます。暗号検証を使用する利点には、モデルプロバイダーがモデルの機密性を維持できること、ユーザーがモデルの実行が正しいことを検証できること、証明暗号をスマートコントラクトに統合することでブロックチェーンの計算能力の制限を回避できることが含まれます。同時に、パフォーマンスの問題を解決するためにデバイス側で AI を直接実行することも検討できますが、これまでのところ、この分野で建設中のプロジェクトには、 Ritual 、 ORA 、およびAizel Networkが含まれており、満足のいく答えは見つかっていません。
ディープフェイク
プロダクション AI の出現により、人々はディープフェイクの問題にますます注目を集めています。ただし、ディープフェイク技術は検出技術よりも速く進歩しているため、ディープフェイクの検出はますます困難になっています。電子透かし技術(C2PAなど)はディープフェイクの識別に役立ちますが、加工された画像が改変されており、一般の人々が元の画像の署名を検証できないため、加工された画像だけでは検証が非常に困難になります。 。
ブロックチェーン技術は、さまざまな方法でディープフェイクの問題を解決できます。ハードウェア認証では、改ざん防止チップ カメラを使用して、各元の写真に暗号化証拠を埋め込み、画像の信頼性を検証できます。ブロックチェーンは不変であり、メタデータを含む画像をタイムスタンプ付きのブロックに追加できるため、改ざんを防止し、元のソースを検証できます。さらに、ウォレットを使用して、公開された投稿に暗号署名を添付して、公開されたコンテンツの作成者を検証することができ、zk テクノロジーに基づく KYC インフラストラクチャにより、ユーザーのプライバシーを保護しながら、ウォレットを検証済みの ID に結び付けることができます。経済的インセンティブの観点から、虚偽の情報を公開した著者は処罰されるべきであり、虚偽の情報を特定したユーザーには報酬が与えられるべきである。
Numbers Protocol は長年にわたりこの分野で活動しており、Fox News の検証ツールは Polygon ブロックチェーンに基づいており、ユーザーは記事を検索し、ブロックチェーンから関連データを取得できます。
プライバシー
AI モデルに金融、医療、法律などの分野で機密情報が入力される場合、使用中にデータのプライバシーを保護することも非常に重要です。準同型暗号化 (FHE) は、データを復号化せずに処理できるため、LLM モデルの使用時にプライバシーを保護できます。 ワークフローは次のとおりです。
ユーザーはローカル デバイスで推論プロセスを開始し、最初のレイヤーが完了した後に停止します。この最初の層は、サーバーと共有されるモデルには含まれません。
クライアントは中間操作を暗号化してサーバーに転送します。
サーバーは、この暗号化されたデータに対して部分的なアテンション メカニズム処理を実行し、結果をクライアントに送り返します。
クライアントは結果を復号化し、ローカルで推論を続行します。 このように、FHE は、処理プロセス全体を通じてユーザー データのプライバシーが確実に保護されるようにします。
座間市は完全準同型暗号化 (FHE) ソリューションを構築しており、最近、開発をサポートするために 7,300 万ドルの資金を調達しました。
AIエージェント
AI エージェントのアイデアは非常に未来的ですが、AI エージェントが資産を所有し、取引を行うことができたら、未来はどのようなものになるでしょうか?意思決定を支援するために汎用の大規模モデルを使用することから、専門のエージェントにタスクを割り当てる方向に移行する可能性があります。
これらのエージェントは相互に連携し、健全な経済関係が人間のコラボレーション能力を向上させるのと同じように、AI エージェントに経済関係を追加することで効率を向上させることができます。 ブロックチェーンは、この概念の実験場となり得ます。たとえば、 Colony はゲームを通じてこのアイデアを実験しており、特定の目標を達成するために AI エージェントが他のエージェントや実際のプレイヤーと取引するためのウォレットを提供しています。
結論
実際、質問のほとんどはオープンソース AI に関連しています。このような重要なテクノロジーが今後 10 年間に数社に独占されないように、トークンエコノミー システムでは分散型コンピューティング リソースとトレーニング データ セットを迅速に活用し、オープン ソース AI とクローズド ソース AI の間のリソース ギャップを狭めることができます。ブロックチェーンは AI のトレーニングと推論を追跡して、より優れたデータ ガバナンスを実現できます。一方、暗号化テクノロジーはポスト AI 時代の信頼を確保し、深刻な偽造やプライバシー保護の問題に対処できます。