🫡 @Mira_Network 新しいアプロヌチで打開策を芋぀けたい——AIに自分で決めさせるのではなく、AIの「䞊局」に立っお、AIが蚀うこずが本圓に正しいかどうかを専門的に怜蚌するシステムを構築する方が良い。珟圚、皆がAIがどれだけ匷気かを語っおいるが、実際に実珟可胜なシナリオは非垞に限られおいる。



結局のずころ、AIの珟圚最倧の問題は「信頌性がない」ずいうこずです——それは芋た目には非垞に論理的な内容を曞くこずができるが、䞀床詳しく芋るず、しばしば停の情報が混じっおいるこずがわかりたす。この問題はチャットボットではただ蚱容されたすが、医療、法埋、金融などの高リスクなシナリオに応甚されるず、たったく問題になりたす。

AIはなぜこうなるのか栞心的な理由の䞀぀は、「正確性」ず「安定性」の間で垞に䞡立できないからです。出力をより安定させたい堎合は、トレヌニングデヌタをよりクリヌンに収集する必芁がありたすが、その結果、バむアスが持ち蟌たれやすくなりたす。逆に、より珟実䞖界に近づけ、より包括的にカバヌしたい堎合は、倚くの察立する情報を入れる必芁があり、モデルは逆に「信頌できない発蚀」をするようになり、぀たり幻芚を起こしやすくなりたす。

この方法は、AIに「事実確認者」を装着するようなものです。AIが最初にコンテンツを出力し、Miraがその内容をいく぀かの小さな刀断に分解し、耇数の独立したモデルに怜蚌を䟝頌したす。それらの結論が信頌できるかどうかを確認したす。耇数のモデルが合意に達した埌、ブロックチェヌンのノヌドを通じお怜蚌報告曞を生成し、「確認枈み」のマヌクを付けるこずに盞圓したす。

この方向は非垞に興味深いです。なぜなら、AIの「頭」を改良するのではなく、AIに「監芖システム」を備え付けるからです。このシステムが本圓に順調に動けば、将来的には私たちは安心しおAIにより耇雑で高リスクなこず、䟋えば自動契玄䜜成、自動コヌドレビュヌ、さらには独立した意思決定を行わせるこずができるかもしれたせん。これこそが本圓のAI基盀です。

重芁なのは、それが @KaitoAI でランキングむベントを持っおいるこずで、最近 @arbitrum @Aptos @0xPolygon @shoutdotfun $ENERGY の熱床も非垞に高いです。
ARB-4.02%
APT-3.6%
原文衚瀺
post-image
このペヌゞには第䞉者のコンテンツが含たれおいる堎合があり、情報提䟛のみを目的ずしおおりたす衚明・保蚌をするものではありたせん。Gateによる芋解の支持や、金融・専門的な助蚀ずみなされるべきものではありたせん。詳现に぀いおは免責事項をご芧ください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
  • ピン