イーサリアム共同創設者のVitalik Buterinが最近X(旧Twitter)で投稿し、現在の人工知能(AI)の開発が「自主性」を過剰に追求し、人間の意思決定と出力プロセスにおける価値を無視していると指摘しました。彼は業界に対して人間の入力経路を増やし、編集機能を持つオープンウェイトモデルを推進するよう呼びかけ、脳-機械インターフェース(BCI)を組み合わせて即時フィードバックと調整を実現する構想を提案し、AIの発展においてより人間中心の青写真を描きました。### **「フルオート代理型」AIを拒絶し、人間の参加を強調**ヴィタリックは、現在のAI分野で流行している「エージェント型」システムが、ほとんど人間の監視なしに自律的にタスクを完了しようとしていることに落胆していると述べました。彼は、人間の入力が出力の質を向上させるだけでなく、安全性を大幅に強化できると考えています。彼は特に「編集機能」を備えたオープンウェイトモデルを好み、開発者とユーザーが生成プロセス中にリアルタイムで介入、修正、または出力を導くことを許可し、ゼロから結果を作成するだけではない。###は、AIには「制御性」が必要だというカルパシーの見解に共鳴しています。ヴィタリックの見解は、前テスラのAI責任者であるアンドレイ・カルパティの最近の講演と一致しています。カルパティは、大型言語モデルを完全に信頼できる自律エージェントと見なすべきではないと警告し、人間の監視、慎重な提示、そして段階的な開発の重要性を強調しました。この考え方は業界を「人間と機械の協力」モデルに導いています:1、より直感的な編集インターフェースを提供する2、生成過程におけるリアルタイムのトリミングと補正をサポート3、幻覚と偏差を減らし、出力が人間の意図と安全基準に合致することを保証する### **脳-コンピュータ・インターフェース(BCI)+ AI:リアルタイムフィードバックの未来構想**ヴィタリックはさらに進めて、中期的なビジョンはBCI技術を組み合わせて、AIがコンテンツを生成する際にユーザーの感情反応をリアルタイムで感知し、好みに応じて出力を自動調整できるようにすることだと提案した。この構想は空論ではない:1、Neuralink、Synchron などの企業が人体試験とミニマルインベイシブインプラントを開始しました。2、脳波(EEG)に基づくウェアラブルデバイスは、注意力と感情状態をデコードしようとしています。3、学術界は「感情計算」と感情マーク技術において進展を遂げた4、非侵襲的感情デコードは依然として挑戦を抱えているが、技術の進展はこのビジョンを徐々に現実に近づけている。### **オープンな重みと安全性:二律背反の議論**最近、OpenAIはgpt-oss-120bやgpt-oss-20bなどのオープンウェイトモデルを予期せずリリースし、熱い議論を呼んでいます。支持者は、これがAI開発の民主化に寄与し、チームが人間中心のワークフローを構築し、安全リスクを検出しやすくする助けになると考えています。一方、批評家は、強力なモデルの広範な配布が悪用のリスクをもたらす可能性があることを懸念しています。ヴィタリックの立場は明確です:より良い出力とより安全なシステムは、人間の好みと複雑な信号をAIワークフローの中心に置くことから生まれます。### **结语**ヴィタリック・ブテリンの発言は、AIの発展における核心的な議論を反映しています。それは、モデルを完全に自律させるべきか、それとも人間が即時に制御を維持すべきかということです。オープンウェイトモデル、脳-機械インターフェース、感情検出技術の進歩に伴い、人間と機械の協力の可能性が急速に拡大しています。未来のAIはもはや「あなたのために決定を下す」ブラックボックスではなく、あなたと肩を並べて創作し、即時にインタラクションできる知恵のパートナーになるかもしれません。
ヴィタリックが明かすAIの未来の青写真:完全自動化を拒否し、人間の即時制御と脳-機械インターフェースを推奨
イーサリアム共同創設者のVitalik Buterinが最近X(旧Twitter)で投稿し、現在の人工知能(AI)の開発が「自主性」を過剰に追求し、人間の意思決定と出力プロセスにおける価値を無視していると指摘しました。彼は業界に対して人間の入力経路を増やし、編集機能を持つオープンウェイトモデルを推進するよう呼びかけ、脳-機械インターフェース(BCI)を組み合わせて即時フィードバックと調整を実現する構想を提案し、AIの発展においてより人間中心の青写真を描きました。
「フルオート代理型」AIを拒絶し、人間の参加を強調
ヴィタリックは、現在のAI分野で流行している「エージェント型」システムが、ほとんど人間の監視なしに自律的にタスクを完了しようとしていることに落胆していると述べました。彼は、人間の入力が出力の質を向上させるだけでなく、安全性を大幅に強化できると考えています。
彼は特に「編集機能」を備えたオープンウェイトモデルを好み、開発者とユーザーが生成プロセス中にリアルタイムで介入、修正、または出力を導くことを許可し、ゼロから結果を作成するだけではない。
###は、AIには「制御性」が必要だというカルパシーの見解に共鳴しています。
ヴィタリックの見解は、前テスラのAI責任者であるアンドレイ・カルパティの最近の講演と一致しています。カルパティは、大型言語モデルを完全に信頼できる自律エージェントと見なすべきではないと警告し、人間の監視、慎重な提示、そして段階的な開発の重要性を強調しました。
この考え方は業界を「人間と機械の協力」モデルに導いています:
1、より直感的な編集インターフェースを提供する
2、生成過程におけるリアルタイムのトリミングと補正をサポート
3、幻覚と偏差を減らし、出力が人間の意図と安全基準に合致することを保証する
脳-コンピュータ・インターフェース(BCI)+ AI:リアルタイムフィードバックの未来構想
ヴィタリックはさらに進めて、中期的なビジョンはBCI技術を組み合わせて、AIがコンテンツを生成する際にユーザーの感情反応をリアルタイムで感知し、好みに応じて出力を自動調整できるようにすることだと提案した。
この構想は空論ではない:
1、Neuralink、Synchron などの企業が人体試験とミニマルインベイシブインプラントを開始しました。
2、脳波(EEG)に基づくウェアラブルデバイスは、注意力と感情状態をデコードしようとしています。
3、学術界は「感情計算」と感情マーク技術において進展を遂げた
4、非侵襲的感情デコードは依然として挑戦を抱えているが、技術の進展はこのビジョンを徐々に現実に近づけている。
オープンな重みと安全性:二律背反の議論
最近、OpenAIはgpt-oss-120bやgpt-oss-20bなどのオープンウェイトモデルを予期せずリリースし、熱い議論を呼んでいます。支持者は、これがAI開発の民主化に寄与し、チームが人間中心のワークフローを構築し、安全リスクを検出しやすくする助けになると考えています。一方、批評家は、強力なモデルの広範な配布が悪用のリスクをもたらす可能性があることを懸念しています。
ヴィタリックの立場は明確です:より良い出力とより安全なシステムは、人間の好みと複雑な信号をAIワークフローの中心に置くことから生まれます。
结语
ヴィタリック・ブテリンの発言は、AIの発展における核心的な議論を反映しています。それは、モデルを完全に自律させるべきか、それとも人間が即時に制御を維持すべきかということです。オープンウェイトモデル、脳-機械インターフェース、感情検出技術の進歩に伴い、人間と機械の協力の可能性が急速に拡大しています。未来のAIはもはや「あなたのために決定を下す」ブラックボックスではなく、あなたと肩を並べて創作し、即時にインタラクションできる知恵のパートナーになるかもしれません。