🫡 @Mira_Network хочет изменить подход к решению проблемы — вместо того, чтобы позволить ИИ решать все самостоятельно, лучше создать систему, которая будет находиться на "высшем уровне" ИИ и специально заниматься проверкой того, что говорит ИИ, действительно ли это правильно. Сейчас все говорят, насколько ИИ силен, но на самом деле реально применимых сценариев очень мало.
По сути, главная проблема ИИ в настоящее время заключается в том, что он "ненадежен" — он может создавать содержимое, которое выглядит логичным, но стоит только присмотреться, как оказывается, что в нем часто содержится ложная информация. Эта проблема еще не так критична в чат-ботах, но как только речь заходит о таких высокорисковых сферах, как медицина, право, финансы, это становится совершенно неприемлемым.
Почему ИИ так себя ведет? Одной из основных причин является то, что он всегда не может учесть «точность» и «стабильность». Если вы хотите, чтобы он выдавал более стабильные результаты, вам нужно собирать обучающие данные более чистыми, и в результате это может легко привести к предвзятости. С другой стороны, если вы хотите, чтобы он был ближе к реальному миру и охватывал более широкий спектр, вам нужно включить много противоречивой информации, в результате модель становится «ненадежной», то есть склонной к галлюцинациям.
Этот подход немного похож на то, чтобы дать ИИ «проверяющего факты». Сначала ИИ генерирует содержимое, затем Mira разбивает это содержимое на небольшие оценки, после чего передает их нескольким независимым моделям для проверки, являются ли эти выводы надежными. После достижения консенсуса несколькими моделями создается отчет о проверке через узлы в цепочке, что эквивалентно пометке «проверено».
Это направление очень интересно, потому что оно не направлено на изменение «мозга» ИИ, а на оснащение ИИ «системой надзора». Если эта система действительно будет работать хорошо, в будущем мы, возможно, сможем без опасений позволить ИИ выполнять более сложные и рискованные задачи, такие как автоматическая написание контрактов, автоматическая проверка кода или даже независимое принятие решений. Это и есть настоящая инфраструктура ИИ.
Ключевое в том, что на @KaitoAI есть активность в виде рейтингов, недавно @arbitrum @Aptos @0xPolygon @shoutdotfun $ENERGY также имеют высокий интерес.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
🫡 @Mira_Network хочет изменить подход к решению проблемы — вместо того, чтобы позволить ИИ решать все самостоятельно, лучше создать систему, которая будет находиться на "высшем уровне" ИИ и специально заниматься проверкой того, что говорит ИИ, действительно ли это правильно. Сейчас все говорят, насколько ИИ силен, но на самом деле реально применимых сценариев очень мало.
По сути, главная проблема ИИ в настоящее время заключается в том, что он "ненадежен" — он может создавать содержимое, которое выглядит логичным, но стоит только присмотреться, как оказывается, что в нем часто содержится ложная информация. Эта проблема еще не так критична в чат-ботах, но как только речь заходит о таких высокорисковых сферах, как медицина, право, финансы, это становится совершенно неприемлемым.
Почему ИИ так себя ведет? Одной из основных причин является то, что он всегда не может учесть «точность» и «стабильность». Если вы хотите, чтобы он выдавал более стабильные результаты, вам нужно собирать обучающие данные более чистыми, и в результате это может легко привести к предвзятости. С другой стороны, если вы хотите, чтобы он был ближе к реальному миру и охватывал более широкий спектр, вам нужно включить много противоречивой информации, в результате модель становится «ненадежной», то есть склонной к галлюцинациям.
Этот подход немного похож на то, чтобы дать ИИ «проверяющего факты». Сначала ИИ генерирует содержимое, затем Mira разбивает это содержимое на небольшие оценки, после чего передает их нескольким независимым моделям для проверки, являются ли эти выводы надежными. После достижения консенсуса несколькими моделями создается отчет о проверке через узлы в цепочке, что эквивалентно пометке «проверено».
Это направление очень интересно, потому что оно не направлено на изменение «мозга» ИИ, а на оснащение ИИ «системой надзора». Если эта система действительно будет работать хорошо, в будущем мы, возможно, сможем без опасений позволить ИИ выполнять более сложные и рискованные задачи, такие как автоматическая написание контрактов, автоматическая проверка кода или даже независимое принятие решений. Это и есть настоящая инфраструктура ИИ.
Ключевое в том, что на @KaitoAI есть активность в виде рейтингов, недавно @arbitrum @Aptos @0xPolygon @shoutdotfun $ENERGY также имеют высокий интерес.