Искусственный интеллект делает жизнь более удобной? Баладжи и A16z обсуждают, как сократить временные затраты на проверку контента ИИ?

Генеративный ИИ значительно увеличивает скорость производства информации, но также вызывает недостаточно замеченную тревогу — «разрыв верификации (Verification Gap)». От бывшего технического директора Coinbase Баладжи до сооснователя OpenAI Карпати, и до венчурного гиганта a16z, все предупреждают: «Стоимость верификации, производимой ИИ, становится крупнейшим препятствием и риском нового времени.

Баладжи: "Стоимость верификации" для пользователей ИИ становится настоящим узким местом.

Бывший технический директор Coinbase Балажи в прошлом месяце опубликовал пост, в котором указал, что процесс использования ИИ можно разделить на два этапа: "ввод подсказки (prompting)" и "проверка вывода (verifying)".

Первый вариант может выполнить каждый, достаточно просто набрать несколько строк текста; но второй вариант уже сложнее, требует профессиональных знаний, терпения и логического мышления, чтобы определить, допустила ли ИИ ошибку или «галлюцинацию (hallucination)».

AI ПОДСКАЗКА → AI ПРОВЕРКА

Масштабы AI-подсказок, потому что подсказка — это просто набор текста.

Но проверка ИИ не масштабируется, потому что проверка выходных данных ИИ включает в себя гораздо больше, чем просто набор текста.

Иногда вы можете проверить это визуально, вот почему ИИ отлично подходит для фронтенда, изображений и видео. Но…

— Баладжи (@баладжи) 4 июня 2025 года

Он отметил, что этот разрыв хорошо обрабатывается на изображениях или видео, поскольку человеческий глаз от природы склонен к оценке визуального содержания. Но как только дело доходит до кода, технических статей или логического вывода, работа по проверке становится довольно сложной:

Самый важный вопрос о использовании ИИ заключается в том, как мне проверить, что выводы этой модели ИИ являются правильными, при этом низкими затратами? Нам нужны другие инструменты или продукты для проверки содержания в других невизуальных областях.

Он добавил: «Для пользователей AI-верификация так же важна, как и AI-подсказки.»

Карпаты: ИИ ускорил процесс создания, но не уменьшил процесс проверки.

Соучредитель OpenAI и отец автономного вождения Теслы Андрэй Карпаты также расширил точку зрения Баладжи, указав, что суть творчества — это процесс, состоящий из двух этапов, которые повторяются: «генерация (generation)» и «дискриминация (discrimination)»: «Ты сделал мазок (генерация), но также необходимо сделать шаг назад и подумать, действительно ли этот мазок улучшил работу (дискриминация).»

Он считает, что крупные языковые модели (LLM) значительно сократили временные затраты на «генерацию», позволяя пользователям мгновенно получать большие объемы продукции, но совершенно не помогли уменьшить затраты и объем работы на «оценку». Это особенно серьезно для кода:

LLM легко генерирует десятки и даже сотни строк кода, но инженеру все равно нужно построчно читать, понимать и проверять всю логику и потенциальные ошибки.

Карпати заявил, что это на самом деле то, что занимает больше всего времени у большинства инженеров, это так называемый «разрыв верификации (Verification Gap)». ИИ ускорил процесс создания, но эта временная затрата напрямую перенесена на верификацию.

(От финансового консультанта до секретаря: вызовы доверия к AI-агентам: можем ли мы доверять автономным решениям искусственного интеллекта?)

a16z: Кризис доверия в эпоху генерации необходимо преодолевать с помощью криптографических технологий.

Известный венчурный капитал a16z подходит к вопросу с точки зрения системы и отрасли. Они считают, что технологии ИИ ускорят распространение "фейковой информации", поскольку порог генерации низкий и трудно поддается верификации, интернет будет переполнен большим количеством поддельного контента. a16z утверждает, что доверие должно быть инжинировано, а решение заключается во внедрении криптографических технологий, таких как:

Проведение криптографической обработки данных, полученных от AI поэтапно (hashed posts)

Создание с использованием удостоверения личности на базе блокчейна (crypto IDs)

С помощью открытости и отслеживаемости данных на блокчейне создается надежная цепочка контента.

Эти методы не только позволяют сделать информацию неизменяемой и проверяемой, но также создают защиту для доверия к контенту в эпоху ИИ, что может стать важным пересечением между криптографическими технологиями и областью ИИ.

(Messari специализированный анализ: как протокол Mira с помощью децентрализованного механизма консенсуса делает ИИ более честным?)

От подсказок до проверочных способностей, новые навыки и требования эпохи ИИ уже сформировались.

В настоящее время генеративный ИИ приводит к экспоненциальному росту информационной производительности, но без равноэффективной способности верификации пользователи могут оказаться в ситуации, когда их действия занимают много времени и они подвергаются загрязнению ложной информацией.

Таким образом, ключевыми навыками в эпоху ИИ больше не является просто умение составлять точные подсказки, а способность эффективно и недорого проверять результаты работы ИИ. Независимо от того, осуществляется ли это через взаимную проверку моделей ИИ или с помощью профессиональных инструментов верификации, это становится особенно важным.

Сделала ли ИИ жизнь более удобной? Баладжи и a16z обсуждают, как сократить временные затраты на проверку контента ИИ? Впервые опубликовано в Chain News ABMedia.

MORE0.87%
WHY5.79%
PROMPT4.6%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить