A IA generativa aumentou significativamente a velocidade de produção de informações, mas também levantou uma preocupação negligenciada: "a lacuna de verificação (Verification Gap)". Desde o ex-CTO da Coinbase, Balaji, até o co-fundador da OpenAI, Karpathy, e os gigantes de capital de risco a16z, todos alertaram: "Os custos de verificação produzidos pela IA estão se tornando o maior gargalo e risco da nova era."
Balaji: O "custo de validação" para os usuários de IA torna-se um verdadeiro gargalo.
O ex-CTO da Coinbase, Balaji, publicou no mês passado que o fluxo de uso da IA pode ser dividido em duas fases: "entrada de prompt (prompting)" e "verificação de saída (verifying)".
O primeiro é algo que qualquer pessoa pode fazer, bastando digitar algumas linhas; mas o segundo é mais difícil, requerendo conhecimento especializado, paciência e raciocínio lógico para determinar se a IA cometeu um erro ou uma "ilusão (hallucination)".
AI PROMPTING → AI VERIFICANDO
A escalas de prompting de IA, porque prompting é apenas digitar.
Mas a verificação de IA não é escalável, porque verificar a saída da IA envolve muito mais do que apenas digitar.
Às vezes, você pode verificar a olho nu, razão pela qual a IA é ótima para frontend, imagens e vídeo. Mas…
— Balaji (@balajis) 4 de junho de 2025
Ele afirmou que essa diferença é facilmente tratada em imagens ou vídeos, pois o olho humano é naturalmente bom em julgar conteúdo visual. Mas, uma vez que se depara com código, artigos técnicos ou raciocínio lógico, a verificação se torna bastante complicada:
A questão mais importante ao usar a IA é: como posso verificar o conteúdo gerado por este modelo de IA de forma econômica? Precisamos de outras ferramentas ou produtos para validar conteúdos em áreas não visuais.
Ele acrescentou: "Para os utilizadores, a validação de IA é tão importante quanto as sugestões de IA."
Karpathy: A IA acelerou a criação, mas não reduziu o processo de validação.
O cofundador da OpenAI e pai da condução autônoma, Andrej Karpathy, expandiu ainda mais o ponto de vista de Balaji, observando que a essência da criação é um processo de duas etapas que ocorre repetidamente: "geração (generation)" e "discriminação (discrimination)": "Você fez uma marca (geração), mas também precisa dar um passo para trás e pensar se essa marca realmente melhorou a obra (discriminação)."
Ele acredita que os grandes modelos de linguagem (LLM) comprimem drasticamente o custo de tempo da "geração", permitindo que os usuários obtenham uma grande produção instantaneamente, mas não ajudam em nada a reduzir o custo e a carga de trabalho do "julgamento". Isso é especialmente grave para o código:
LLM é capaz de gerar facilmente dezenas ou até centenas de linhas de código, mas os engenheiros ainda precisam ler, entender e revisar toda a lógica e potenciais erros linha por linha.
Karpathy afirmou que isso é, na verdade, a coisa que a maioria dos engenheiros gasta mais tempo, o que é conhecido como "verificação de lacuna (Verification Gap)". A IA acelerou o processo de criação, mas esse custo de tempo foi transferido diretamente para a verificação.
( Da consultoria para a secretaria, os desafios de confiança da agência de IA: podemos confiar nas decisões autônomas da inteligência artificial? )
a16z: A crise de confiança da era da geração deve ser suprida pela tecnologia de criptografia.
O conhecido fundo de capital de risco a16z aborda a questão a partir de uma perspectiva institucional e industrial, acreditando que a tecnologia de IA acelerará a proliferação de "informações falsas", uma vez que a barreira de entrada para a geração é baixa e difícil de verificar, o que fará com que a internet fique inundada de conteúdo falsificado. A a16z defende que a confiança deve ser engenharia, e a solução é a introdução de tecnologias criptográficas, como:
Realizar processamento criptográfico dos dados produzidos em fases pela IA (hashed posts)
Criar usando identidades verificadas por blockchain (crypto IDs)
Através da transparência e rastreabilidade dos dados na blockchain, cria-se uma cadeia de conteúdo com fontes confiáveis.
Estas práticas não só garantem que a informação não possa ser alterada e que possa ser verificada, mas também estabelecem uma linha de defesa para a credibilidade do conteúdo na era da IA, prometendo tornar-se uma interseção importante entre a tecnologia de criptografia e o domínio da IA.
(Análise especializada da Messari: Como o protocolo Mira utiliza um mecanismo de consenso descentralizado para tornar a IA mais honesta?)
Desde as palavras-chave até à capacidade de validação, as novas competências e exigências da era da IA já estão formadas.
Atualmente, a IA generativa traz um crescimento exponencial na capacidade produtiva de informações, mas se não houver uma capacidade de validação igualmente eficiente para acompanhar, os usuários acabarão atolados em operações demoradas e na contaminação por informações falsas.
Assim, a habilidade central na atual era da IA não é mais apenas ser capaz de escrever prompts precisos, mas sim validar de forma eficaz e de baixo custo a produção da IA. Seja através da revisão mútua de modelos de IA ou de ferramentas de verificação especializadas, isso se torna extremamente importante.
Este artigo tem a IA tornado a vida mais conveniente? Balaji e a16z discutem como reduzir o custo de tempo para validar conteúdos de IA? Apareceu pela primeira vez na Chain News ABMedia.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
A IA tornou a vida mais conveniente? Balaji e A16z discutem como reduzir o custo de tempo na validação de conteúdos de IA?
A IA generativa aumentou significativamente a velocidade de produção de informações, mas também levantou uma preocupação negligenciada: "a lacuna de verificação (Verification Gap)". Desde o ex-CTO da Coinbase, Balaji, até o co-fundador da OpenAI, Karpathy, e os gigantes de capital de risco a16z, todos alertaram: "Os custos de verificação produzidos pela IA estão se tornando o maior gargalo e risco da nova era."
Balaji: O "custo de validação" para os usuários de IA torna-se um verdadeiro gargalo.
O ex-CTO da Coinbase, Balaji, publicou no mês passado que o fluxo de uso da IA pode ser dividido em duas fases: "entrada de prompt (prompting)" e "verificação de saída (verifying)".
O primeiro é algo que qualquer pessoa pode fazer, bastando digitar algumas linhas; mas o segundo é mais difícil, requerendo conhecimento especializado, paciência e raciocínio lógico para determinar se a IA cometeu um erro ou uma "ilusão (hallucination)".
AI PROMPTING → AI VERIFICANDO
A escalas de prompting de IA, porque prompting é apenas digitar.
Mas a verificação de IA não é escalável, porque verificar a saída da IA envolve muito mais do que apenas digitar.
Às vezes, você pode verificar a olho nu, razão pela qual a IA é ótima para frontend, imagens e vídeo. Mas…
— Balaji (@balajis) 4 de junho de 2025
Ele afirmou que essa diferença é facilmente tratada em imagens ou vídeos, pois o olho humano é naturalmente bom em julgar conteúdo visual. Mas, uma vez que se depara com código, artigos técnicos ou raciocínio lógico, a verificação se torna bastante complicada:
A questão mais importante ao usar a IA é: como posso verificar o conteúdo gerado por este modelo de IA de forma econômica? Precisamos de outras ferramentas ou produtos para validar conteúdos em áreas não visuais.
Ele acrescentou: "Para os utilizadores, a validação de IA é tão importante quanto as sugestões de IA."
Karpathy: A IA acelerou a criação, mas não reduziu o processo de validação.
O cofundador da OpenAI e pai da condução autônoma, Andrej Karpathy, expandiu ainda mais o ponto de vista de Balaji, observando que a essência da criação é um processo de duas etapas que ocorre repetidamente: "geração (generation)" e "discriminação (discrimination)": "Você fez uma marca (geração), mas também precisa dar um passo para trás e pensar se essa marca realmente melhorou a obra (discriminação)."
Ele acredita que os grandes modelos de linguagem (LLM) comprimem drasticamente o custo de tempo da "geração", permitindo que os usuários obtenham uma grande produção instantaneamente, mas não ajudam em nada a reduzir o custo e a carga de trabalho do "julgamento". Isso é especialmente grave para o código:
LLM é capaz de gerar facilmente dezenas ou até centenas de linhas de código, mas os engenheiros ainda precisam ler, entender e revisar toda a lógica e potenciais erros linha por linha.
Karpathy afirmou que isso é, na verdade, a coisa que a maioria dos engenheiros gasta mais tempo, o que é conhecido como "verificação de lacuna (Verification Gap)". A IA acelerou o processo de criação, mas esse custo de tempo foi transferido diretamente para a verificação.
( Da consultoria para a secretaria, os desafios de confiança da agência de IA: podemos confiar nas decisões autônomas da inteligência artificial? )
a16z: A crise de confiança da era da geração deve ser suprida pela tecnologia de criptografia.
O conhecido fundo de capital de risco a16z aborda a questão a partir de uma perspectiva institucional e industrial, acreditando que a tecnologia de IA acelerará a proliferação de "informações falsas", uma vez que a barreira de entrada para a geração é baixa e difícil de verificar, o que fará com que a internet fique inundada de conteúdo falsificado. A a16z defende que a confiança deve ser engenharia, e a solução é a introdução de tecnologias criptográficas, como:
Realizar processamento criptográfico dos dados produzidos em fases pela IA (hashed posts)
Criar usando identidades verificadas por blockchain (crypto IDs)
Através da transparência e rastreabilidade dos dados na blockchain, cria-se uma cadeia de conteúdo com fontes confiáveis.
Estas práticas não só garantem que a informação não possa ser alterada e que possa ser verificada, mas também estabelecem uma linha de defesa para a credibilidade do conteúdo na era da IA, prometendo tornar-se uma interseção importante entre a tecnologia de criptografia e o domínio da IA.
(Análise especializada da Messari: Como o protocolo Mira utiliza um mecanismo de consenso descentralizado para tornar a IA mais honesta?)
Desde as palavras-chave até à capacidade de validação, as novas competências e exigências da era da IA já estão formadas.
Atualmente, a IA generativa traz um crescimento exponencial na capacidade produtiva de informações, mas se não houver uma capacidade de validação igualmente eficiente para acompanhar, os usuários acabarão atolados em operações demoradas e na contaminação por informações falsas.
Assim, a habilidade central na atual era da IA não é mais apenas ser capaz de escrever prompts precisos, mas sim validar de forma eficaz e de baixo custo a produção da IA. Seja através da revisão mútua de modelos de IA ou de ferramentas de verificação especializadas, isso se torna extremamente importante.
Este artigo tem a IA tornado a vida mais conveniente? Balaji e a16z discutem como reduzir o custo de tempo para validar conteúdos de IA? Apareceu pela primeira vez na Chain News ABMedia.