Relatório de Pesquisa AI Layer1: A disputa pela infraestrutura de inteligência artificial descentralizada

Relatório de Pesquisa Layer1 de IA: Encontrando o Solo Fértil para DeAI na cadeia

Resumo

Nos últimos anos, empresas de tecnologia líderes, como OpenAI, Anthropic, Google e Meta, têm promovido o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM têm demonstrado capacidades sem precedentes em vários setores, expandindo enormemente o espaço da imaginação humana e, em alguns cenários, mostrando potencial para substituir o trabalho humano. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de alguns gigantes tecnológicos centralizados. Com capital robusto e controle sobre recursos de computação caros, essas empresas estabeleceram barreiras quase intransponíveis, tornando difícil para a maioria dos desenvolvedores e equipes de inovação competir com elas.

Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública tende a se concentrar nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, essas questões afetarão profundamente o desenvolvimento saudável da indústria de IA e a aceitação social. Se não forem resolvidas adequadamente, a controvérsia sobre se a IA deve "fazer o bem" ou "fazer o mal" tornará-se cada vez mais proeminente, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios proativamente.

A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram várias aplicações "Web3 AI" em algumas das principais blockchains. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam diversos problemas: por um lado, o grau de descentralização é limitado, com etapas e infraestruturas chave ainda dependendo de serviços de nuvem centralizados, e a propriedade meme é excessiva, dificultando a sustentação de um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade de modelo, uso de dados e cenários de aplicação, com a profundidade e abrangência da inovação a serem aprimoradas.

Para realmente realizar a visão de IA descentralizada, de modo que a blockchain possa suportar aplicações de IA em grande escala de forma segura, eficiente e democrática, e competir em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta em IA, a governança democrática e a segurança dos dados, promovendo o próspero desenvolvimento do ecossistema de IA descentralizada.

Biteye e PANews publicam em conjunto um relatório de pesquisa sobre AI Layer1: buscando a terra fértil para DeAI na cadeia

As características principais da camada 1 de IA

AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades principais:

  1. Mecanismos de incentivo eficientes e consenso descentralizado O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos como poder computacional e armazenamento. Ao contrário dos nós de blockchain tradicionais que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não só fornecendo poder computacional e completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, rompendo assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe exigências mais elevadas ao consenso subjacente e aos mecanismos de incentivo: o AI Layer 1 deve ser capaz de avaliar, incentivar e verificar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a alocação eficiente de recursos. Só assim se pode garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder computacional.

  2. Desempenho elevado e suporte a tarefas heterogéneas A tarefa de AI, especialmente o treinamento e a inferência de LLM, impõe exigências elevadas sobre o desempenho computacional e a capacidade de processamento paralelo. Além disso, o ecossistema de AI na cadeia frequentemente precisa suportar uma variedade de tipos de tarefas heterogéneas, incluindo diferentes estruturas de modelo, processamento de dados, inferência, armazenamento e outros cenários diversos. AI Layer 1 deve ser profundamente otimizado na sua arquitetura subjacente para atender às exigências de alta taxa de transferência, baixa latência e paralelismo elástico, e deve prever um suporte nativo para recursos de computação heterogêneos, garantindo que todas as tarefas de AI possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefa única" para "ecossistema complexo e diversificado".

  3. Verificabilidade e Garantia de Saída Confiável A AI Layer 1 não só deve prevenir malefícios do modelo e a manipulação de dados, como também deve garantir, a partir da mecânica de base, a verificabilidade e a alinhamento dos resultados de saída da AI. Ao integrar tecnologias de ponta como ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma pode permitir que cada inferência de modelo, treinamento e processo de tratamento de dados sejam independentemente verificados, garantindo a justiça e a transparência do sistema de AI. Ao mesmo tempo, essa verificabilidade também ajuda os usuários a esclarecer a lógica e os fundamentos da saída da AI, realizando "o que se obtém é o que se deseja", aumentando a confiança e a satisfação dos usuários com os produtos de AI.

  4. Proteção da Privacidade dos Dados As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica nas áreas financeira, médica e social. A IA Layer 1 deve garantir a verificabilidade enquanto adota tecnologias de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, assegurando a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente a divulgação e o uso indevido de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.

  5. Poderosa capacidade de suporte e desenvolvimento do ecossistema Como uma infraestrutura nativa de AI de Layer 1, a plataforma não só precisa ter liderança técnica, mas também deve fornecer aos desenvolvedores, operadores de nós, provedores de serviços de AI e outros participantes do ecossistema ferramentas de desenvolvimento completas, SDKs integrados, suporte de operações e mecanismos de incentivos. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promover a implementação de aplicações nativas de AI ricas e diversas, e alcançar a prosperidade contínua de um ecossistema de AI descentralizado.

Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematicamente revisando os últimos desenvolvimentos na área, analisando o estado atual dos projetos e discutindo as tendências futuras.

Biteye e PANews lançam relatório de pesquisa AI Layer1: buscando o solo fértil para DeAI na cadeia

Sentient: Construir modelos de IA descentralizados de código aberto e leais

Visão geral do projeto

Sentient é uma plataforma de protocolo de código aberto que está a construir uma blockchain de AI Layer1 ( na fase inicial como Layer 2, que depois será migrada para Layer 1). Ao combinar AI Pipeline e tecnologia de blockchain, constrói um ecossistema de inteligência artificial descentralizado. O seu objetivo central é resolver problemas de propriedade de modelos, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, rentável, leal), permitindo que os modelos de AI realizem uma estrutura de propriedade na cadeia, transparência nas chamadas e partilha de valor. A visão da Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de AI, promovendo assim um ecossistema de rede de Agentes de AI justo e aberto.

A equipe da Sentient Foundation reúne os melhores especialistas acadêmicos, empreendedores e engenheiros de blockchain do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto o cofundador da Polygon, Sandeep Nailwal, lidera a estratégia de blockchain e o layout ecológico. Os membros da equipe têm formação em empresas renomadas como Meta, Coinbase, Polygon, bem como em universidades de topo como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP e visão computacional, trabalhando juntos para a implementação do projeto.

Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, a Sentient chegou ao mercado com um forte respaldo desde o início, possuindo recursos abundantes, uma vasta rede de contatos e reconhecimento no mercado, o que proporcionou um forte apoio ao desenvolvimento do projeto. Em meados de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pelo Founders Fund, Pantera e Framework Ventures, com a participação de outras instituições de investimento, incluindo Delphi, Hashkey e dezenas de outras VCs renomadas.

Biteye e PANews publicam em conjunto relatório de pesquisa sobre AI Layer1: em busca da terra fértil para DeAI na cadeia

Arquitetura de Design e Camada de Aplicação

Camada de infraestrutura

Arquitetura central

A arquitetura central do Sentient é composta por um pipeline de IA (AI Pipeline) e um sistema de blockchain.

O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA Leal", contendo dois processos principais:

  • Planeamento de Dados (Data Curation): um processo de seleção de dados impulsionado pela comunidade, utilizado para o alinhamento do modelo.
  • Treinamento de Lealdade (Loyalty Training): garantir que o modelo mantenha um processo de treinamento alinhado com a intenção da comunidade.

O sistema de blockchain proporciona transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:

  • Camada de armazenamento: Armazenar pesos de modelo e informações de registro de impressões digitais;
  • Camada de distribuição: entrada de chamada do modelo controlada por contrato de autorização;
  • Camada de acesso: verifica se o usuário está autorizado através da prova de permissões;
  • Camada de incentivo: o contrato de roteamento de receita distribuirá o pagamento em cada chamada entre treinadores, implantadores e validadores.

OML modelo de estrutura

A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, com o objetivo de fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:

  • Abertura: O modelo deve ser de código aberto, com código e estrutura de dados transparentes, facilitando a replicação, auditoria e melhoria pela comunidade.
  • Monetização: Cada chamada de modelo irá acionar um fluxo de receita, o contrato na cadeia irá distribuir os ganhos para os treinadores, implementadores e validadores.
  • Lealdade: O modelo pertence à comunidade de contribuidores, a direção de atualização e a governança são decididas pela DAO, e o uso e modificação são controlados por mecanismos de criptografia.

Criptografia nativa de IA (AI-native Cryptography)

A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedades de baixa dimensão e as propriedades de diferenciabilidade dos modelos para desenvolver um mecanismo de segurança leve que é "verificável, mas não removível". A tecnologia central é:

  • Impressão digital incorporada: durante o treinamento, insere-se um conjunto de pares de chave-valor de query-resposta ocultos para formar a assinatura única do modelo;
  • Protocolo de verificação de propriedade: verificar se a impressão digital foi preservada através de um detector de terceiros (Prover) na forma de uma pergunta query;
  • Mecanismo de chamada de permissões: antes da chamada, é necessário obter o "certificado de autorização" emitido pelo proprietário do modelo, e o sistema, com base nisso, autoriza o modelo a decodificar a entrada e retornar a resposta correta.

Este método permite a realização de "chamadas de autorização baseadas em comportamento + validação de propriedade" sem custos de recriptografia.

Modelo de Certificação e Estrutura de Execução Segura

Sentient atualmente utiliza a segurança Melange misturada: combinando confirmação de identidade por impressão digital, execução TEE e distribuição de lucros de contratos na cadeia. O método de impressão digital é implementado pela OML 1.0 como a linha principal, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", ou seja, presumir conformidade, com a possibilidade de detecção e punição após a violação.

O mecanismo de impressão digital é a implementação chave do OML, permitindo que o modelo gere assinaturas únicas na fase de treinamento através da incorporação de pares específicos de "pergunta-resposta". Através dessas assinaturas, o proprietário do modelo pode verificar a propriedade, evitando cópias e comercialização não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores de modelos, mas também fornece um registro rastreável na cadeia sobre o comportamento de uso do modelo.

Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo o acesso e uso não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens de alto desempenho e em tempo real fazem dele uma tecnologia central para a implantação de modelos atuais.

No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica completa (FHE), para melhorar ainda mais a proteção da privacidade e a verificabilidade, oferecendo soluções mais maduras para a implementação descentralizada de modelos de IA.

![Biteye e PANews lançam relatório de pesquisa sobre AI Layer1: procurando a terra fértil para DeAI na cadeia](

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 6
  • Compartilhar
Comentário
0/400
CommunitySlackervip
· 07-25 11:33
Adorar os gigantes não tem graça, a inovação é que tem potencial.
Ver originalResponder0
ZeroRushCaptainvip
· 07-24 20:00
Bom Deus, a monopolização é assim, estão a fazer as pessoas de parvas os nossos investidores de retalho.
Ver originalResponder0
StakeHouseDirectorvip
· 07-24 20:00
O que está a fazer a monopolização das gigantes da tecnologia?
Ver originalResponder0
SmartContractPlumbervip
· 07-24 19:59
O poder de gestão da IA centralizada é ainda mais assustador do que as vulnerabilidades de contrato; quem pode auditá-las?
Ver originalResponder0
VCsSuckMyLiquidityvip
· 07-24 19:51
O monopólio é o mais tóxico no caminho da inovação 🐸
Ver originalResponder0
PriceOracleFairyvip
· 07-24 19:49
quando real ai descentralizada, fren? esta coisa é apenas bigtech com roupas de web3...
Ver originalResponder0
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)