Resultados da pesquisa por "LLM"

A empresa de IA OpenRouter, cofundada pela OpenSea, arrecadou 40 milhões de dólares em financiamento, com a a16z liderando a rodada, avaliando a empresa em 500 milhões de dólares.

Gate News bot mensagem, liderada pelo cofundador da OpenSea, a OpenRouter concluiu uma rodada de sementes de 40 milhões de dólares e uma rodada A de financiamento, com o objetivo de acelerar o desenvolvimento de sua plataforma de agregação de modelos de linguagem de grande escala. Este financiamento foi liderado pela Andreessen Horowitz (a16z) e Menlo Ventures, com a participação da Sequoia Capital e de conhecidos investidores anjo do setor. De acordo com informações citadas pelo Wall Street Journal, a avaliação atual da empresa é de 500 milhões de dólares.
Mais

A plataforma de IA OpenRouter, fundada por um dos co-fundadores da OpenSea, completou uma ronda de financiamento Série A de 40 milhões de dólares, com a a16z e outros como investidores principais.

A plataforma de mercado de modelos de IA OpenRouter anunciou recentemente que concluiu um financiamento de 40 milhões de dólares, com uma avaliação de cerca de 500 milhões de dólares. O financiamento será utilizado para o desenvolvimento de produtos e para expandir o suporte empresarial. Desde o seu lançamento, atraiu mais de 1 milhão de desenvolvedores, com gastos anuais em inferências a crescer rapidamente, abrangendo clientes que vão desde startups até multinacionais.
Mais

Estudo: A dependência a longo prazo de grandes modelos de linguagem como o ChatGPT pode prejudicar a capacidade cognitiva.

Notícias do ChainCatcher, uma equipe de pesquisa do MIT, do Wellesley College e do Massachusetts College of Art descobriu recentemente que a dependência a longo prazo de grandes modelos de linguagem (LLM) como o ChatGPT pode prejudicar as capacidades cognitivas. A pesquisa mostra que a quantidade de conexões de ondas Alpha no cérebro dos participantes que usaram a escrita com IA é apenas metade da dos pensadores independentes (42 contra 79), e 83,3% não conseguiram citar com precisão o conteúdo de seus próprios artigos. Os pesquisadores chamam esse fenômeno de dívida cognitiva - aliviando a carga de pensamento a curto prazo, mas levando a uma diminuição do pensamento crítico e da criatividade a longo prazo.
Mais

$FLOCK ganha mais de 52% após anunciar uma colaboração estratégica com qwen

Gate.io News
Mais
  • 1

Moonshot lança Large Language Model ($LLM)

Odaily Planet Daily News Segundo informações oficiais, Moonshot lançou Large Language Model (LLM), com limite de mercado atual de 9470 milhões de dólares e volume de 24 horas de 1.542
Mais
  • 1

Moonshot lança a moeda de meme LLM baseada em IA na cadeia Solana

MoonshotListing detetou a listagem de LLM, um meme coin com conceito de IA na rede Solana, com um limite de mercado reportado de 96 milhões de dólares e uma queda de 9,7% nas últimas 24 horas. A inspiração para o LLM vem do logotipo da ai16z. O BlockBeats lembra aos utilizadores que as meme coins têm pouca utilidade real, e apresentam uma grande flutuação de preços, por isso é necessário investir com cautela.
Mais
  • 1
  • 2

A Dar Open Network anunciou que irá lançar duas estruturas de IA: o quadro de múltiplos agentes DeAI e aiNFT

A Dar Open Network anunciou o lançamento de dois frameworks de IA, o DeAI Multi-Agent Framework e o aiToken não fungível. O DeAI Multi-Agent Framework é uma plataforma para desenvolvedores construírem, implantarem e coordenarem agentes de IA colaborativos, enquanto o aiToken não fungível é uma ferramenta inovadora que permite que os proprietários de Tokens não fungíveis liberem o potencial de seus ativos digitais personalizando agentes de IA e interagindo dinamicamente com os usuários.
Mais

Initia: Rena estreia-se e arrecada 3,3 milhões de dólares em financiamento pré-seed, lançando a TrustEE AppChain

A protocolo de interoperação Rollup da Initia, Rena, foi lançado e recebeu um financiamento pré-semente de 3,3 milhões de dólares. Rena utiliza a AppChain TrustEE para ajudar os desenvolvedores a construírem aplicações de IA verificáveis, protegidas e escaláveis em qualquer Bloco na cadeia. Rena está comprometida em fornecer aos usuários IA com propriedade e verificabilidade, impulsionando o desenvolvimento de aplicações nas áreas de Finanças Descentralizadas, jogos/sociais e LLM multimodal.
Mais

Parceiro da a16z: Produtos LLM têm o potencial de serem disruptivos para o negócio de pesquisa

O sócio da a16z, Andrew Chen, levantou a questão nas redes sociais se o ChatGPT da OpenAI tem um potencial comercial surpreendente, enquanto discute o número médio de pesquisas por pessoa e a receita por exibição única, bem como o desempenho após a adoção do modelo de monetização de anúncios. Ele acredita que produtos com uma base de usuários semelhante à do navegador Firefox geram uma receita anual próxima de 1 bilhão de dólares em seu pico, e se o ChatGPT for gratuito, o número de usuários ativos mensais pode aumentar significativamente. Ao mesmo tempo, ele aponta que produtos semelhantes ao Large Language Models (LLM) têm o potencial de se tornar disruptores no setor de buscas.
Mais
  • 3
  • 1

O JPMorgan Chase lançou internamente uma ferramenta de IA exclusiva para analistas

BlockBeats News, on July 26th, according to Cointelegraph, investment banking giant JPMorgan is launching an internal version of an AI-powered product similar to ChatGPT called LLM Suite. This tool is primarily designed to assist analysts in writing, generating ideas, and summarizing documents. JPMorgan states that LLM Suite is a "ChatGPT-like product" that can work in collaboration with other internal systems handling sensitive financial information to enhance "general productivity".
Mais
Odaily Planet Daily News Lightning Labs lançou novas ferramentas Bitcoin de inteligência artificial projetadas para permitir que os desenvolvedores integrem perfeitamente o Bitcoin e a Lightning Network em seus aplicativos de inteligência artificial. , enviar/receber Bitcoin na Lightning Network e interagir com os nós daemon da Lightning Network. Além disso, esta versão inclui o servidor proxy reverso Aperture, que oferece suporte ao Lightning Node Connect e fornece preços dinâmicos de endpoint de API. Essas ferramentas aprimorarão a acessibilidade e a funcionalidade da infraestrutura de IA. (O bloco)
Babbitt News, 9 de junho, de acordo com o relatório Chosun Ilbo, foi confirmado que a Samsung está desenvolvendo totalmente seu próprio modelo de linguagem grande AI (LLM) para uso interno. Este produto é semelhante ao ChatGPT. Ele foi desenvolvido desde junho e é liderado pelo Samsung Research Institute. Fontes disseram que quase todos os recursos de computação GPU da Samsung foram investidos em treinamento de modelos em larga escala. A empresa planeja concluir o desenvolvimento da primeira versão do LLM dentro de dois meses. No momento, a Samsung planeja usar esse grande modelo para resumo de documentos, desenvolvimento de software e tradução de idiomas, e ainda não decidiu se fornecerá o produto aos consumidores.
  • 2
Notícias PANews em 2 de junho, de acordo com a PR Newswire, a empresa de análise de blockchain Elliptic anunciou a integração do modelo de linguagem grande (LLM) ChatGPT em seu trabalho de coleta de inteligência e pesquisa fora da cadeia, ajudando pesquisadores e investigadores a sintetizar e organizar mais rapidamente a inteligência em novos fatores de risco em maior escala. A integração do ChatGPT permitirá que a Elliptic entenda exatamente a exposição ao risco de um cliente para tomar decisões mais informadas e seguras, disse a empresa.

Pesquisadores da Apple: Modelos de IA mainstream ainda não conseguem atingir o nível de raciocínio esperado para AGI.

Em um artigo publicado em junho intitulado "The Illusion of Thinking", os pesquisadores da Apple apontaram que os principais modelos de IA (AGI) ainda têm dificuldades com o raciocínio e, como resultado, o desenvolvimento de (AGI) gerais de IA é um resultado Ainda há um longo caminho a percorrer. O artigo aponta que as atualizações mais recentes para os principais modelos de linguagem grande de IA (LLM), como o ChatGPT da OpenAI e o Claude da Anthropic, incluíram grandes modelos de inferência (LRM), mas suas características básicas, Os recursos e limitações estendidos "ainda não são totalmente compreendidos". A avaliação atual centra-se principalmente em referências matemáticas e de codificação estabelecidas, "enfatizando a precisão da resposta final". No entanto, os pesquisadores disseram que a avaliação não forneceu informações sobre as capacidades de raciocínio dos modelos de IA, em contraste com a expectativa de que a inteligência geral artificial seria alcançada em apenas alguns anos.
Mais
  • 1

O motor de negociação AI na cadeia Brian anunciou a sua interrupção, o fundador critica a preferência dos VC por tokens especulativos.

O projeto de reconhecimento de intenção de IA Brian, que partiu do ETHPrague 2023 Hackathon, anunciou a sua interrupção devido à perda de vantagem no mercado e problemas de financiamento, criticando os VC por se concentrarem excessivamente no TGE e na especulação, ignorando o progresso real. A equipe tinha planos de lançar um modelo e um Token exclusivos para Web3, mas a especulação do setor e problemas de custo levaram ao fracasso do projeto.
Mais

Agência: Em 2024, a receita total das 10 maiores empresas de design de IC do mundo aumentará 49% ano a ano, e a NVIDIA será responsável por metade da proporção

Em 2024, a receita total das dez maiores empresas de design de IC do mundo será de cerca de 249,8 bilhões de dólares, uma taxa de crescimento anual de 49%, dos quais a NVIDIA crescerá até 125%. As perspetivas para 2025 mostram que os processos avançados de fabricação de semicondutores impulsionarão o crescimento do poder de computação da IA, e grandes modelos de linguagem continuarão a surgir, e os dispositivos de IA de borda se tornarão a próxima onda de impulsionadores de crescimento de semicondutores.
Mais

A comunidade SCI-HUB desenvolveu a arquitetura SCAI de agentes de inteligência artificial científica, com o objetivo de fornecer ferramentas mais precisas e confiáveis para pesquisadores.

BlockBeats 消息,13 de janeiro, de acordo com as notícias oficiais, a comunidade da SCI-HUB desenvolveu uma nova arquitetura de Agentes de IA, SCAI (SCientific AI), com o objetivo de fornecer ferramentas mais precisas e confiáveis para os pesquisadores. O objetivo do SCAI é resolver o fenômeno de 'alucinação' do LLM ao responder questões científicas, permitindo que a IA
Mais
  • 4
  • 2

O usuário do Reddit afirma que o ChatGPT inicia uma conversa com base na inferência de mensagens históricas

A OpenAI anunciou que lançará um modelo de linguagem ChatGPT de grande escala ainda mais inteligente, com habilidades de raciocínio e capacidade de 'pensar antes de responder'. O modelo é capaz de inferir a situação do usuário com base em diálogos anteriores quando questionado sobre a experiência do primeiro dia de aula. Isso é uma das novas funcionalidades dessa atualização. O novo modelo terá tempos de resposta mais rápidos e capacidade de pesquisa independente aprofundada.
Mais
  • 8
  • 2
De acordo com o relatório da 36 Krypton em 5 de junho, a empresa de dados de IA "Integer Intelligence" concluiu recentemente dezenas de milhões de rodadas de financiamento Pré A. Yishang Capital é o consultor financeiro exclusivo. Esta rodada de financiamento é usada principalmente para a atualização iterativa da plataforma inteligente de engenharia de dados (Plataforma ABAVA). Além disso, a inteligência inteira também integrará recursos de serviço de dados RLHF (aprendizado por reforço de feedback humano) para fornecer soluções para o desenvolvimento e iteração de modelos de linguagem grandes (LLM).
De acordo com o relatório da 36 Krypton em 5 de junho, a empresa de dados de IA "Integer Intelligence" concluiu recentemente dezenas de milhões de rodadas de financiamento Pré A. Yishang Capital é o consultor financeiro exclusivo. Esta rodada de financiamento é usada principalmente para a atualização iterativa da plataforma inteligente de engenharia de dados (Plataforma ABAVA). Além disso, a inteligência inteira também integrará recursos de serviço de dados RLHF (aprendizado por reforço de feedback humano) para fornecer soluções para o desenvolvimento e iteração de modelos de linguagem grandes (LLM).

O desenvolvedor principal do Gaia, Harish Kotra, participou da cúpula ETHDenver 2025 e compartilhou suas opiniões sobre LLMs de código aberto

Gaia é um projeto web descentralizado que visa fornecer serviços de proxy de IA seguros, resistentes à censura e monetizáveis. Seu principal desenvolvedor, Harish Kotra, compartilhou o tópico de execução de um LLM de código aberto na ETHDenver 2025. GaiaNet é construído em nós de computação de borda controlados por indivíduos e empresas, projetado para fundir o know-how e as habilidades de todos, protegendo a privacidade.
Mais

Vitalik:mercado de previsão pode permitir que a comunidade X faça anotações mais rapidamente

O co-fundador da Ethereum afirmou que a inteligência artificial e a tecnologia de mercado de previsão podem acelerar a produção de notas comunitárias em plataformas de redes sociais. As notas comunitárias são uma funcionalidade que permite que as comunidades acrescentem informações de contexto a publicações potencialmente enganosas. Através do mercado de previsão, as pessoas podem utilizar grandes modelos de linguagem de inteligência artificial e robôs para determinar se as publicações merecem ser seguidas pela comunidade.
Mais
  • 1

O True Fund anunciou uma doação ao projeto de IA de código aberto vLLM

O Daily Star Planet Daily News: A True Fund announced a donation to the open source AI project vLLM. The True Fund stated that the donation aims to promote the popularization of AI technology and benefit more people. vLLM é uma estrutura de aceleração de inferência de grande modelo de código aberto desenvolvida por uma equipe de três pessoas da Universidade da Califórnia, Berkeley. Ela suporta mais de 30 novos projetos de código aberto, incluindo Mistral, Llama e outros.
Mais
金十数据5月21日讯,A Lenovo lançou o primeiro PC da próxima geração com Qualcomm Snapdragon XElite - Lenovo YogaSlim7x e Lenovo ThinkPad T14s Gen6. De acordo com as informações, esses dois AIPC's com o novo processador Snapdragon XElite estão equipados com CPU Oryon de 12 núcleos, GPU Adreno e HexagonNPU dedicada. Com as novas funcionalidades avançadas da Microsoft e Copilot+, os usuários podem usar a função de modelo de linguagem de grande escala (LLM) mesmo offline.
De acordo com a Interface News em 27 de junho, a empresa de banco de dados MongoDB anunciou que cooperará com o Google Cloud para acelerar o uso de IA generativa pelos desenvolvedores e o desenvolvimento de novos aplicativos. Os desenvolvedores podem aproveitar o MongoDB Atlas e a integração com o Google Cloud Vertex AI Large Language Model (LLM) para acelerar o desenvolvimento de software.
  • 2
A IT House divulgou um artigo hoje afirmando que o volume de heap cego do modelo AI não é necessariamente melhor. Depende mais da qualidade dos dados de treinamento. A Microsoft lançou recentemente um modelo de linguagem phi-1 com 1,3 bilhão de parâmetros , usando treinamento de conjunto de dados de alta qualidade "nível de livro didático", diz-se que "o efeito real é melhor do que GPT 3.5 com 100 bilhões de parâmetros". O modelo é baseado na arquitetura Transformer, e a equipe da Microsoft usou dados "de nível de livro didático" da web e "conteúdo logicamente rigoroso" processado com GPT-3.5, bem como oito GPUs Nvidia A100, para concluir o treinamento em apenas 4 dias . A equipe da Microsoft disse que, em vez de aumentar o número de parâmetros do modelo, melhorar a qualidade do conjunto de dados de treinamento do modelo pode aumentar a precisão e a eficiência do modelo. Portanto, eles usaram dados de alta qualidade para treinar o modelo phi-1 . No teste, a pontuação do phi-1 atingiu 50,6%, o que é melhor do que o GPT-3,5 (47%) com 175 bilhões de parâmetros. A Microsoft também afirmou que o phi-1 será de código aberto no HuggingFace a seguir, e esta não é a primeira vez que a Microsoft desenvolve um pequeno LLM. Antes disso, eles criaram um Orca de 13 bilhões de parâmetros, que foi treinado usando dados sintéticos GPT-4. O desempenho também é melhor que o ChatGPT.
De acordo com o Securities Times, em 20 de junho, o Jinshan Office realizou um briefing de desempenho anual de 2022. Em relação ao desenvolvimento de produtos relacionados à IA, Zou Tao, presidente da empresa, disse que a IA é uma das importantes estratégias de produto da Kingsoft Office. Atualmente, a empresa opta por "andar sobre duas pernas" e primeiro optará por cooperar com prestadores de serviços técnicos relacionados a AIGC e LLM e realizar pesquisa e desenvolvimento de produtos por meio de capacitação técnica; ao mesmo tempo, eles também são continuando a contatar algumas excelentes empresas iniciantes. Além disso, as funções relacionadas ao "WPSAI" serão lançadas gradualmente, o que deverá capacitar totalmente toda a linha de produtos da empresa.
  • 1
Segundo a Businesskorea, de acordo com fontes sul-coreanas, a divisão Device Solutions (DS) responsável pelos negócios de semicondutores da Samsung Electronics está desenvolvendo seu próprio modelo de linguagem grande (LLM) de GPT-3.5 ou superior. Inteligência artificial personalizada para melhorar a produtividade e o trabalho eficiência. É relatado que o serviço deve iniciar seu serviço básico já em dezembro deste ano e fornecer serviços de busca profissional, incluindo conhecimento e dados da empresa, em fevereiro do próximo ano.

A rede social Cyber lançará o modelo de IA Cyber.AI de encriptação

A rede social Cyber lançará o modelo de IA de encriptação Cyber.AI, que analisa milhões de postagens e contas X, combinadas com dados de encriptação de mais de 200.000 projetos, para oferecer melhor suporte a agentes de IA inteligentes. O Cyber.AI também colabora com @elizaOSai para que os desenvolvedores possam acessar uma base de conhecimento de encriptação mais especializada. O modelo está construindo um assistente de encriptação e um modelo de base de encriptação nativo, para fornecer consultas e informações de encriptação mais precisas.
Mais
  • 2
  • 1

A equipe de desenvolvimento da Allora implementou a gestão de negociação inteligente com o DeepSeek AI Agent.

A Gold Finance reporta que a equipe de desenvolvimento da Allora conseguiu utilizar o DeepSeek como agente de IA para avaliar as transações LLM e a Allora Network como plataforma de interação na Hyperliquid
Mais

Algum Endereço precoce comprou LLM no valor de 63.000 dólares, e a Posição atualmente vale 1.300.000 dólares

BlockBeats News, em 9 de janeiro, de acordo com o monitoramento da Arkham, em um período de 3 horas após o lançamento do Endereço iniciado por DxjmH, foi comprado LLM no valor de US$ 63.000 na LLM, o valor atual da Posição já subiu para 130
Mais
  • 6
  • 3

Um trader comprou 2300 LLM e obteve lucro de mais de 500.000 dólares.

Odaily Daily Planet News According to Onchain Lens monitoring, a trader bought 2300 LLM and made a profit of over 50
Mais
  • 2
  • 1

Um trader ganhou 1.887 vezes o lucro comprando LLM no início e vendendo em 4 horas.

BlockBeats News, em 8 de janeiro, de acordo com o monitoramento da Onchain Lens, um trader ganhou 500.000 dólares em 4 horas comprando LLM cedo. O endereço anteriormente comprou 23 milhões de LLM na PumpFun ao preço de 1,37 SOL (cerca de 269 dólares). Após o aumento acentuado do preço da moeda, o endereço fechou todas as posições de LLM ao preço de 2.594 SOL (cerca de 507.000 dólares). O lucro foi de 1887.
Mais
  • 4
  • 2
Dados do dia 12 de junho da Jinshi mostram que, de acordo com a pesquisa do instituto global de pesquisa de mercado TrendForce, o primeiro trimestre viu o início da temporada fraca tradicional para terminais de consumo. Embora houvesse ocasionais pedidos urgentes na cadeia de fornecimento, na maioria dos casos, era apenas reposição de estoque para clientes individuais, resultando em um impulso ligeiramente fraco. Ao mesmo tempo, a demanda por aplicações automotivas e de controle industrial foi afetada por fatores como inflação, conflitos geopolíticos e energia. Somente os servidores de IA se destacaram como um ponto brilhante na cadeia de fornecimento do primeiro trimestre, devido ao investimento maciço de gigantes CSP globais e à onda de construção de grandes modelos de linguagem (LLM) por parte das empresas. Com base nesses fatores, o valor trimestral da produção dos dez principais fabricantes de wafer do mundo no primeiro trimestre caiu 4,3% para 29,2 bilhões de dólares.
De acordo com um relatório da Financial Associated Press em 14 de junho, o Bank of America Securities divulgou um relatório afirmando que a AMD anunciou recentemente seu mais recente chip de GPU AI "MI300 X" e prevê que o mercado de chips AI aumentará nos EUA US$ 30 bilhões este ano para US$ 150 bilhões em 2027. . No entanto, o banco permanece "neutro" em relação à AMD, já que a empresa não mencionou nenhum cliente comercial participando de seus novos produtos de GPU. A AMD ainda está muito atrás da Nvidia, já que a AMD não começará a testar chips de IA até o próximo trimestre. Em termos de tempo, quando a AMD começar a se estabilizar com aceleradores de GPU baseados em 5nm, a Nvidia poderá lançar sua GPU de arquitetura Blackwell otimizada para LLM baseada em 3nm de próxima geração, ampliando ainda mais sua liderança já considerável no mercado de IA.

Um certo Endereço vendeu 24,25 milhões de LLM, perdendo um lucro de 3 milhões de dólares

Odaily Daily Planet News According to Onchain Lens, a certain Endereço bought 24.25 million LLM tokens with 9.17 SOL yesterday, but sold these tokens at a loss only 2 minutes after the purchase, obtaining 8.27 SOL. Now the value of these tokens has exceeded 300.
Mais
  • 1
  • 1

LLMLimite de mercado突破1.4亿美元,1H涨幅43.49%

Odaily Daily News GMGN data shows that LLM Increase broke through 0.14 USDT, now reported 0.1403 USDT, 1-hour increase of 43.49%, Market Cap temporarily reported at 1.41 billion dollars. Odaily lembra aos utilizadores, Meme
Mais
  • 1

A posição de LLM no TOP 5 das baleias agora tem um lucro flutuante de 670.000 dólares.

Odaily Planet Daily News, de acordo com a analista da cadeia Ai Tia, as TOP5 baleias da Participações LLM compraram 9,49 milhões de moedas LLM a um preço baixo de 0,01949 dólares na noite passada, atualmente com um lucro flutuante de 670 mil dólares (custo de apenas 185 mil dólares, taxa de retorno
Mais

Um comerciante 'Perda de corte' perdeu 10,63 milhões de LLM, perdendo um lucro potencial de 1,5 milhão de dólares.

BlockBeats News, on January 9th, according to Lookonchain's monitoring, a trader sold 10.63 million LLM for $1,725, and it is now worth over $1.5 million. Yesterday, the trader spent 14 SOL (2,767 USD) to buy 10.63 million LLM. However, shortly after his purchase, the price started to decline, so he sold all of them at a price of 8.74 SOL (1,725 USD).
Mais
  • 3
  • 1

Dados: LLM Limite de mercado ultrapassa 100 milhões de dólares

Notícias do ChainCatcher, de acordo com os dados GMGN, LLM Aumento ultrapassou US$ 0,1 e agora está cotado a US$ 0,125, um aumento de 30% em uma hora. A capitalização de mercado provisória é de US$ 1,26.
Mais
  • 2

Um investidor inteligente comprou 23,76 milhões de LLM há 19 horas, com um lucro flutuante atual de 289 vezes.

Segundo o monitoramento da The Data Nerd, há 19 horas, o investidor inteligente FdvYZ comprou 23,76 SOL (cerca de 4700 dólares) para adquirir 23,76 milhões de LLM, cujo valor atual subiu para 1,36 milhões de dólares, resultando em um ROI de 289 vezes. Transferiu 15 milhões de LLM para a carteira.
Mais
  • 3
  • 2

A capitalização de mercado de AI meme币LLM ultrapassou os 100 milhões de dólares em um curto espaço de tempo, com um volume de negociação de 24 horas superior a 330 milhões de dólares.

BlockBeats Notícias, em 9 de janeiro, de acordo com as informações de mercado da GMGN, o AI meme moeda LLM emitiu por 22 horas, com uma capitalização de mercado de curto prazo acima de 100 milhões de dólares, agora relatando 99,8 milhões de dólares, com um volume de negociação de 24 horas acima de 3,3
Mais
  • 3

encriptação concluiu uma rodada de financiamento pré-seed de 6 milhões de dólares com a empresa AI Fraction AI, liderada conjuntamente pela Spartan Group e pela Symbolic Capital.

A PANews informou em 19 de dezembro que a Fraction AI, uma startup focada em encriptação e inteligência artificial com ênfase em descentralização de dados, concluiu uma rodada de financiamento pré-seed de 6 milhões de dólares. A rodada de financiamento foi liderada pela Spartan Group e Symbolic Capital, com a participação de investidores como Borderless Capital, Anagram, Foresight Ventures e Karatage. Além disso, Sandeep Nailwal, co-fundador da Polygon, e Illia Polosukhin, co-fundador do NEAR Protocol, também participaram como investidores anjo e consultores. Fração
Mais

O projeto de IA da ecossistema Solana, CAI | CharacterX, anuncia o lançamento da infraestrutura de IA de nível empresarial CAI.

O projeto de IA CAI da ecologia Solana | CharacterX lançará uma solução de infraestrutura de IA de nível empresarial CAI. O COO afirmou que o CAI já fechou acordos iniciais com várias empresas, com uma receita mensal de 500.000 dólares. O projeto recebeu investimento inicial da Stanford Blockchain Accelerator e de vários milhões de dólares.
Mais

CEO da Anthropic: O desenvolvimento da IA não diminuiu

O CEO da Anthropic, Dario Amodei, afirmou que espera que a melhoria das grandes modelos de linguagem não diminua, apesar das recentes notícias de que a empresa, juntamente com o Google e a OpenAI, terão modelos LLM em breve com um aumento de desempenho não muito significativo em comparação com os modelos anteriores. De acordo com relatos no início deste mês, o desempenho do modelo flagshio mais recente da OpenAI, Orion, não melhorou. (The
Mais

A Fundação Aptos colabora com a empresa de IA para construir ferramentas de linguagem de programação Move

A Fundação Aptos colabora com a FLock.io para lançar uma ferramenta de inteligência artificial que torna mais fácil a codificação na linguagem Move da Bloco chain. A FLock.io desenvolveu um modelo de linguagem de grande porte específico para ajustar o Move na rede Aptos. Testes iniciais indicam que o LLM da FLock.io se destaca na geração de código específico do Move, melhorando significativamente a precisão e a legibilidade do código.
Mais

Arweave AO在过去一周的存款超过了1.58亿美元

A Golden Finance report states that the AI application computing protocol AO, based on Arweave, attracted more than USD 158 million in deposits within a week after its fair launch. It is reported that AO is a new protocol built on the Arweave permanent data storage layer, which can achieve parallel application operation through decentralized computing models. It also enables AI applications to run on the chain, allowing large language models (LLMs) to run within smart contracts.
Mais
De acordo com as notícias do PANews em 7 de julho, de acordo com o The Block, Lightning Labs lançou uma nova ferramenta bitcoin de inteligência artificial. As ferramentas são projetadas para ajudar os desenvolvedores a integrar perfeitamente o Bitcoin e a Lightning Network em seus aplicativos de IA. A suíte inclui o LLM Agent BitcoinTools, que permite aos desenvolvedores criar agentes de IA que podem manter saldos de Bitcoin, enviar/receber Bitcoin na Lightning Network e interagir com os nós do Lightning Network Daemon. Além disso, esta versão inclui o Aperture Reverse Proxy Server, que oferece suporte ao Lightning Node Connect e oferece preços dinâmicos de endpoint de API. Essas ferramentas aprimorarão a acessibilidade e a funcionalidade da infraestrutura de IA.
Odaily Planet Daily News A empresa de mineração de Bitcoin Hive Blockchain disse em uma teleconferência com analistas na sexta-feira que a empresa permitirá que os clientes treinem modelos de inteligência artificial de linguagem em grande escala em seu data center, em comparação com concorrentes como o ChatGPT da OpenAI. privacidade. Aydin Kilic, CEO e presidente da empresa, disse: "As empresas agora estão percebendo que não desejam fazer upload de dados confidenciais de clientes para empresas como a OpenAI, que possuem um LLM (Large Language Model) público. Queremos fornecer privacidade no Hive por meio de Hive Cloud, as empresas podem ter um contrato de serviço, possuir seus dados e sua privacidade e ainda executar cargas de trabalho de computação de IA em nossas GPUs." As ações da Hive subiram quase 2 por cento na Nasdaq na sexta-feira. (CoinDesk)
De acordo com um relatório da IT House em 25 de junho, o desenvolvedor Iván Martínez Toro lançou recentemente o modelo de código aberto PrivateGPT, que permite aos usuários fazer perguntas com base em seus próprios documentos sem conexão com a Internet. É relatado que o modelo de código aberto PrivateGPT pode ser executado localmente em dispositivos domésticos, e o modelo de linguagem grande (LLM) de código aberto chamado gpt4 precisa ser baixado antes de ser executado. Em seguida, instrua os usuários a colocar todos os arquivos relacionados em um diretório para que o modelo extraia todos os dados. Depois de treinar o LLM, o usuário pode fazer qualquer pergunta ao modelo e ele responderá usando o documento fornecido como contexto. PrivateGPT pode absorver mais de 58.000 palavras e atualmente requer muitos recursos de computação local (recomenda-se uma CPU de ponta) para configurar. Toro disse que o PrivateGPT está atualmente em fase de proof-of-concept (PoC), o que pelo menos prova que um grande modelo semelhante ao ChatGPT pode ser criado totalmente localmente. empresas para acessar personalização, segurança e privacidade ChatGPT para aumentar a produtividade.