A Fourth Paradigm lança a solução de ponta de inferência de modelos de grande escala ModelHub AIoT

A 26 de fevereiro, a Jinshi Data soube que a Fourth Paradigm lançou a solução de inferência de ponta de grande modelo ModelHub AIoT, onde os utilizadores podem implantar facilmente modelos de destilação de pequeno porte, incluindo DeepSeek R1, Qwen 2.5, Série Llama 2/3, e realizar operações offline. Os utilizadores podem alternar flexivelmente entre vários modelos, equilibrando a compressão e o desempenho da inferência, e resolvendo a complexidade da implantação e otimização. A empresa afirmou que esta solução não só consegue satisfazer as necessidades dos utilizadores em termos de privacidade e tempo real, mas também reduz significativamente os custos de inferência de grandes modelos de IA.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)