Generalista

Multiverse Computing – CompactifAI

Multiverse

Generalista

Multiverse

Multiverse Computing – CompactifAI

Business Case

El reto al que se enfrenta CompactifAI es la necesidad de reducir significativamente el consumo de recursos computacionales y energéticos requeridos por los LLMS. Estos modelos, suelen ser extremadamente grandes y complejos, lo que conlleva altos costos operativos y limita su uso en dispositivos con capacidades computacionales restringidas. CompactifAI busca resolver este problema mediante la implementación de tecnologías cuánticas y cuánticamente inspiradas para comprimir estos modelos sin perder eficacia, haciendo la inteligencia artificial más accesible y sostenible.

Objetivos

CompactifAI se propone revolucionar la eficiencia de los Modelos de Lenguaje Grande (LLMs) mediante la compresión avanzada de estos modelos utilizando tecnologías cuánticas y cuánticamente inspiradas. Su objetivo es reducir drásticamente el consumo de recursos y energía, disminuir los costos operativos y permitir la implementación de estos modelos en dispositivos con limitaciones computacionales, ampliando así el alcance y la accesibilidad de las soluciones impulsadas por inteligencia artificial.

Use case

Dependiendo del enfoque y la aplicación específica del modelo se podrían utilizar datasets variados

Infraestructura

Híbrida

Tecnologías utilizadas

Cuántica

Datos utilizados

Dependiendo del enfoque y la aplicación específica del modelo se podrían utilizar datasets variados

imagen

imagen

Recursos utilizados

Dificultades y aprendizaje

KPIs (impacto en el negocio y métricas del modelo)

Financiación

Colaboradores

multimedia

Scroll al inicio