Telefónica y Multiverse Computing han alcanzado un hito significativo en la aplicación de la inteligencia artificial (IA) al sector de las telecomunicaciones, logrando comprimir y optimizar con éxito dos modelos de lenguaje grandes (LLM), basados en aprendizaje automático y procesamiento del lenguaje natural, para su uso interno en los sistemas de atención al cliente.

Estos modelos optimizados se prevé que se integren próximamente en el chat de soporte que asiste a los agentes de Atención al Cliente dentro de la iniciativa “Movistar por ti”, una nueva forma de atención más ágil, proactiva y cercana, que busca mejorar los tiempos de respuesta y reducir el consumo energético en los sistemas.

La solución, basada en la compresión de modelos de IA, ofrece mejoras sustanciales en velocidad, eficiencia, uso energético y costes, manteniendo al mismo tiempo la precisión de la información que permite a los agentes gestionar con mayor eficacia la atención al usuario.

En concreto, Multiverse Computing ha empleado técnicas de vanguardia inspiradas en la computación cuántica sobre los modelos Llama 3.1 8B y Llama 3.3 70B de Meta, ambos LLM preentrenados capaces de adaptarse a una amplia gama de casos de uso en asistentes inteligentes.

El resultado ha sido una reducción del 80% en el tamaño de los modelos, lo que implica una disminución notable en las necesidades de almacenamiento, manteniendo la calidad de las respuestas generadas.

Otro aspecto destacado es el impacto medioambiental positivo, ya que, además de poder ejecutarse en la nube, los modelos comprimidos pueden desplegarse directamente en la red de Telefónica, incluyendo instalaciones locales (on premise). Esto permite reducir el consumo energético hasta un 75% respecto a los modelos originales sin comprimir.

De esta manera, la iniciativa refuerza el compromiso medioambiental conjunto de Telefónica y Multiverse Computing, orientado a minimizar el impacto ambiental de la tecnología. Asimismo, gracias al despliegue local en las centrales de Telefónica —donde toda la energía procede de fuentes 100% renovables— y al esfuerzo continuo por aumentar la eficiencia, la operadora ha logrado disminuir las emisiones de CO₂ asociadas al uso de IA.

En cuanto a los modelos Llama originales, se trata de modelos de código abierto (Open Source), en línea con la estrategia de Telefónica de fomentar la apertura, la seguridad y la neutralidad tecnológica, impulsando los estándares y la adopción responsable de la IA.

En definitiva, la futura aplicación de estos modelos comprimidos en Telefónica supondrá una mejora sustancial en la eficiencia operativa, al permitir conservar la calidad original de los LLM empleando hardware más ligero y reduciendo los costes de operación, tanto en la nube como en entornos locales. A esto se suma una drástica reducción del consumo energético en las instalaciones de la compañía.

IA accesible, sostenible y escalable

Esta alianza estratégica destaca el potencial de combinar la escala global de Telefónica con la innovación técnica avanzada de Multiverse Computing. Con el despliegue de una IA comprimida, de alto rendimiento y eficiencia energética, ambas empresas reafirman su liderazgo en el desarrollo de una inteligencia artificial más accesible, sostenible y escalable para el ámbito empresarial.

Síguenos en Google Discover y no te pierdas las noticias, vídeos y artículos más interesantes

Síguenos en Google Discover