Un avance de Google está sacudiendo a los gigantes de los chips y las memorias en la Bolsa. El martes 24 de marzo, la compañía estadounidense publicó una entrada en su blog sobre Turboquant, un conjunto de algoritmos que permiten una compresión masiva para grandes modelos de lenguaje (LLM). En otras palabras, Google ofrece una solución para reducir los requisitos de RAM necesarios para el funcionamiento de LLM como ChatGPT o Gemini.
Bastaba que los mercados se preocuparan por los fabricantes de chips, semiconductores y otras soluciones de almacenamiento. Micron Technology, el mayor fabricante estadounidense de chips de memoria, vio caer sus acciones al día siguiente: cerró con una caída del 3,4% el jueves. SK Hynix cayó un 6% y Samsung Electronics cayó un 4%.
La inteligencia artificial ha exacerbado la escasez de RAM. Esto ha hecho subir los precios para las empresas del sector, ya que la demanda supera la oferta disponible. Sin embargo, la solución de Google podría reducir la presión sobre el mercado de RAM.
“ Para los mercados el razonamiento es inmediato: si cada unidad de IA consumiera menos memoria, entonces el crecimiento estructural de la demanda de DRAM y NAND podría desacelerarse, lo que pone en duda parte de la narrativa. (ficción) ultrapositivo integrado en las evaluaciones sectoriales », explica, en una nota, John Plassard, economista de Cité gestion.
Entiende mejor TurboQuant
“ TurboQuant es un método de compresión que proporciona una reducción significativa en el tamaño del modelo sin pérdida de precisión, lo que lo hace ideal para la compresión de caché de valores clave (KV) y la búsqueda de vectores. », especifica Google en su artículo de blog. Y todo ello, sin perder rendimiento de la IA.