Por Tony Pialis, fundador y director ejecutivo de Alphawave Semi


La IA generativa ha cambiado el mundo.

Desde el debut de ChatGPT en noviembre de 2022, la aplicación aprobó el examen de la barra, fue utilizada por estudiantes en la escuela y automatizó tareas administrativas mundanas en el trabajo (y aunque no sirvió para escribir artículos para DCD). Ahora, las empresas de hiperescala han ingresado a la carrera de IA generativa con Bard de Google, la inversión de 10 mil millones de dólares de Microsoft en OpenAI para fusionarlo con Bing y el anuncio de Amazon de su aplicación de IA generativa enfocada en AWS. Ahora, la conversación sobre IA ha cambiado de "si" la usaremos, a "cómo" la usaremos, y cuánto de la población aprovechará sus capacidades.

Goldman Sachs predice que la tecnología de IA generativa podría aumentar el PIB mundial en un siete por ciento, y 300 millones de puestos de trabajo podrían cambiar o disminuir debido a su implementación. Sin embargo, el potencial de estas aplicaciones de IA está limitado por la infraestructura del centro de datos que las respalda.

Para desbloquear todo su potencial, la industria debe invertir para brindar un enfoque personalizado a la conectividad de alta velocidad, es decir, a través de chipsets y soluciones de silicio personalizadas, antes de que sea demasiado tarde.

La tecnología generalizada no funcionará para la IA

Brindar un enfoque generalizado a la tecnología ha funcionado durante mucho tiempo, pero esto no funciona para la IA. La adopción generalizada y el éxito de las nuevas tecnologías siempre se han basado en la accesibilidad y la utilidad. Es necesario adoptar un enfoque personalizado de estas tecnologías para garantizar su supervivencia y maximizar sus beneficios para la sociedad. Para entender por qué, debemos examinar las limitaciones actuales de la infraestructura del centro de datos.

Los centros de datos de hoy en día no se crearon para admitir las necesidades en constante cambio de la IA generativa. Se basan en servidores monolíticos que tienen una cantidad limitada de CPU y modelos de memoria y no son lo suficientemente flexibles para admitir las demandas de las aplicaciones de IA. Hay dos cargas de trabajo principales críticas para la IA: capacitación e inferencia. Las cargas de trabajo de entrenamiento brindan acceso a grandes cantidades de datos para que el modelo sea entrenado, mientras que las cargas de trabajo de inferencia son donde hacemos una pregunta a sistemas como ChatGPT, y el modelo busca los datos con los que se ha entrenado para generar respuestas.

Para agregar contexto a la rapidez con la que nuestros centros de datos deben funcionar para que la IA generativa tenga éxito, Chat GPT-3 tiene 175 mil millones de parámetros en comparación con los 1.500 millones de Chat GPT-2, y se rumorea que Chat GPT-4 tiene 10 billones (o incluso 100 billones) parámetros. Nunca antes se había visto la profundidad de estas redes neuronales.

Asegurar la transferencia rápida de datos es fundamental para permitir que estas aplicaciones prosperen, pero también puede tener un costo tremendo en términos de consumo de energía y el medio ambiente: se estima que el entrenamiento de Chat GPT-3 liberó más de 552 toneladas de CO2 en el aire.

Los chiplets están a la vanguardia de nuestra industria y brindan la solución más eficiente y rentable para la infraestructura de datos del mundo a través de su naturaleza altamente personalizable. Debido a sus troqueles pequeños, tienen mayores rendimientos, lo que reduce los costos de fabricación y el consumo de energía. Además, brindan una capacidad "superior a la de Moore" para abordar las necesidades informáticas de las aplicaciones de IA en comparación con las GPU tradicionales que se han utilizado para entrenar modelos de IA y, al mismo tiempo, brindan una configuración de producto más flexible. La creación de soluciones de silicio personalizadas permite a los hyperscalers y operadores de centros de datos optimizar cada chip para cargas de trabajo específicas, incluidas diferentes cargas de trabajo de IA, al tiempo que aporta una mayor eficiencia a la fabricación y reduce considerablemente el consumo de energía.

Como industria, no podríamos estar mejor posicionados para ver el aumento de los chiplets y el despliegue del silicio personalizado a medida que los nodos de proceso de 3 nm se ponen en línea, lo que ofrece una mejora del 15% en el rendimiento y una reducción del consumo de energía del 30%.

El desafío que tenemos por delante es enorme pero simple: para hacer realidad la promesa de las aplicaciones generativas de IA, debemos actuar ahora para implementar actualizaciones masivas en nuestra infraestructura de datos global. Si bien las actualizaciones de la infraestructura de datos global incurrirán en costos iniciales a gran escala, la falta de actualización hará que los centros de datos tengan que ponerse al día constantemente con las futuras demandas de datos y amenaza el desarrollo tecnológico futuro.