Internacional. La complejidad de los algoritmos de entrenamiento de la IA crece asombrosamente rápido, y la cantidad de computación necesaria para ejecutar los nuevos algoritmos de entrenamiento parece duplicarse aproximadamente cada cuatro meses.
Para seguir el ritmo de este crecimiento, se necesita un hardware para aplicaciones de IA que no sólo sea escalable, sino también capaz de gestionar modelos cada vez más complejos en un punto cercano al usuario final.
IDTechEx predice que el crecimiento de la IA continuará sin cesar durante los próximos diez años, a medida que nuestro mundo y los dispositivos que lo habitan se vuelvan cada vez más automatizados e interconectados.
Etapas de entrenamiento e inferencia
El aprendizaje automático es el proceso mediante el cual los programas informáticos utilizan datos para hacer predicciones basadas en un modelo y, a continuación, optimizan el modelo para que se ajuste mejor a los datos proporcionados, ajustando las ponderaciones utilizadas. Este cálculo implica dos pasos: Entrenamiento e Inferencia.
En la etapa de entrenamiento se introducen datos en el modelo y éste ajusta sus ponderaciones hasta que se ajusta adecuadamente a los datos proporcionados. En la etapa de inferencia se ejecuta el algoritmo de IA entrenado y los nuevos datos (no proporcionados en la etapa de entrenamiento) se clasifican de forma coherente con los datos adquiridos.
La etapa de entrenamiento implica realizar el mismo cálculo millones de veces. Por ello, se lleva a cabo en entornos de computación en nube, donde se utiliza un gran número de chips que pueden realizar el tipo de procesamiento paralelo necesario para un entrenamiento eficiente de los algoritmos.
Fabricación y suministro de chips
Intel, Samsung y TSMC son las únicas empresas que fabrican chips de 5 nm. La cuota de mercado mundial de TSMC en la producción de semiconductores ronda el 60%. En el caso de los nodos avanzados, se acerca al 90%. De las seis fábricas de 12 pulgadas y las seis de 8 pulgadas de TSMC, dos están en China y una en Estados Unidos. El resto están en Taiwán.
Esta concentración conlleva un gran riesgo en caso de que la cadena de suministro se vea amenazada de algún modo, comoocurrió en 2020, cuando hubo una escasez mundial de chips.
Desde entonces, Estados Unidos, la Unión Europea Corea del Sur, Japón y China han tratado de reducir su exposición a un déficit de fabricación, en caso de que se produzca otra escasez de chips aún más exacerbada.
Prueba de ello son varias iniciativas gubernamentales que tienen como objetivo estimular la inversión privada adicional a través del atractivo de las exenciones fiscales y la financiación parcial en forma de subvenciones y préstamos.
Crecimiento en la próxima década
Se espera que los ingresos generados por la venta de chips de IA aumenten hasta casi US $300.000 millones en 2034, con una tasa de crecimiento anual compuesta del 22% entre 2024 y 2034.
Esta cifra de ingresos incorpora el uso de chips para la aceleración de cargas de trabajo de aprendizaje automático en el borde de la red, para el borde de las telecomunicaciones y dentro de los centros de datos en la nube.
A partir de 2024, los chips para fines de inferencia (tanto en el borde como dentro de la nube) comprenderán el 63% de los ingresos generados, y esta cuota crecerá hasta más de dos tercios de los ingresos totales en 2034.
En términos de verticales industriales, se espera que TI y Telecomunicaciones lideren el uso de chips de IA durante la próxima década, seguido de cerca por Banca, Servicios Financieros y Seguros (BFSI) y Electrónica de Consumo.
Deje su comentario