La inteligencia artificial (IA) está en pleno auge. Varias empresas son las que van en busca de un chip de inteligencia artificial cada vez más grande, potente y avanzado.
En esta carrera, el premio hasta el momento se lo lleva Cerebras Systems con su chip Cerebras’s.
Un chip típico es del tamaño de una uña, pero Cerebra’s es un chip de inteligencia artificial del tamaño de un plato de comida.
El primer chip de inteligencia artificial lanzado por Cerebras se denominó WSE, fue lanzado en 2019 y tenía 1,2 billones de transistores y 400000 núcleos de procesamiento.
Su sucesor, el WSE-2, chip de inteligencia artificial lanzado este año, es capaz de contener 2,6 billones de transistores y 850000 núcleos manteniendo el mismo tamaño. Además, ha aumentado su capacidad de 18GB a 40GB y la velocidad ha pasado de 9 PB/s a 20 PB/s. Un chip de inteligencia artificial bestial en cualquiera de sus sentidos.
Este aumento de especificaciones en el mismo tamaño es debido, principalmente, al cambio del proceso de fabricación del chip. Se ha pasado de los 16 nanómetros a los 7 nanómetros.
¿Porqué hacer un chip dedicado a inteligencia artificial gigante?
Si bien las unidades de procesamiento de gráficos (GPU) siguen dominando la inteligencia artificial, no fueron creadas para la IA en particular. Por el contrario, las GPU se desarrollaron y utilizaron por primera vez para aplicaciones con muchos gráficos, como los juegos.
Han hecho cosas increíbles para la inteligencia artificial y la supercomputación, pero en los últimos años, los chips especializados en inteligencia artificial están en auge.
Cerebras es uno de los contendientes, junto con otros prometedores como Graphcore y SambaNova y nombres más familiares como Intel y NVIDIA.
A la compañía le gusta comparar el WSE-2 con un procesador de inteligencia artificial superior (el A100 de NVIDIA) para subrayar cuán diferente es de la competencia.
El A100 tiene un dos por ciento del número de transistores (54,2 mil millones) que ocupan un poco menos del dos por ciento de la superficie. Es mucho más pequeño, pero el poder del A100 se realiza más plenamente cuando cientos o miles de chips están conectados entre sí en un sistema más grande.
En contraste, el WSE-2 reduce el costo y la complejidad de unir todos esos chips al bloquear tanto procesamiento y memoria como sea posible en una sola oblea de silicio. Al mismo tiempo, eliminar la necesidad de mover datos entre muchos chips distribuidos en varios racks de servidores aumenta drásticamente la velocidad y la eficiencia.
El diseño del chip le da a sus núcleos pequeños y rápidos su propia memoria dedicada y facilita la comunicación rápida entre núcleos.
Y el software de compilación de Cerebras funciona con modelos de aprendizaje automático utilizando frameworks estándar, como PyTorch y TensorFlow.
Chips gigantes: ¿Moda o tendencia al alza?
Por el momento, el chip WSE-2 se está utilizando en grandes proyectos de ciencia e investigación que requieren gran cantidad de recursos informáticos.
Las aplicaciones actuales incluyen la investigación del cáncer y el descubrimiento de fármacos, la detección de ondas de gravedad y la simulación de fusión.
El CEO y cofundador de Cerebras, Andrew Feldman, dice que también puede estar disponible para clientes con necesidades a corto plazo y menos intensivas en la nube.
Queda por ver si el uso de chip de inteligencia artificial gigantes es solo una moda o será una tendencia cada vez más al alza.
Si te ha gustado el artículo y quieres ver otros escritos por mí, puedes entrar a mi perfil.