Hasta ahora las tarjetas gráficas para HPC han dominado con mano de hierro el mercado y sector de la IA dentro del entorno profesional, mientras que en el PC de consumo y de usuario lo han conseguido en el gaming y minado de criptomonedas. ¿Y si un algoritmo cambiase eso parcialmente? Eso es precisamente lo que ofrece Deci, una compañía que afirma cambiar el paradigma tradicional de las GPU a las CPU. Así es AutoNAC DeciNets.
Las GPU son excelentes realizando operaciones de forma masiva y paralelizada donde el software estaba destinado por sus necesidades a ello. Las CPU en cambio pueden trabajar softwares más complejos solventando problemas muy diversos y a una velocidad increíble. DeciNets ha estado estudiando e innovando dentro del mundo de los algoritmos y ahora parece que tiene algo por fin sólido que presentar.
AutoNAC DeciNets: eficiencia y precisión para las CPU en IA
Puede que si decimos EfficientNet no te suene de nada, si decimos Google entonces la cosa cambia, pero si nombramos Google EfficientNet CNN puede que tengas un conflicto mental. Es importante entender cómo la gran G ha cambiado el mundo de las llamadas Convolutional Neural Networks, porque ahora el software logra mejorar la eficiencia de los modelos reduciendo los parámetros y la cantidad de operaciones por segundo que se requiere.
Básicamente es, posiblemente, el mejor modelo para lograr mejores resultados y precisión en las redes neuronales tanto por GPU como por CPU, incluso por TPU. Llegados aquí hay que entender que los algoritmos son parte determinante en los cálculos, por lo que se tienen que diseñar pensando en el hardware que los va a correr. Deci sabe del potencial de los procesadores actuales y por ello lleva trabajando desde su sede de Israel varios años con CPU Intel Cascade Lake para ofrecer un modelo AutoNAC mejorado que duplique el rendimiento en estos, dejando a las GPU a un lado.
Instagram, Facebook, Google… Todos quieren lo mismo
Un algoritmo de IA en una gran compañía tiene que ofrecer soluciones a dos cuestiones simples: clasificar información y reconocerla. Esta puede llegar como texto, vídeos, imágenes o sonidos, pero dentro de estos es el de las imágenes el que más prolifera por las limitaciones actuales del hardware.
Esto se extiende incluso a los coches, puesto que los vídeos de las cámaras lo que hacen es capturar fotogramas y compararlas en tiempo récord para así tener la información disponible en una imagen estática que el algoritmo de turno pueda reconocer y trabajar. Por lo tanto, Deci tenía una oportunidad de oro para lograr llevar un algoritmo de reconocimiento y clasificación de imágenes a un nuevo nivel con mayor eficiencia gracias a las CPU:
“Como profesionales del aprendizaje profundo, nuestro objetivo no es solo encontrar los modelos más precisos, sino descubrir los modelos más eficientes en recursos que funcionen sin problemas en la producción: esta combinación de eficacia y precisión constituye el ‘santo grial’ del aprendizaje profundo”. dijo Yonatan Geifman, cofundador y director ejecutivo de Deci. “AutoNAC crea los mejores modelos de visión por computadora hasta la fecha, y ahora, la nueva clase de DeciNets se puede aplicar y ejecutar de manera efectiva en aplicaciones de IA en CPU”.
El rendimiento es tan elevado que está muy cerca de lo que hace Google con EfficientNet B2 basado en GPU donde al aprovechar la tecnología AutoNAC de Deci y la optimización específica del hardware, la brecha entre el rendimiento de inferencia de un modelo en una GPU frente a una CPU se reduce a la mitad, sin sacrificar la precisión de este.
Por lo tanto, y mirando el gráfico superior, lo que podemos tener claro es que la precisión es más alta que en el algoritmo de Google en todas y cada una de las latencias que ofrece una CPU sin perder rendimiento. Este nuevo algoritmo DeciNet podría cambiar el sector de las tarjetas gráficas hacia los procesadores, sobre todo si de Intel hablamos.