Intel trabaja en procesadores ópticos para IA: hasta 100 veces más eficientes

Estamos llegando al final del camino de la reducción en los transistores, donde dentro de unos años puede que el límite sea una realidad. Por tanto, hay que buscar nuevas formas de velocidad en vez de miniaturización. En este punto está trabajando Intel, donde sus ingenieros están desarrollando chips que usan la luz en vez de electrones para funcionar, mejorando hasta 100 veces la eficiencia de estos para la IA.

Todo se basa en la fotónica del silicio, pero ¿qué es exactamente?

La fotónica del silicio es una combinación de los dos inventos más importantes del siglo XX: el circuito integrado de silicio y el láser semiconductor. Esta tecnología permite realizar una transferencia de datos más rápida en distancias más extensas en comparación con la electrónica tradicional, al tiempo que mejora la eficiencia de la fabricación de grandes volúmenes de silicio.

Aunque es cierto que el uso de la fotónica del silicio se ha restringuido a los centros de datos, ahora Intel quiere llevarlo un paso más allá, hacia las llamadas redes neuronales ópticas (ONN). La teoría es simple, se usan fotones (luz) en lugar de electrones como medio para calcular y usar el silicio tradicional.

la-fotonica-silicio-

Uno de los componentes comunes de estos circuitos fotónicos es el conocido como inferómetro Mach-Zehnder (MZI), el cual se puede configurar para realizar una multiplicación de matrices 2 x 2 en una malla triangular para crear matrices más grandes.

El resultado es un circuito fotónico que implementa una multiplicación con vectores de matriz y que mejora la computación del llamado Deep Learning. Esta tecnología no es todavía perfecta, de hecho, está en constante cambio y adaptación, donde se busca crear mallas cada vez mayores para entender la sensibilidad a las variaciones de los procesos, donde se intenta hacer más robustas en base a diferentes arquitecturas de circuitos.

El poder de la escala

chip-luz-destacada

Para que finalmente las ONN se conviertan en una parte viable del ecosistema de hardware de IA, deberán escalar a circuitos más grandes que los actuales, pero sobre todo mejorar las técnicas de fabricación. Las mejoras de Intel en este sentido ayudarán a que los circuitos más grandes requieran un número determinado de dispositivos MZI por chip.

Esto implica que ajustar estos dispositivos será cada vez más complicado, por lo que ya se están estudiando otras estrategias, como capacitar a los ONN de software específico para luego producir circuitos en masa basados en esos parámetros ya conocidos. Para probar esto, los investigadores crearon un diseño más optimizable llamado GridNet y al mismo tiempo una arquitectura más propensa a fallar, con nombre FFTNet.

Cuando no hubo imperfecciones, GridNet consiguió una mayor precisión frente a FFTNet (98% vs 95%). Sin embargo, cuando se introdujo ruido en estos circuitos fotónicos se encontró que FFTNet era más robusta, casi manteniendo el porcentaje de precisión, mientras que el de GridNet cayó por debajo del 50%.

Según los resultados que ha mostrado Intel, la elección anticipada de la arquitectura adecuada puede aumentar en gran medida la probabilidad de que los circuitos resultantes alcancen el rendimiento deseado incluso ante las variaciones en la fabricación. En cualquier caso, lo demostrado redujo la latencia 10.000 veces y mejoró la eficiencia como mínimo en 100 veces, donde se llegó a afirmar que ésta podría ser de «órdenes de magnitudes» no vistas hasta ahora.

Estamos cada vez más cerca de los procesadores de redes neuronales ópticos, donde estos pueden cambiar la base informática fundamental de nuestra tecnología. Veremos que nos depara el futuro.