Entonces, ¿cómo afecta la IA al centro de datos? Bueno, en 2014, Google implementó la IA de Deepmind (usando aprendizaje automático, una aplicación de IA) en una de sus instalaciones. ¿El resultado? Pudieron lograr consistentemente unareducción del 40%en la cantidad de energía utilizada para la refrigeración, lo que equivale a una reducción del 15% en los gastos generales de eficiencia energética (del inglés PUE) después de tener en cuenta las pérdidas eléctricas y otras ineficiencias no relacionadas con la refrigeración. También se produjo el PUE más bajo que jamás había visto la instalación. Con base en este ahorro significativo, Google buscó implementar la tecnología en sus otras instalaciones y sugirió que otras empresas hicieran lo mismo.
La misión de Facebook es “dar a las personas el poder de construir una comunidad y acercar el mundo”, descrita en su publicaciónApplied Machine Learning at Facebook: A Datacenter Infrastructure Perspective (Aprendizado de máquina aplicado ao Facebook: uma perspectiva da infraestrutura de datacenter, em tradução livre).Describe la infraestructura de hardware y software que admite el aprendizaje de máquina a escala global.
Para darte una idea de cuánta capacidad de procesamiento necesitan AI y AM, Andrew Ng, científico jefe del Laboratorio de Silicon Valley de Baidu, dijo que habilitar uno de los modelos de reconocimiento de voz chinos de Baidu requiere no solo cuatro terabytes de datos de entrenamiento, sino también 20 exaflops de procesamiento, o 20 mil millones de operaciones matemáticas a lo largo del ciclo de entrenamiento.
Pero, ¿qué pasa con la infraestructura de nuestro centro de datos? ¿Cómo afecta la IA al diseño y la implementación de todas las instalaciones de diferentes tamaños y formatos que estamos buscando construir, alquilar o renovar para acomodar esta tecnología innovadora, económica y que salva vidas?
AM se puede ejecutar en una sola máquina, pero gracias a la increíble cantidad de procesamiento de datos, generalmente se ejecuta en múltiples máquinas, todas interconectadas para garantizar una comunicación continua durante las fases de capacitación y procesamiento de datos, con baja latencia y absolutamente sin interrupciones del servicio en nuestras yemas de los dedos, pantallas o dispositivos de audio. Como seres humanos, nuestro creciente deseo de datos está impulsando un crecimiento exponencial en la cantidad de ancho de banda necesario para satisfacer nuestros caprichos más simples.
Este ancho de banda debe distribuirse dentro y a través de múltiples instalaciones, utilizando diseños arquitectónicos más complejos, donde ya no se reducen por arquitecturas de spine-leaf – estamos hablando de redes de super-spine y super-leaf, proporcionando una vía rápida para que toda la computación algorítmica compleja fluya entre diferentes dispositivos y finalmente regrese a nuestros receptores.