DEV Community

Cover image for GenAI Series: Explorando AWS Nitro y SRD
Guillermo Ruiz for AWS Español

Posted on

GenAI Series: Explorando AWS Nitro y SRD

En la actualidad, la inteligencia artificial (IA) requiere infraestructuras capaces de manejar inmensas cantidades de datos de manera eficiente y segura. AWS destaca por ofrecer herramientas avanzadas como el Sistema Nitro y el protocolo Scalable Reliable Datagram (SRD), diseñados para tener un alto rendimiento y asegurar la protección de los modelos de IA durante su entrenamiento.

Desafíos en el Entrenamiento de Modelos de IA

Entrenar modelos de IA a gran escala es una tarea que demanda muchos recursos computacionales y la disposición de redes de baja latencia. Estas cargas de trabajo suelen involucrar la transferencia constante de grandes volúmenes de datos entre múltiples nodos de cómputo. Si no disponemos de la infraestructura necesaria, estos modelos pueden enfrentarse a problemas como latencias, pérdida de paquetes y, en última instancia, un rendimiento inconsistente. Aquí es donde AWS Nitro y SRD entran en juego.

AWS Nitro: La base de Seguridad y Rendimiento

El Sistema Nitro es la columna vertebral de las instancias EC2 de AWS. Este sistema descompone las funciones de virtualización tradicionales, delegando tareas críticas a hardware dedicado.

Nota: El Sistema Nitro de AWS fue desarrollado para superar las limitaciones del hipervisor tradicional, como el uso excesivo de recursos que no agregaban valor directo al cliente. El enfoque tradicional basado en el hipervisor Xen requería dedicar hasta un 30% de los recursos a la gestión de funciones de red, almacenamiento y monitoreo. Para superar esta limitación, AWS diseñó el Sistema Nitro, el cual descompone la arquitectura en componentes dedicados, aumentando significativamente el rendimiento y la seguridad.

Antes:
Limitaciones hipervisor tradicional

Después:
Sistem Nitro

Seguridad Basada en Hardware

Nitro utiliza un "chip de seguridad" que introduce un root of trust basado en hardware, verificando continuamente la integridad del sistema y reduciendo la superficie de ataque. Esto es crucial en entrenamientos de IA, donde la integridad de los datos y modelos es prioritaria. Además, el sistema minimiza el acceso a operadores y no permite rutas de administración convencionales como SSH, protegiendo los datos sensibles.

Optimización para Cargas Intensivas

Las tarjetas Nitro gestionan operaciones de E/S, liberando la CPU para que se concentre exclusivamente en el cómputo. Esto es útil en entrenamientos de IA que demandan grandes cantidades de recursos para tareas como el procesamiento paralelo en GPUs. Asimismo, al ofrecer redes de 100 Gbps, Nitro asegura la disponibilidad del ancho de banda necesario para flujos de datos masivos.

Nitro Architecture

Innovaciones Clave del Sistema Nitro

  • Reducción del Jitter en la Red: Nitro minimiza el "jitter" (variabilidad en los tiempos de respuesta), lo que permite ejecutar aplicaciones en tiempo real que requieren tiempos de respuesta de microsegundos.

Jitter

  • Mejoras en la Latencia de Almacenamiento: Al mover la gestión del almacenamiento a Nitro Cards, se reduce significativamente la latencia en operaciones de disco, incluso en instancias no optimizadas para almacenamiento.

Storage Latency

  • Optimización de Red a 100 Gbps: Nitro habilita conexiones de red de hasta 100 Gbps en AWS, permitiendo una transmisión de datos para cargas de trabajo que dependen fuertemente de la red, como HPC o aprendizaje automático.

SRD: El Protocolo de Transporte que Transforma el Entrenamiento de IA

El protocolo Scalable Reliable Datagram (SRD) es esencial para habilitar la comunicación eficiente en infraestructuras distribuidas que entrenan modelos de IA. Este protocolo fue diseñado para superar los obstáculos de TCP y RoCE, los cuales como veremos, tienen sus limitaciones.

Reducción de Latencias y Evitación de Bloqueos

A diferencia de TCP, SRD permite la entrega fuera de orden de paquetes, evitando los bloqueos de cabecera (head-of-line blocking) y minimizando la latencia. Esto es vital en los entrenamientos distribuidos, donde cada milisegundo cuenta para la sincronización de múltiples nodos. Al emplear transmisión multipath, SRD distribuye los paquetes a través de múltiples rutas y evita la congestión, mejorando significativamente la fiabilidad y el rendimiento.

Multipath

Control de Congestión y Adaptabilidad

El algoritmo avanzado de control de congestión de SRD ajusta dinámicamente la transmisión de datos en función de las condiciones de la red. Esto es clave en entornos donde los flujos de datos pueden variar drásticamente, como en el entrenamiento de modelos complejos de IA. Comparado con TCP, SRD ofrece tiempos de finalización de flujos (FCT) más rápidos y latencias más bajas, lo cual es crítico para optimizar los tiempos de convergencia de los modelos.

Performance TCP vs SRD

Comparación con Otros Protocolos: el turno de RoCE

Hemos visto cómo SRD se diferencia de TCP, pero echemos un vistazo a otro protocolo como RoCE (RDMA over Converged Ethernet). RoCE es una opción popular para reducir la latencia en redes de centros de datos mediante el uso de RDMA. Sin embargo, tiene limitaciones significativas en términos de escalabilidad en entornos multitenant como AWS, principalmente debido a su dependencia de mecanismos como el Priority Flow Control (PFC), que no tiene buena adaptación en redes de gran escala.

Limitaciones de RoCE en la Nube y Ventajas de SRD

Problemas de Escalabilidad: RoCE es eficiente en entornos controlados de HPC, pero en una infraestructura tan masiva y compartida como AWS, el uso de PFC puede generar congestión y "deadlocks". Estos problemas son difíciles de gestionar y pueden causar degradaciones en el rendimiento.
Con SRD evitamos completamente el uso de PFC y, en su lugar, manejamos la congestión de manera dinámica, adaptándonos a las condiciones de red. Esto hace que sea mucho más adecuado para entornos de nube a gran escala, donde la agilidad y la eficiencia en la transmisión de datos son críticas.

Rendimiento en Entornos de IA

RoCE ofrece baja latencia porque permite el acceso directo a la memoria entre nodos sin involucrar al procesador, reduciendo la sobrecarga de procesamiento. Sin embargo, su implementación y mantenimiento en la nube requieren una gran precisión en la configuración de la red. Es complejo en entornos multitenant y a gran escala, donde incluso pequeños errores de configuración pueden afectar la estabilidad de toda la red.

SRD, por otro lado, automatiza gran parte de este proceso y ofrece un rendimiento comparable o incluso superior en escenarios de congestión intensa, algo común durante el entrenamiento distribuido de modelos de IA.

Implementación e Integración de SRD

SRD está integrado en las Nitro Cards de AWS, acercando el protocolo a la capa física de la red y eliminando cuellos de botella relacionados con el sistema operativo. Este diseño permite que AWS exponga el Elastic Fabric Adapter (EFA) a los usuarios como una interfaz de red de alto rendimiento, ideal para cargas de trabajo como el entrenamiento distribuido y aplicaciones basadas en MPI (Message Passing Interface).

Beneficios de Rendimiento

SRD ofrece mejoras significativas en tiempos de finalización de flujos (FCT) y en la reducción de la latencia en escenarios de tráfico con ráfagas o incast. Su capacidad para redirigir paquetes rápidamente y evitar puntos calientes de congestión mejora tanto la confiabilidad como el rendimiento general de la red, superando a protocolos tradicionales en términos de velocidad y resiliencia.

Conclusión

AWS Nitro y SRD son dos piezas críticas para la infraestructura en la nube. Nitro garantiza la máxima eficiencia y seguridad, mientras que SRD redefine la forma en que se transportan los datos en redes distribuidas a gran escala. En conjunto, estas tecnologías permiten un entorno optimizado para cargas de trabajo intensivas, como es el entranmiento de modelos de IA.

Referencias:

Anexo - Terminología

1. Bloqueo de Cabecera (Head-of-Line Blocking)

El bloqueo de cabecera ocurre en redes y protocolos de comunicación cuando un paquete retrasado o bloqueado impide que otros paquetes en la cola avancen. En protocolos como TCP, los paquetes deben llegar en orden. Si un paquete se retrasa, otros paquetes que llegan después no pueden ser procesados hasta que se resuelva el retraso del primero. Esto aumenta la latencia y afecta el rendimiento en aplicaciones sensibles al tiempo.

2. Finalización de Flujos (Flow Completion Time - FCT)

El tiempo de finalización de flujos (FCT) es una métrica clave en redes que mide el tiempo total que tarda un flujo de datos desde que se inicia hasta que se completa. Es especialmente importante en aplicaciones de alta demanda, donde la rapidez con la que se transmiten y procesan los datos impacta directamente en el rendimiento.

3. Aplicaciones Basadas en MPI (Message Passing Interface)

MPI (Message Passing Interface) es un estándar utilizado en computación de alto rendimiento (HPC) para facilitar la comunicación entre nodos en sistemas distribuidos. Es común en simulaciones científicas y en el entrenamiento de modelos de IA que requieren coordinación precisa entre múltiples servidores.

4. Condiciones de Incast

Este fenómeno ocurre cuando múltiples fuentes envían datos simultáneamente a un solo destino, lo que puede causar sobrecarga en los switches.

5. Control de Congestión Avanzado

SRD emplea un algoritmo especializado que se ajusta rápidamente a las condiciones de la red, previniendo pérdidas de paquetes y minimizando la latencia. Esto es crítico en redes complejas donde la fluctuación en el tráfico puede impactar el rendimiento.

6. RDMA (Remote Direct Memory Access)

RDMA permite el acceso directo a la memoria de una máquina desde otra sin involucrar al procesador, la caché o el sistema operativo de la máquina de destino. Esto reduce drásticamente la latencia y libera recursos de CPU, lo que es esencial en aplicaciones de HPC y IA que requieren la transmisión rápida de datos entre nodos.

7. RoCE (RDMA over Converged Ethernet)

RoCE es una tecnología que extiende RDMA a través de redes Ethernet, ofreciendo baja latencia para aplicaciones de HPC. Sin embargo, en entornos de gran escala como la nube, RoCE enfrenta problemas de escalabilidad y congestión debido a su dependencia de control de flujo por prioridad (PFC).

8. PFC (Priority Flow Control)

PFC es un mecanismo utilizado en redes Ethernet para evitar la pérdida de paquetes al pausar el tráfico en situaciones de congestión. Sin embargo, su uso en redes grandes y compartidas como la nube puede llevar a problemas de bloqueo y "deadlocks".

Top comments (0)