BLOG

Proveedores de servicios en la periferia: Marcos de automatización comunes y el fin de las limitaciones de velocidad y seguridad

Miniatura de Bart Salaets
Bart Salaets
Publicado el 10 de febrero de 2020

En un pasado no muy lejano en el ámbito de los proveedores de servicios, había una línea clara en la arena.

Por un lado, los equipos de redes y seguridad lideraron la evolución hacia una arquitectura NFV , con un fuerte enfoque en la virtualización de las funciones de red y seguridad. Las incursiones en el mundo de la automatización fueron, en el mejor de los casos, tentativas.

Por otro lado, los desarrolladores adoptaron con entusiasmo las plataformas en la nube, las metodologías DevOps y la automatización a través de pipelines CI/CD. La rápida implementación y entrega de aplicação fue, y sigue siendo, el lema del juego.

El borde es donde ambos se unen y las aplicações pueden vivir en armonía con las funciones de red.

Gracias a su naturaleza distribuida, e impulsada por el lanzamiento global gradual de 5G , la edge computing finalmente está comenzando a empoderar a los proveedores de servicios para ofrecer nuevas soluciones y servicios que simultáneamente aumentan los flujos de ingresos y reducen los costos de transporte de la red.

En lugar de transmitir datos a la nube o a un almacén de datos central para su análisis, el procesamiento puede tener lugar en el "borde" de una red, lo que reduce la latencia de la red, aumenta el ancho de banda y ofrece tiempos de respuesta significativamente más rápidos.

Tomemos como ejemplo los coches autónomos.

Alojar aplicações, con todos sus datos asociados, en una ubicación centralizada como una nube pública puede producir una latencia de extremo a extremo del orden de decenas de milisegundos. Esto es demasiado lento. Obtendrá el mismo resultado si la aplicação permanece central y la función de red se mueve al borde. Sin embargo, al trasladar la aplicação y la función de red al borde es posible reducir la latencia a milisegundos. Ahora estamos en el negocio.

Las redes de distribución de contenido (CDN) virtualizadas son otro ejemplo convincente.

Hasta la fecha, una CDN de terceros solía estar alojada en un punto de intercambio o en un centro de datos centralizado. Esto está cambiando, y algunos proveedores de servicios astutos están construyendo sus propias CDN basadas en edge computing para cubrir contenido de video local y servicios de IPTV, al mismo tiempo que ahorran en costos de tránsito y retorno.

Hay diferentes modelos de negocio disponibles para hacer realidad este tipo de casos de uso.

El escenario más simple es un proveedor de servicios que permite el acceso físico a un sitio de computación de borde. Los terceros aportan su propio hardware y gestionan todo. El proveedor de servicios es responsable del espacio, la energía y la conectividad, también conocido como modelo de coubicación.

Un enfoque mucho más interesante es que el proveedor de servicios ofrezca opciones de Infraestructura como Servicio (IaaS) o Plataforma como Servicio (PaaS) a terceros a través de una plataforma informática de borde compartida. Los proveedores de servicios pueden construirlos ellos mismos o con socios especializados.

El poder de la automatización

La automatización es el ingrediente secreto para que todo funcione.

En el contexto de la computación en la nube, la automatización es fundamental para que los desarrolladores publiquen nuevas versiones de código con ritmo y agilidad.

En el mundo de redes NFV, la automatización es clave para reducir los costos operativos de un proveedor de servicios. Anteriormente, el aprovisionamiento de redes y servicios eran tareas manuales que consumían mucho tiempo. Hoy en día, si bien los objetivos pueden diferir, las herramientas y las técnicas son las mismas (o compartibles) para los equipos de red y de desarrolladores. Las aplicações y las funciones de red coexisten en un entorno de computación de borde.

Entonces, ¿cómo pueden los desarrolladores automatizar la implementación de aplicações y servicios de aplicação asociados en la nube?

A los efectos de este artículo, nos centraremos en la automatización de servicios de aplicação . Vale la pena señalar que los pasos que se describen a continuación se pueden integrar fácilmente en herramientas de gestión de configuración y aprovisionamiento populares, como Ansible o Terraform, que luego se complementan con herramientas de canalización CI/CD como Jenkins.

El primer paso es arrancar o introducir la máquina virtual para entregar servicios de aplicação en la nube elegida.

El siguiente paso es la incorporación, que implica introducir una configuración básica con parámetros de red y autenticación (por ejemplo, direcciones IP, servidor DNS, etc.). Por último, está la implementación real de servicios de aplicação (como ADC o políticas de seguridad) mediante interfaces de programación de aplicação (API) declarativas.

El último punto es crítico.

Las API imperativas, que tienen la mayoría de los proveedores, significan que le dices al sistema qué hacer en cada momento. Los firewalls son un buen ejemplo. Necesitarías crear listas de direcciones y alinearlas con las reglas del firewall. Estos luego se agrupan en una política, que luego se asigna a una interfaz. Hay pasos y requisitos distintos que las llamadas a la API de descanso deben realizarse en secuencia; de lo contrario, todo falla. Convertir todo esto en una herramienta de automatización es costoso y lleva tiempo.

Las API declarativas son algo distinto. Puedes decirle al sistema lo que quieres y él descubre el camino a seguir. Con una declaración (en formato JSON o YAML), podría, por ejemplo, definir todos los parámetros del ADC y del servicio de seguridad y entregárselos al sistema con una única llamada API rest. En este caso, el resultado es un éxito (el servicio se ha implementado) o ha fallado, pero el sistema en general no se ve afectado. No existe ningún requisito de inteligencia en el sistema de automatización. La inteligencia permanece dentro de los sistemas que estás configurando, lo que reduce drásticamente los costos de automatización.

Se pueden seguir exactamente los mismos pasos para aprovisionar una función de red virtual en un entorno NFV. Una API declarativa simplifica notablemente la integración con herramientas de orquestación NFV de extremo a extremo. El orquestador no necesita conocer los pasos individuales para configurar un servicio o una función de red, simplemente envía una única declaración JSON con los parámetros que el sistema necesita para configurar el servicio. Nuevamente, la inteligencia sobre “cómo” configurar el servicio permanece dentro del sistema que estás configurando.

Gracias a una alineación más estrecha entre las disciplinas de redes y desarrolladores, ahora podemos construir una nube de telecomunicaciones distribuida con un marco de automatización común para aplicações y funciones de red. Es ágil y seguro en cada capa de la pila, desde el centro de datos central hasta el borde más alejado, incluso abarcando la nube pública.

En toda la industria, esperamos que los marcos de automatización comunes que permitan la implementación de aplicações y sus servicios, así como las funciones de red, se conviertan en la norma en los próximos años, en particular a medida que continúa la implementación de 5G en todo el mundo. Cada vez hay más presión para que los proveedores de servicios unifiquen los silos, se vuelvan ágiles y comiencen a vivir más al límite.

También puede hacer clic aquí para ver la conferencia magistral de Bart Salaets sobre edge computing del reciente Congreso Mundial SDN NFV.