Blog 2 de 3 ( blog anterior )
Las aplicações son los motores de la productividad digital, los caballos de batalla que convierten la potencia de procesamiento en herramientas útiles que hacen más fácil la vida cotidiana y que han transformado el trabajo, los viajes, el entretenimiento y la industria. Estos programas de software pueden variar desde aplicaciones que ayudan a ordenar comida a domicilio, guían satélites en el espacio, impulsan líneas de ensamblaje y proporcionan el procesamiento de textos que ayudó a escribir este blog.
Las aplicações han evolucionado mucho con el tiempo, pasando de ser programas básicos diseñados para tareas computacionales específicas a aplicaciones modernas y dinámicas impulsadas por IA y controladas por insumos en entornos distribuidos. Al observar cómo han avanzado las aplicações en los últimos años, obtenemos información sobre las formas en que la informática se ha adaptado a las cambiantes necesidades de los usuarios, los requisitos comerciales y las innovaciones tecnológicas para dar forma a nuestro mundo digital. Pero a medida que las aplicaciones se han vuelto más complejas, conectadas, personalizadas, accesibles e inteligentes, la superficie de ataque de las aplicação ha aumentado, lo que las expone a un mayor riesgo de amenazas maliciosas y explotación. En pocas palabras, la superficie de ataque ampliada presenta un área de oportunidad más grande para los ciberdelincuentes, que han seguido el ritmo de sus propias innovaciones para violar las últimas y mejores defensas cibernéticas.
A medida que las aplicações han evolucionado desde aplicaciones monolíticas de centros de datos físicos hasta las aplicaciones de IA altamente distribuidas de la actualidad, se necesita una nueva generación de ADC que converja la seguridad de aplicaciones de alto rendimiento y las capacidades de entrega de aplicaciones en una sola plataforma.
Este panorama de amenazas cada vez más complejo y en expansión se complica aún más por la falta de una plataforma que pueda proporcionar una entrega y seguridad consistentes de aplicaciones y API. Los controladores de entrega de aplicação (ADC) han desempeñado un papel central en la pila para habilitar las funciones de entrega de aplicaciones, pero ahora los ADC necesitan evolucionar para satisfacer las necesidades cambiantes de los entornos actuales. En conjunto, estos factores están impulsando la demanda de estrategias nuevas y más integrales que combinen la seguridad de las aplicaciones y los servicios de entrega de aplicação para brindar una protección más completa y una gestión más simple y unificada en diversos ecosistemas de TI.
Exploremos cómo llegamos a este punto, comenzando con las primeras aplicaciones de la década de 1940.
Las primeras computadoras, allá por los años 1940 y 1950, no utilizaban realmente aplicações como las entendemos hoy. Fueron programados en gran parte utilizando lenguaje de máquina y tarjetas perforadas. Las primeras aplicações—lo que podríamos llamar Aplicações 1.0— surgieron junto a las computadoras centrales de los años 1960 y 1970, que operaban aplicações monolíticas diseñadas para manejar tareas tales como nóminas, inventario y procesamiento básico de datos. Estas primeras aplicações estaban limitadas a una única base de código, bloques de código unitarios muy grandes que operaban dentro de centros de datos aislados u oficinas corporativas. Piense en un castillo remoto en una colina protegido por altos muros y un foso, donde los trabajadores van para obtener acceso a recursos informáticos centralizados utilizando lenguajes de computadora como FORTRAN y COBOL.
Un avance en el modelo de aplicação monolítica llegó con las aplicações de tres niveles, que dividían los recursos informáticos en tres capas funcionales distintas, cada una con aplicações separadas pero interconectadas. La capa de presentación, o interfaz de usuario, estaba gobernada por aplicações de escritorio como el software de productividad del trabajador (hola, WordStar), mientras que la capa de lógica empresarial incluía un servidor de aplicação que procesaba las solicitudes de los usuarios y realizaba cálculos. La capa de datos, o base de datos, almacena y gestiona datos.
Si bien las aplicações de tres niveles proporcionaban más modularidad y flexibilidad que las aplicaciones monolíticas, este modelo seguía dependiendo de la infraestructura del centro de datos físico y de los recursos locales. Las aplicações monolíticas y de tres niveles siguen siendo la norma en algunas industrias, incluidas la atención médica, la banca y el gobierno, donde los sistemas heredados cumplen requisitos regulatorios estrictos y las aplicações de misión crítica no pueden permitirse tiempos de inactividad.
El auge del comercio electrónico en la década de 1990 marcó el comienzo de la era punto-com. Los proveedores de servicios de aplicação (ASP) ofrecían servicios de alojamiento web similares a la nube a través de la World Wide Web, donde las empresas podían lanzar aplicações web HTML sin tener que crear su propia infraestructura. Las aplicaciones web estaban disponibles globalmente, en cualquier lugar donde un usuario tuviera acceso telefónico o de banda ancha. Estas aplicações se dividieron en tres capas: Los consumidores utilizaban Internet y software de navegación web en sus computadoras hogareñas para visitar aplicações web alojadas en sitios ASP, mientras que los servidores de bases de datos en el ASP manejaban la compra y el almacenamiento de datos de los clientes. Las aplicaciones web siguen siendo dominantes en el comercio minorista en línea y han sido fundamentales para impulsar las operaciones comerciales de comercio electrónico en la web.
A principios de la década de 2010, la nube fue una era de disrupción: muchos pronosticadores predijeron la muerte del centro de datos local y el ascenso de la computación basada en la nube. En medio de las conversaciones sobre transferir toda la computación a la nube, muchas aplicaciones se modernizaron para vivir en entornos de nube o se desarrollaron en la nube misma: aplicações nativas de la nube.
Estas aplicaciones nativas de la nube se optimizaron para la escala y el rendimiento de la nube, y se crearon desde cero sobre arquitecturas de microservicios, lo que introdujo otro cambio de paradigma en la evolución de las aplicaciones. Las aplicações basadas en microservicios ya no eran bloques de código unificados e independientes, sino que estaban ensamblados a partir de microservicios pequeños que se podían implementar de forma independiente y que cada uno realizaba una única función y podían comunicarse con otros microservicios a través de API. Los microservicios modulares se orquestaron en aplicações dentro de contenedores portátiles, que son instancias informáticas virtualizadas que son autosuficientes y capaces de operar de manera consistente en diferentes entornos. Las aplicações basadas en microservicios ofrecían muchas ventajas sobre las aplicaciones monolíticas o de tres niveles, incluido un desarrollo de aplicaciones más rápido, una escalabilidad mejorada, mayor flexibilidad y reutilización de servicios.
Sin embargo, estos microservicios de componentes se extraen de bibliotecas de nube pública y otras plataformas remotas y se transmiten a través de API u otros mecanismos de comunicación. Estos elementos dispersos eran difíciles de gestionar y exponer la API aumentaba la superficie de ataque de la aplicación, abriendo la puerta a intrusiones en la red durante la transmisión de datos y a posibles vulnerabilidades en bibliotecas de terceros.
Hoy en día, las aplicações están experimentando otro cambio de paradigma. La muerte prevista del centro de datos fue muy exagerada y muchas de las carteras organizacionales actuales mantienen una combinación de aplicaciones tradicionales y modernas que se ejecutan en entornos híbridos y extraen recursos locales, de borde y de la nube. Esto complica aún más la necesidad de una plataforma consistente para consolidar la entrega y la seguridad de las aplicaciones y API dondequiera que residan.
Además, las aplicaciones son cada vez más complejas y no sólo dependen de microservicios basados en la nube, sino también de flujos de datos en tiempo real y de nuevas formas de entrada. Piense en una aplicação de sitio web de viajes típica. Además de fotografías y contenidos tentadores sobre el destino elegido, hay motores con acceso mediante API en tiempo real para reservar habitaciones de hotel, vuelos y alquileres de automóviles, enlaces a pronósticos meteorológicos en vivo y una funcionalidad de mapas interactivos. Estas aplicações modernas están altamente interconectadas, tienen múltiples fuentes y son dinámicas, y se basan en datos de nubes híbridas y entornos distribuidos para brindar una experiencia sólida al cliente.
La complejidad (y la superficie de ataque) solo aumentan cuando se agrega IA a estas aplicações ya altamente integradas. Los servicios impulsados por IA, que aprovechan datos de redes y dispositivos interconectados, pueden incluir motores de recomendación o chatbots; un sitio web de viajes puede sugerir destinos y actividades personalizados según perfiles de usuarios en tiempo real y análisis predictivos, u ofrecer monitorear algoritmos de precios dinámicos.
Las aplicações de IA manejan cantidades masivas de datos y emplean patrones de tráfico complejos, realizando solicitudes grandes y frecuentes a almacenes de datos empresariales y modelos de IA alojados en fábricas de IA. Las cargas de trabajo de IA generalmente se implementan en infraestructura distribuida, incluidas nubes públicas, dispositivos perimetrales y sistemas híbridos, lo que expone las aplicações a riesgos de privacidad y seguridad de datos , ataques adversarios a modelos de IA y vulnerabilidades de infraestructura. Estos desafíos impulsan la necesidad de brindar seguridad integral para aplicações ricas en API unificadas con servicios de gestión de tráfico y entrega de aplicaciones de alto rendimiento que admitan aplicaciones y cargas de trabajo de IA modernas sin importar dónde se implementen.
La historia de las aplicações es, en muchos sentidos, la historia de la informática misma, que evolucionó desde la resolución de cálculos matemáticos básicos en la década de 1940 hasta las aplicaciones complejas y dinámicas actuales, impulsadas por IA y controladas por aportes de una galaxia de sistemas remotos. La historia de las aplicação también se refleja en la creciente accesibilidad y ubicuidad del hardware informático. Las aplicações han pasado de usarse en computadoras centrales del tamaño de una habitación que sólo los expertos podían navegar, a computadoras de escritorio y portátiles con interfaces gráficas para uso personal y entretenimiento, y a dispositivos móviles, impulsados por aplicaciones web y móviles a las que se puede acceder desde cualquier lugar y que funcionan con pantallas táctiles y comandos de voz.
Sin embargo, estas aplicações cada vez más inteligentes y dinámicas dependen de redes y conexiones que son susceptibles a una amplia gama de riesgos de seguridad, lo que requiere mitigaciones de seguridad en constante evolución y ADC optimizados para entornos distribuidos. Lo que se necesita es una convergencia de las funciones críticas de seguridad y entrega de aplicaciones para gestionar mejor este nuevo panorama de aplicaciones tradicionales, aplicaciones modernas y aplicaciones impulsadas por IA, todas operando en un entorno distribuido. Creemos que los ADC son la tecnología adecuada para gestionar esto. Pero para cumplir esta función, los ADC deberán evolucionar para ayudar a reducir la complejidad operativa y el riesgo asociados con los ecosistemas digitales inconexos de la actualidad.
Para obtener más información, lea nuestra publicación de blog anterior en la serie, " Reinventar el ADC para satisfacer las demandas de una infraestructura de aplicaciones en evolución ". Además, esté atento a nuestro próximo blog para aprender cómo la seguridad de las aplicação ha evolucionado en línea con los cambios en las arquitecturas de aplicação y por qué esto exige una nueva era de ADC.
Continuar la discusión del blog ADC 3.0: La evolución de la seguridad de las aplicação : Hacia una nueva generación de ADC