A medida que las organizaciones aceleran su viaje para convertirse en un negocio digital, los CIO están tomando el volante y poniendo el motor tecnológico a toda marcha para impulsar a las organizaciones a través de la segunda fase de la transformación digital. El rendimiento, como es habitual, es un obstáculo importante para aprovechar los beneficios de las estrategias multicloud e impulsar definitivamente a las empresas a extenderse al borde.
Recientemente perdí aproximadamente una hora de mi vida siguiendo hilos sobre la tasa de sondeo de los ratones para juegos en comparación con la de un controlador de consola. Aprendí que, si bien mi controlador Xbox es capaz de procesar 24 MIP, todavía solo sondea la entrada a 125 Hz. Esto significa que informa al juego sobre cualquier cambio aproximadamente una vez cada 8 milisegundos. Por el contrario, un mouse para juegos sondea la entrada a 1000 Hz. Informa de movimiento una vez cada milisegundo.
Ahora bien, puede ser que pienses que eso es insignificante. Pero en los juegos modernos, especialmente en la escena competitiva, cada milisegundo cuenta. Y si estás usando un controlador y estás participando en una competencia con alguien que usa un mouse, la diferencia entre un milisegundo y ocho milisegundos es una eternidad. Por cierto, también descubrí que se puede overclockear un mando para que tenga una frecuencia de sondeo similar a la de los ratones si se usa para jugar en PC. A los jugadores con mando les resultará mucho más difícil solucionar esta deficiencia de rendimiento.
El rendimiento es importante, y no solo para los juegos. Nuestro análisis de las respuestas al Estado de la estrategia de aplicação 2022 descubrió que el rendimiento afecta todo, desde las decisiones de seguridad hasta las estrategias de distribución de la carga de trabajo. El rendimiento continúa reinando supremo.
Puede ser el secreto peor guardado de la era digital: de hecho, las organizaciones desactivarán los controles de seguridad a cambio de mejorar el rendimiento.
Obviamente ha habido (y sigue habiendo) situaciones en las que los servicios de seguridad se ven desbordados durante un ataque y, para evitar una interrupción, se han desactivado. Pero eso es algo bastante poco común hoy en día, ya que la experiencia en estrategias de escalamiento distribuido aborda con eficacia el escenario en la mayoría de los casos, sin perder los controles de seguridad. Así que la pregunta no es realmente "¿desactivarás la seguridad para obtener una mejora en el rendimiento?" sino "¿cuánta mejora en el rendimiento te incitaría a desactivar los controles de seguridad"?
Eso es exactamente lo que preguntamos.
Como conocemos el secreto, esperábamos que hubiera un punto de inflexión en el que la mayoría de los encuestados, de hecho, desactivarían los controles de seguridad. Pero no esperábamos que fuera una mejora tan pequeña en el rendimiento.
Más de tres cuartas partes (el 76%) desactivarían los controles de seguridad a cambio de una mejora en el rendimiento. Aproximadamente dos tercios de ese grupo lo harían por un aumento de rendimiento de entre el 1% y el 50%. El resto necesitaría una mejora más sustancial (más del 51%) antes de poder cortar los controles de seguridad.
Cuando analizamos a fondo y consideramos las respuestas de los principales líderes de TI y de negocios (las personas que tienen la capacidad de tomar estas decisiones), los resultados fueron aún más sorprendentes. Aproximadamente el 60% de los líderes de TI y de negocios desactivarían los controles de seguridad para obtener una mejora de rendimiento de entre el 1% y el 50%. Solo uno de cada cinco (20%) líderes que toman decisiones no pudo ser persuadido a desactivar la seguridad a cambio de mejorar el rendimiento.
Esto no debe verse necesariamente como algo aterrador. Más bien, esta actitud es indicativa de una visión más madura de la seguridad en la que el foco se desplaza hacia la gestión del riesgo en lugar de un estado constante de defensa y neutralización. La seguridad adaptativa será una forma de equilibrar la batalla entre la seguridad y el rendimiento, y ya estamos viendo un cambio hacia una preferencia por métodos de seguridad más adaptativos en lugar de los más tradicionales.
La seguridad no es el único ámbito en el que vemos conflictos con el rendimiento. Uno de los principales desafíos al operar en un entorno de múltiples nubes ha sido y sigue siendo el de lograr un rendimiento consistente en todas las propiedades de la nube. Con un 40% de encuestados que lo eligen como un desafío importante, fue superado por un estrecho margen por el 41% que tiene dificultades para migrar aplicaciones entre nubes, el 44% que tiene dificultades para aplicar políticas de seguridad consistentes y el 45% que se siente frustrado por la falta de visibilidad en el rendimiento y la seguridad.
No se nos escapa que la falta de visibilidad entre propiedades multicloud probablemente contribuya a la dificultad de lograr un rendimiento constante. Después de todo, si no puedes medirlo, tampoco puedes optimizarlo, y mucho menos establecer una experiencia digital consistente para clientes y empleados. ¿Y cuál de los tres puntos principales les falta a los encuestados? Lo adivinaste, la causa raíz de las degradaciones del rendimiento.
Por lo tanto, no le sorprenderá saber que “la búsqueda de causas fundamentales” y la “exploración para mejorar la experiencia del cliente” son los dos principales impulsores de los proyectos de análisis de datos en la actualidad. Los métodos de monitoreo tradicionales no pueden abordar las necesidades de las empresas modernas y su dependencia de señales digitales para permitir operaciones en tiempo real y una respuesta rápida a los cambios en las condiciones de las propiedades centrales y de la nube.
Si no puedes medirlo, no puedes saberlo, y si no lo sabes, no puedes resolverlo. El enigma del rendimiento en la nube es principalmente un problema de silos de estado y señales; una condición en la que una cornucopia de soluciones y servicios de monitoreo almacenan datos de salud digitales en silos e impiden que las organizaciones aprovechen una estrategia de datos y observabilidad más integral.
Lamentablemente, una estrategia de datos y observabilidad es sólo la mitad de la solución. Ser capaz de actuar rápidamente, incluso de manera proactiva, para resolver una situación es la otra mitad. Esto también se ve desafiado por la naturaleza heterogénea de los servicios y soluciones que abordan el rendimiento, la seguridad y la escala: tecnologías de seguridad y distribución de aplicaciones. Con un verdadero buffet de soluciones y servicios distribuidos entre el núcleo y la nube, no existe una forma única y sencilla de cerrar el círculo entre conocer un problema y actuar rápidamente al respecto. La monitorización desigual y las consolas en conflicto siguen impidiendo ofrecer el rendimiento constante necesario para experiencias digitales extraordinarias.
Ofrecer experiencias digitales extraordinarias se promociona como uno de los beneficios clave de la edge computing. El año pasado observamos que los principales casos de uso planificados para el edge estaban, de hecho, relacionados con el rendimiento. Así que no fue una sorpresa que los mismos resultados aparecieran nuevamente este año. Tan solo un 10% indicó que no tenía planes de implementar nada en el borde. Para el resto, el rendimiento es un factor clave.
Más de cuatro de cada diez (42%) planean aprovechar la edge computing para abordar el rendimiento de las aplicação . Más de un tercio (35%) necesita que el borde admita el procesamiento de datos en tiempo real con requisitos de latencia de menos de 20 milisegundos.
Sin embargo, no contentos con los casos de uso generales, profundizamos en las cargas de trabajo específicas planificadas para implementar en el borde.
No nos decepcionaron los resultados, que demuestran no solo un deseo de mejorar el rendimiento sino también la voluntad de implementar cargas de trabajo de aplicação en el borde.
Más de la mitad (51 %) de las cargas de trabajo de borde planificadas están relacionadas con el rendimiento de las aplicação e incluyen servicios de borde tradicionales, como almacenamiento en caché, duplicación y monitoreo. Pero lo más interesante es que más de tres de cada cuatro (77%) planean implementar cargas de trabajo de datos y experiencia digital en el borde. Esta percepción del edge indica una creciente madurez en la comprensión de que la evolución del edge traslada sus capacidades desde la distribución de contenido (1.0) a servicios (1.5) a carga de trabajo (2.0), casi exclusivamente en la búsqueda de mejorar la experiencia de los empleados y los clientes.
Los meses que pasamos analizando los resultados de nuestra investigación anual son emocionantes, a veces sorprendentes y siempre fascinantes. El hilo conductor del rendimiento atraviesa prácticamente todos los aspectos de TI y de los negocios hoy en día, impulsando las decisiones de implementación e impactando la forma en que las organizaciones operan en el núcleo, la nube y el borde.
El rendimiento sigue siendo lo más importante y, según el comportamiento y las expectativas de mi hijo menor, nativo digital, el rendimiento permanecerá en el trono durante muchos años más.
Para obtener más información, descargue su propia copia de nuestro Informe sobre el estado de la estrategia de aplicação de 2022.
Consulte blogs relacionados para obtener información más detallada sobre temas seleccionados:
Estrategia sobre el estado de la aplicação 2022: Desempacando 8 años de tendencias ›
Estrategia sobre el estado de la aplicação 2022: La seguridad se transforma en identidad ›
Estrategia sobre el estado de la aplicação 2022: La complejidad de las nubes múltiples continúa ›
Estrategia sobre el estado de la aplicação 2022: Es hora de modernizar las operaciones ›
Estrategia sobre el estado de la aplicação 2022: El futuro de los negocios es adaptativo ›