Orizon https://orizon.es Fri, 20 Jun 2025 08:05:18 +0000 es hourly 1 https://wordpress.org/?v=6.9.4 https://orizon.es/wp-content/uploads/2023/07/Orizon-logo-desktop.svg Orizon https://orizon.es 32 32 Encontrar y resolver de forma automática problemas de rendimiento TI https://orizon.es/encontrar-y-resolver-de-forma-automatica-problemas-de-rendimiento-ti/ Wed, 26 Mar 2025 06:45:00 +0000 https://orizon.es/?p=16700 Nadie parece percatarse del problema, pero está ahí. La complejidad de los entornos TI no deja de crecer y su peso en la cuenta de los costes de explotación también sigue aumentando. Ni la evolución de las herramientas de observabilidad, ni la expansión del modelo cloud en sus distintos sabores, han venido a mejorar la situación, sino todo lo contrario.

Las herramientas de observabilidad, a pesar de presumir de evolución, siguen operando de forma estanca y siendo incapaces de resolver el desafío que afrontan las empresas en materia de rendimiento TI. A saber: tener una visión completa del rendimiento global de la función TI, del funcionamiento de las aplicaciones y su consumo de infraestructura, y de su impacto en el negocio; conocer qué es lo que sucede y cuánto cuesta realmente, y contar con un plan de capacidad y rendimiento verdaderamente integral.

La paradoja es que, a pesar de que las grandes empresas disponen no solo de una, sino de varias herramientas de observabilidad, su capacidad para la detección proactiva y la resolución de problemas en entornos complejos sigue estando limitada y lo está, además, por la propia estructura de las organizaciones TI que, en la mayoría de las empresas continúa escindida en dos grandes funciones: por una parte, desarrollo, y, por otra, infraestructura y operación.

El problema es que, bajo este esquema, por muchas siglas AIOps que exhiban, las herramientas de observabilidad proporcionan visiones parciales y reducidas a diferentes entornos, y su capacidad para actuar, no reactiva sino proactivamente, es también limitada. A esta situación se suma, además, un problema añadido y es que, una vez tomada la decisión de actuar, lo común es que la empresa esté obligada a hacerlo a través de un proveedor tercero (bondades del outsourcing), lo que elevará la partida destinada a mantenimiento, ya sea en tiempo o en euros.

En lo que se refiere a la nube, y digan lo que digan los hiperescalares, la migración de sistemas y aplicaciones al cloud no solo no ha mejorado la situación, sino que la ha complicado y encarecido aún más. La prueba está en los no pocos proyectos millonarios que en la práctica no han conseguido resultados claros y los que, si bien pueden presumir en términos de capacidad transferida, esconden la cabeza cuando se pregunta sobre el valor aportado al negocio. De hecho, no son pocas las empresas que han ralentizado esta transición y que incluso están replanteándose el papel que debe jugar la nube en sus estrategias.

Así las cosas, la situación no es muy distinta a la que se vivía cuando creamos Orizon y volvemos a presenciar cómo las áreas de TI recurren a la concentración de proveedores para solventar la situación y mantener la mirada ante el CEO y los Consejos de Administración. Los gestores del negocio no quieren lucecitas ni brillos de colores, sino resultados, y a la vista del creciente coste que supone TI, entienden que la tecnología no solo debe funcionar, sino hacerlo muy bien y al menor coste posible.

Por estos motivos, el mercado en el que nos movemos, que genera a nivel mundial alrededor de 10.000 millones de dólares, seguirá creciendo y lo hará a un ritmo del 20% durante el próximo bienio. Y por estos motivos también el trabajo que desarrollamos tiene más sentido que nunca, hasta tal punto que en algunas de las empresas a las que prestamos el servicio de Oficina Técnica del Rendimiento (OTR) ha emergido una nueva función a la que hemos venido a denominar Chief Performance Officer (CPO) y que, desde nuestro punto de vista -el del rendimiento- está llamada a jugar un papel tan destacado como el que juegan los Chief Information Security Officer (CISO), una figura creada hace tres décadas.

El CPO no solo actúa de puente entre las dos grandes áreas TI mencionadas antes, tiene la función de velar por el rendimiento tecnológico que, como bien saben los CIOs y también los CEOs, impacta directamente en la cuenta de explotación de las empresas. Pongamos ejemplos: cuando el proceso batch nocturno en una entidad financiera se extiende más de lo previsto, el coste en términos de capacidad de proceso puede ser millonario; pero también la indisponibilidad o el incremento de los tiempos de respuesta en el acceso al uso de ciertas operativas para los clientes, sean internos o externos, puede ser igual o incluso más oneroso, y -aunque en menor grado- es igualmente costoso mantener en la infraestructura sistemas o aplicaciones que nadie usa y que incluso nadie sabe cuándo, quién, por qué y para qué se crearon.

Reducir un 40% costes infraestructura y un 25% tiempos de respuesta

La experiencia con los clientes avala estas afirmaciones y, de hecho, sumamos referencias de clientes que han reducido, en promedio, hasta un 40% los costes totales de las infraestructuras y hasta un 25% los tiempos de respuesta de los sistemas. Y lo que es igualmente importante, son organizaciones en las que ha empezado a calar la cultura del rendimiento, una cultura que no se basa en promesas sino en resultados y que, en los clientes más avanzados, no solo se ha instalado en el entorno productivo, sino que también está tomando posiciones en entornos no productivos, lo que hace posible detectar ineficiencias antes de cualquier posible afectación.

Bajo el mantra de la optimización y la mejora continua del rendimiento, somos una empresa que prestamos un servicio vital a empresas grandes y lo hacemos bajo la visión de un círculo virtuoso y bajo el modelo de Performance Operation Center (PoC), con un equipo de profesionales cuyo conocimiento experto se pone a prueba a diario, y con nuestra plataforma BOA 2. En su nueva versión, BOA ha ganado inteligencia para encontrar y resolver de forma automática problemas de rendimiento, incrementar la escalabilidad para que nuestros clientes proporcionen a sus clientes servicios de alta calidad y, al mismo, reducir costes.

Y, además, lo demostramos. BOA proporciona más de 150 indicadores clave de rendimiento (KPI) alineados con las prioridades y requerimientos de cada empresa, una información cuyo formato de presentación varía en función de los perfiles profesionales que extraen valor de ella, desde producción, arquitectos y desarrolladores de software, hasta directivos y nivel ejecutivo, cuyo objetivo, que es también el nuestro, debe ser común: que la tecnología sea verdaderamente eficiente y que contribuya a lograr los objetivos de negocio al menor coste.

]]>
Rendimiento tecnológico en la migración a cloud https://orizon.es/rendimiento-tecnologico-en-la-migracion-a-cloud/ Tue, 25 Mar 2025 07:20:00 +0000 https://orizon.es/?p=16712 La migración de aplicaciones nucleares al cloud es el camino elegido por muchas empresas para mantener su competitividad en el entorno cambiante que vivimos. Para garantizar que las aplicaciones críticas operen de manera eficiente y rentable en el nuevo entorno, hay que prestar especial atención al rendimiento tecnológico.

Asegurar el rendimiento óptimo de las aplicaciones nucleares en la nube es crucial para evitar interrupciones en la operativa, para asegurar la satisfacción de los clientes externos e internos y también para maximizar el retorno de la inversión en infraestructura y servicios cloud. Algo que, hoy por hoy, no están consiguiendo muchas de las empresas inmersas en este proceso.

De hecho, y según un estudio realizado con la participación de una veintena de empresas de banca, seguros y utilites, las organizaciones con entornos tecnológicos complejos están asumiendo sobrecostes “inesperados” de en torno al 45% de sus presupuestos tecnológicos destinados a la migración a la nube, y ello se debe fundamentalmente a la ausencia de una política real de gestión de su rendimiento tecnológico.

Un análisis más profundo muestra que las causas más comunes de esta desviación y los sobrecostes asociados se encuentran en los costes ocultos de los servicios cloud, incluyendo los derivados de su complejidad, que exige perfiles profesionales muy especializados, escasos en el mercado y, por tanto, con una alta remuneración. La segunda causa más común se encuentra en el procesamiento de picos inesperados, situación especialmente onerosa en las aplicaciones que corren en el mainframe. Y, tercero, se migran componentes que en el cloud tienen un comportamiento dinámico muy malo debido a que nos fueron diseñados para ejecutarse en ese entorno. De hecho, muchos de los componentes que se migran no son necesarios y, de hecho, de acuerdo con nuestra experiencia, entre un 10% y un 25% son componentes obsoletos.

Como consecuencia, la mayoría de las empresas participantes en este estudio reconoce no haber logrado aún los objetivos fijados en sus proyectos de migración cloud e incluso están replanteándose sus estrategias, plazos y objetivos en este entorno. Además, en el caso concreto de las empresas del sector financiero, estos sobrecostes se suman al 15% que sufren históricamente como consecuencia de las ineficiencias del software y la ausencia de políticas para su optimización.

Esta inexistencia de políticas no contribuye a resolver la enorme complejidad que implica la nube, como la califican las empresas, que reconocen llevar a cabo una gestión reactiva del entorno, es decir, cuando aparecen problemas que afectan a la operativa y, por ende, a la cuenta de resultados. Paralelamente, la mayoría de las empresas también reconoce que la nube ha incrementado la complejidad en el desarrollo de nuevas aplicaciones.

En este contexto, y especialmente, cuando en el viaje a la nube se embarcan aplicaciones core como, por ejemplo, el core financiero en el caso de una entidad bancaria, es imprescindible optimizar el rendimiento antes, durante y después de la migración al cloud.

Operaciones críticas, repercusiones significativas

La migración de aplicaciones críticas al cloud implica trasladar sistemas esenciales para la operativa diaria. Estos sistemas gestionan operaciones críticas, desde transacciones financieras hasta la gestión de la cadena de suministro. Por tanto, cualquier degradación en su rendimiento tendrá repercusiones significativas, incluyendo pérdidas financieras, disminución de la satisfacción del cliente y daño a la reputación.

Uno de los principales desafíos en este proceso es garantizar que las aplicaciones migradas funcionen con la misma o mayor eficiencia que en sus entornos originales. La falta de planificación y de herramientas adecuadas para la mejora continua del rendimiento puede conducir a problemas como latencias inesperadas, tiempos de respuesta prolongados y, en consecuencia, los mencionados sobrecostes en infraestructura, debido a un uso ineficiente de los recursos cloud.

El éxito de los proyectos de migración al cloud depende directamente de la capacidad de la organización para asegurar niveles máximos de disponibilidad, rendimiento y eficiencia. Son las tres armas que proporcionamos a nuestros clientes a través de la plataforma BOA (Boost & Optimize Applications) y de la Oficina Técnica del Rendimiento (OTR), que aportan una serie de beneficios directos:

1. Reducción de costes: Al optimizar el rendimiento del software, se minimiza el uso de recursos en la nube, lo que se traduce en la reducción de los costes operativos.

2. Mejora de la eficiencia operativa: Un software optimizado asegura que los procesos críticos se ejecuten sin retrasos ni interrupciones, permitiendo a las empresas responder con mayor agilidad a las demandas del mercado.

3. Monitorización y acción inteligente en tiempo real: BOA vigila de forma constante del comportamiento del software, detecta y resuelve problemas antes de que afecten a los usuarios finales.

4. Ahorro en infraestructura: Al mejorar la eficiencia del software, se reduce la necesidad de invertir en infraestructuras costosas para soportar picos de demanda inesperados.

5. Mejora de la experiencia del cliente: Un rendimiento óptimo se traduce en tiempos de respuesta más rápidos y eleva la satisfacción y fidelidad de los clientes.

Una visión global del rendimiento TI

Tras el logro parcial de los objetivos de las empresas en su tránsito a la nube, también se encuentra la tendencia a replicar en cloud la organización ineficiente que históricamente lastra a las organizaciones TI. A saber, su división en dos grandes funciones: por un lado, Infraestructura y Operación; y, por otro, Desarrollo.

En este tipo de organización, la nube y el outsourcing, respectivamente, son los caminos que suelen toman las empresas para reducir costes. Pero en demasiadas ocasiones, lo que consiguen es lo contrario ya que no resuelven el problema de fondo, una estructura escindida que impide tener una visión global del rendimiento TI.

Ambas funciones justifican su labor e incluso son capaces de optimizar. En el primer ámbito gracias a la propia innovación tecnológica –más capacidad de proceso a menor coste- y, teóricamente, gracias también a la adopción de cloud. En el segundo, a golpe de outsourcing, deslocalización y, en los últimos tiempos, concentración de proveedores. Pero el problema sigue irresuelto y seguirá así mientras no se conecten los dos entornos y se ataque la principal causa raíz que lastra su rendimiento, la baja calidad del software.

La buena noticia es que hay empresas que ya han emprendido ese camino de conexión y, en algunos casos, al mismo tiempo que progresan en su camino a la nube. Como guías y acompañantes en este tránsito, nos apoyamos en la plataforma BOA y en una metodología, DevPerOps, que infiltra en las empresas la cultura del rendimiento.

Estas empresas han cogido el toro por los dos cuernos y, con el liderazgo de una nueva figura con apelativos como IT for IT Projects manager o Head of Special Projects, entre otros, miden el rendimiento bajo parámetros verdaderamente claves para el negocio,

más allá del coste que, por sí solo, no mide nada, y de la monitorización reactiva, cuya inútil función es avisar cuando los “accidentes” ya se han producido.

En Orizon denominamos al cargo que desempeña esta nueva función Chief Performance Orizon (CPO), un hacedor y guardián del rendimiento capaz de correlacionar variables financieras (ingresos) y operativas del negocio (número de clientes, transacciones…) y de manejar KPIs representativos del rendimiento de la función de TI: costes y tiempos de respuesta, y también disponibilidad y cumplimiento de los Acuerdos de Nivel de Servicio (ANS).

En el entorno actual de cloudificación, el CPO es una figura capital ante los CEOs, los CFOs y las Comisiones de Tecnología de los Consejos de Administración. Su labor es continua como lo es la mejora del rendimiento, y su visión y capacidad de actuación debe abarcar lo ya existente -la conocida deuda técnica-, así como el nuevo software; además, de gestionar el cambio porque, como sucede en cualquier transformación, encontrará resistencia.

]]>
FinOps: Ante el mal rendimiento de la tecnología, pida una segunda opinión https://orizon.es/ante-el-mal-rendimiento-de-la-tecnologia-pida-una-segunda-opinion/ Tue, 17 Oct 2023 07:23:56 +0000 https://orizon.es/?p=13761 En el entorno médico, cuando un problema de salud deja de manifestarse de manera aislada y comienza a repetirse con sintomatología similar en un número cada vez más extenso de pacientes, ese mal, hasta entonces caprichoso, se convierte en una enfermedad y se bautiza con una terminología determinada. Haciendo un símil podríamos decir que FinOps es el nombre con el que la industria aborda la enfermedad del mal rendimiento de la tecnología en las organizaciones y sus consecuencias para el negocio. Pero surge la paradoja de que FinOps se nos presenta al tiempo como antídoto y cura.

Comparando la situación con un problema médico, para abordar una enfermedad de manera efectiva, es esencial comprender sus causas y raíces en lugar de centrarse exclusivamente en los síntomas. Pero FinOps, actualmente, carece de los especialistas necesarios para abordar esta labor. Introducir lo financiero en esta ecuación es aceptar la enfermedad como crónica y hace pensar más en cómo gestionar los costes que va a suponer asumirla que tratar de buscar su erradicación. Y digo lo de un mal crónico porque el auge de la nube ha exacerbado los desafíos del bajo rendimiento tecnológico, ya que muchas organizaciones han adoptado estrategias de transformación digital sin estar bien preparadas y comprender completamente todos los costes involucrados.

Desde mi punto de vista y creo que aglutino también la opinión de muchos profesionales, FinOps, tal y como está orientada ahora, puede considerarse un nuevo reto en lugar de una solución, ya que esos sobrecostes han obligado a la industria a analizar la tecnología desde un punto de vista exclusivamente financiero, alejándola de la que debería ser su verdadera función: una palanca de la dirección estratégica del negocio, misión que debería guiar las inversiones en ella.

Un dato importante es que menos del 20% de las grandes organizaciones en nuestro país están abordando estrategias FinOps eficaces y alineadas con los objetivos empresariales y esto refleja la falta de herramientas adecuadas para abordar la raíz del problema. Para que FinOps sea eficaz, debe incluir metodologías sólidas, herramientas capaces de rastrear y eliminar errores y detectar oportunidades de ahorro, y respaldadas por profesionales capacitados.

Pérdida de control

La tremenda complejidad de las arquitecturas en la nube ha convertido este entorno en un verdadero “quebradero de cabeza” para muchas organizaciones con dificultades para gestionarlo, y ello provoca también una progresiva pérdida de control sobre su propia tecnología a favor de los proveedores de cloud, los propios hiperescalares y empresas terceras; actores que, paradójicamente, empujan la implantación de FinOps.

De hecho, la complejidad de las distintas arquitecturas que conviven en la nube ha activado el incremento notable del coste de operación/explotación, ya que numerosas organizaciones han tenido que pasar de modelos internos de equipos cohesionados y enfocados al mantenimiento de los sistemas a un coste predecible, a un modelo de dependencia de “expertos” en una o varias arquitecturas concretas, pero sin visión global de todas las que componen la infraestructura de la organización. Ello hace que sean empresas externas las que propongan y aporten esos expertos con el consiguiente crecimiento de los costes, una pérdida del control de la explotación y, en numerosas ocasiones, incluso la creación de tareas nuevas en la infraestructura que la propia organización desconoce.

Como expertos en rendimiento, nuestra estimación es que las empresas asumen unos sobrecostes de en torno al 45% en sus proyectos de migración a la nube, resultado de la réplica de las ineficiencias en este entorno y de los costes ocultos de los servicios cloud. Esta “enfermedad” se debe a la inexistencia de una verdadera cultura del rendimiento capaz, como en práctica médica, de identificar, analizar, medir y corregir cualquier disfunción de manera eficiente. Mientras esta metodología no exista y se aplique con rigurosidad, los costes ocultos de los servicios cloud seguirán emergiendo de manera imprevista, reflejando los picos inesperados de procesamiento por la elevada complejidad del entorno y a la necesidad de pujar a altos precios y a contrarreloj a profesionales especializados y escasos en el mercado para resolver la situación, y así hasta el siguiente incidente.

Sin duda, las organizaciones están ante un desafío importante al que, a medida que la tecnología evoluciona y se vuelve más compleja, es esencial buscar soluciones efectivas, en lugar de centrarse únicamente en la gestión de los costes. De nuevo, amparándonos en la terminología médica, ante un problema grave, es crucial mantener la esperanza y también buscar opiniones profesionales adicionales, ya que esto puede marcar la diferencia en la vida de una organización.

Ángel Pineda, CEO de Orizon

]]>
Rendimiento tecnológico, cuando el rey está desnudo https://orizon.es/rendimiento-tecnologico-cuando-el-rey-esta-desnudo/ https://orizon.es/rendimiento-tecnologico-cuando-el-rey-esta-desnudo/#comments Sat, 02 Sep 2023 13:41:00 +0000 https://orizon.es/insights/fusiones-bancarias-desafio-y-oportunidad-5-2-2-2/ La verdad, sin embargo, es que muchas grandes empresas no tienen un conocimiento completo de lo que sucede en su organización, no solo desde el punto de vista de la tecnología, tampoco en relación con el negocio, que es lo verdaderamente relevante, es decir, en términos de costes, eficiencia, tiempos de respuesta, experiencia del usuario, cumplimiento de los acuerdos de nivel de servicio, etc.

Efectivamente, los CIOs y los responsables de las diferentes áreas en las que suele organizarse este departamento generan informes. Son detallados, aunque parciales, sobre la capacidad, configuración y operativa de las infraestructuras y aplicaciones; pero carecen de un discurso de valor para el CEO, el responsable financiero y las cada vez más habituales comisiones de tecnología de los Consejos de Administración de las grandes empresas.

Los profesionales en estas posiciones entienden que mantener la máquina funcionando sin poner en riesgo la operativa tiene un coste, pero no están dispuestos a que sea a cualquier precio. También comprenden la importancia estratégica de innovar, pero de ninguna manera deberían sufragar experimentos por el mero hecho de que una tecnología o un determinado modelo sea tendencia, a menos que demuestren resultados tangibles.

A este último respecto, podemos hablar, por ejemplo, de los no pocos viajes a la nube de grandes empresas que, ni de lejos, han procurado a las empresas los resultados esperados, si es que los conocen.

Porque la verdad es, insisto, que muchas grandes empresas no saben cuánto les cuesta rodar sus entornos on-premise y, menos aún, en la nube. Lo que sí saben, especialmente el responsable financiero y, por supuesto, los hiperescalares, es que el cloud implica el pago de una factura mensual y que con demasiada frecuencia su importe no solo no es el previsto, sino muy superior. Así las cosas, empresas que habían dilatado el viaje a la nube y que se habían sentido durante años en la retaguardia, ahora celebran la cautela.

En otras palabras, en la mayoría de las grandes empresas no hay una transparencia respecto a los costes tecnológicos ni una correlación clara con el activo o el servicio que lo genera, más allá de la socorrida transformación digital, que se ha convertido en un pozo sin fondo o del casi hipnotizante viaje a la nube.

Como en el cuento de “El rey desnudo”, el CIO trata con sastres preparados, conocedores de la última moda y dispuestos a confeccionar, a cambio naturalmente del dinero necesario, los mejores vestidos. Unas prendas que, además, solo pueden valorar aquellos con ciertas cualidades de las que, por supuesto, nadie reconocerá carecer. Y esa es justamente la razón por la que nos valoran nuestros clientes, porque decimos la verdad y, no de forma inocente, como el niño en el cuento, sino basándonos en datos reales. Y el segundo valor diferencial radica en que, no solo somos capaces de identificar el problema o la ineficiencia que causa los sobrecostes, también proporcionamos la solución para su resolución.

Resistencia interna que perpetúa la ceguera

Un poco como los sastres, los tecnólogos que consideran la tecnología como un fin en sí mismo, se encuentran cómodos en sus posiciones y se mantienen alejados de las necesidades del negocio. Esta situación es consecuencia de la tremenda complejidad de los entornos tecnológicos, que ha derivado en la comentada pérdida de control, también como resultado de la falta de profesionales preparados para gestionarlos y que, por este y otros motivos (que no son el objeto de este artículo), suele confiarse a terceros, cuya actuación no siempre se alinea con las necesidades y los objetivos del negocio del cliente, sino con otros intereses.

El freno al desarrollo de la cultura del rendimiento en las grandes empresas procede muchas veces de las estructuras internas de los propios departamentos de tecnología, donde la diversidad de tecnologías, áreas (organización, arquitectura, desarrollo, operación, seguridad, etc.) y competencias hace que se diluya la responsabilidad sobre el rendimiento.

Esta situación es la que verdaderamente lastra la eficiencia e impide la adopción de una cultura del rendimiento, base para la mejora continua. En muchos casos, los profesionales temen las posibles consecuencias que implica el reconocimiento de las carencias y prefieren mantenerse reactivos.

La resistencia interna es la que perpetúa la ceguera, que es simple consecuencia de la inexistencia de los indicadores necesarios. Haciendo una analogía automovilística, las grandes empresas tienen un coche muy grande, pero desconocen a qué velocidad se mueve y carecen de la capacidad para saber cuánto consume.

Mientras tanto, buena parte del software de las grandes empresas cambia cada año (hasta el 40% de los componentes de las aplicaciones cambia de versión en el sector, por ejemplo, de la banca) y se mantienen los errores -entre un 10% y un 15% en el caso de los grandes proveedores- que impactan negativamente en el negocio. Persisten los costes ocultos (los costes sorpresa en los entornos cloud), que se transforman en sobrecostes y penalizan la cuenta de resultados.

Sin cultura del rendimiento

El escenario se caracteriza, por tanto, por la inexistencia o un bajo grado de madurez de la cultura de rendimiento de las áreas de tecnología. Ello, obstaculiza el necesario cambio de paradigma para pasar del modelo clásico de gobierno TI, eminentemente funcional, a un modelo de eficiencia, de servicio y de control, desde el punto de vista de los costes, hacia abajo y hacia arriba, y considerando también otros indicadores verdaderamente relevantes para el negocio.

La orientación tecnológica basada en incidencias tampoco basta porque, además de ser reactiva, no tiene en cuenta el análisis de conceptos clave como la rotación del software o el impacto de su puesta en producción, tanto en las infraestructuras, como en las arquitecturas y las aplicaciones.

Es justamente aquí donde se sitúa Orizon, nuestra tecnología BOA y la metodología DevPerOps. Somos el equivalente a un Security Operation Center (SoC) en el ámbito de la seguridad, pero en el ámbito del rendimiento y como Performance Operation Center (PoC), cumplimos la labor propia de la función de gobierno del rendimiento con foco en la eficiencia, que todavía no existe en la mayoría de las grandes empresas. Y, además, demostramos los resultados:más allá de haber participado en las dos últimas grandes fusiones de entidades financieras, tenemos casos de éxito en los que hemos conseguido reducir la factura de tecnología un 50% en seis meses.

Este nivel de optimización es posible porque somos capaces de encontrar la aguja en el pajar. Dentro de la maraña, detectamos, identificamos y correlacionamos las ineficiencias y los problemas, las ordenamos por importancia e impacto en el negocio y proponemos la solución. En lugar de miles de alertas, BOA genera KPIs esenciales tanto para la organización TI como para el negocio, de forma que CIO, CEO y Consejo conocen la verdad antes de tomar decisiones y tienen, además, capacidad para controlar de forma continua el impacto de las actuaciones de mejora. Y, por último, pero también capital, pueden compararse con sus competidores.

]]>
https://orizon.es/rendimiento-tecnologico-cuando-el-rey-esta-desnudo/feed/ 1
Se acabó la fiesta cloud, 2023 es el año de la eficiencia https://orizon.es/se-acabo-la-fiesta-cloud-2023-es-el-ano-de-la-eficiencia/ Fri, 01 Sep 2023 13:41:00 +0000 https://orizon.es/?p=1604 Se acabó la fiesta cloud, 2023 es el año de la eficiencia

Bajo el mantra de la transformación digital, las empresas han destinado inversiones ingentes a tecnología en los últimos tres años. Buena parte de ellas se han dirigido al denominado viaje a la nube al considerarse una prioridad estratégica en muchas organizaciones, pero bastantes casos solo ha sido un “experimento”.
Los cantos de sirena de la nube, entonada al unísono por los denominados hiperescalares, es decir, los proveedores que facilitan servicios de infraestructura, plataforma y nube privada, tales como Amazon, Microsoft o Google, pero también, y concretamente en Europa, Deutsche Telekom y OVHcloud, entre otros, han llevado a muchas grandes empresas a cambiar sus infraestructuras on-premise por el uso de infraestructuras en la nube. Pero ¿han cumplido sus objetivos?

Lo cierto es que no o, al menos, no en la medida de lo esperado. Aunque, naturalmente, muchos CIOs y CEOs tienen reparo en reconocerlo, ha habido proyectos millonarios que no han obtenido un resultado claro y los hay incluso que directamente no conocen los resultados. El boom de la transformación digital y el encanto del viaje a la nube se han desinflado porque su reflejo en las cuentas no ha sido el esperado.
De las muchas iniciativas de digitalización en desarrollo, todavía son pocas las que están procurando los dividendos digitales que esperan los equipos directivos. De acuerdo con los datos que maneja la consultora Gartner, más de la mitad de los proyectos de digitalización no cumplen las expectativas del CEO / equipo directivo ni en tiempo (59%) ni en generación de valor (52%).
En un ejercicio de reconocimiento de los errores y de propósito de enmienda y, por supuesto, en la intimidad, hay ejecutivos que confiesan que el viaje a la nube ha sido una sorpresa envenenada. Dicen esto porque, si bien el coste de los servicios de los hiperescalares puede ser menor en el papel, lo cierto es que el coste total de propiedad (TCO), que al final es el que se refleja en la cuenta de resultados, es más elevado.

“IBM sabe muy bien que todo lo que acaba en el mainframe tiene un coste que no es banal, pero lo que acaba en la nube también”

IBM sabe muy bien que todo lo que acaba en el mainframe tiene un coste que no es banal, pero lo que acaba en la nube también lo tiene, como bien saben Amazon, Microsoft y Google. Ello es debido, de acuerdo con nuestra experiencia, a dos motivos fundamentales. Primero, la existencia de costes ocultos en el uso de los servicios, incluyendo el procesamiento de picos inesperados. Y, segundo, unos costes de operación más elevados debido a la necesidad de contar con perfiles profesionales especializados, con alta demanda en el mercado, escasos y, por tanto, más caros. Y, ¿por qué no decirlo?: también más improductivos debido a su escasa experiencia.

Menos inversión y más presión para el CIO

Además de los anuncios de despidos masivos de proveedores tan reconocidos como Amazon, Google y Microsoft, no resulta extraño en este entorno un ajuste de las previsiones de inversión en TI. De hecho, Gartner ya ha reducido a la mitad sus previsiones de gasto mundial en TI para 2023. Frente a su previsión de crecimiento del 5,1% del trimestre pasado, la consultora estima ahora el porcentaje de crecimiento de la inversión en TI para 2023 respecto a 2022 en un 2,4%, con un montante de 4,5 billones de dólares y llama la atención sobre el hecho de que el gasto en servicios TI crece más rápido que el de los servicios internos.
Existe, por tanto, una nueva presión en el CIO por parte del CEO, el CFO y las comisiones de tecnología de los Consejos de Administración, que demandan un modelo de eficiencia y servicio para reducir los costes sin poder en riesgo la operativa. Los objetivos de rendimiento financiero son la prioridad y su cumplimiento exige eficiencia.

2023, el año de la eficiencia

Constatado entonces que las promesas no se han cumplido, es necesario tomar decisiones y hay que hacerlo, además, en un escenario de contención de costes. Hay empresas que contemplan dar un giro radical y volver al modelo on-premise y en muchas otras se generaliza la tendencia de un modelo de nube híbrida, con los servicios críticos on-premise y ciertas aplicaciones en cloud. 
Sea cual sea el modelo, lo que ha ocurrido reafirma nuestro convencimiento de que el control del rendimiento en los entornos cloud, ya sea público, privado o híbrido, es capital. Por otra parte, vuelve a ponerse de manifiesto otra debilidad importante y es que, aunque muchas empresas disponen de herramientas de monitorización, control y gestión, aún no han conseguido tener una visión real, completa y detallada de lo que está pasando.
Sobre este particular, disponen de visiones parciales de múltiples entornos y muchas dificultades para actuar, y cuando lo hacen, como en la mayoría de los casos es a través de un proveedor de servicios tercero, el coste de resolución del problema no solo se demora en el tiempo con el consiguiente impacto en los niveles de calidad del servicio y satisfacción de los usuarios, sino que también dispara los costes de mantenimiento. 
La consecuencia es lógica: la monitorización y gestión proactiva de la tecnología -sea cual sea el modelo elegido- se consolida como prioridad. Efectivamente, desde nuestro punto de vista, la denominada “Applied Observability”, en la segunda posición del ranking de las “10 tendencias tecnológicas estratégicas para 2023” de Gartner -solo por detrás de “Digital Immune System”, es fundamental, pero es necesario ir más allá.

Visión, detección, resolución y optimización continuas

A la visión global, única y detallada, hay que sumar la capacidad de bucear, correlacionar, detectar y resolver problemas, y optimizar de forma continua. No basta con saber lo que está pasando y poder identificar los problemas, tanto durante el desarrollo de nuevo software como de las aplicaciones en funcionamiento; también hay que tener la capacidad para actuar teniendo en cuenta todas las dependencias y hacerlo, además, de forma cada vez más automática. 
Esta capacidad de detección automatizada es capital porque, cuando se trata de errores en el software, se cumple la ley de Pareto, es decir, pocas tipologías de errores generan la mayor parte de los problemas.
Claramente asistimos a una vuelta a las necesidades básicas. Los gestores de las empresas quieren saber a ciencia cierta si las infraestructuras tecnológicas que dan soporte a la operativa de la empresa funcionan adecuadamente y a pleno rendimiento, no solo desde un punto de vista técnico, sino también funcional en cuanto que responden a las prioridades del negocio. 
El rendimiento, entendido como la mejor combinación de eficiencia/costes, no es una moda, es un básico y la mejora continua de esta doble variable un imperativo para el tándem CIO / CEO. Necesitan poder vigilar de forma ininterrumpida el funcionamiento de infraestructuras y aplicaciones, ver cómo las decisiones que implican cambios tecnológicos se reflejan en la cuenta de explotación y en los niveles de servicio al cliente, y también poder medir los resultados de sus políticas de contratación de servicios tecnológicos para controlar las actuaciones de sus proveedores. 
En suma, más eficiencia y modelos de gestión que aporten valor y mejoren la eficiencia operativa basada en KPIs sustanciales para el negocio, es decir, relevantes desde un punto de vista financiero.

]]>
Central del rendimiento, tecnología que acompaña al negocio https://orizon.es/central-del-rendimiento-tecnologia-que-acompana-al-negocio/ Mon, 28 Aug 2023 13:40:31 +0000 https://orizon.es/insights/fusiones-bancarias-desafio-y-oportunidad-5-2-3/ No sucede lo mismo en la industria del software y, aunque la calidad es desde hace décadas una de sus prioridades, la creación de software todavía se encuentra muy lejos de los niveles de excelencia que distingue la fabricación de aeronaves y automóviles. De hecho, la calidad del software continúa siendo uno de los principales motivos de inquietud de las empresas y por ello concentra buena parte de las inversiones y los esfuerzos. Entre el 30% y el 40% del gasto en tecnología de las grandes organizaciones corresponde al desarrollo y mantenimiento de aplicaciones. Y el nivel de rendimiento de estas aplicaciones impacta directamente en las infraestructuras que absorben, por su parte, entre el 15% y el 25% del gasto.

La falta de calidad en el desarrollo y el mantenimiento del software es una problemática común a muchos sectores de actividad, desde el sector banca y seguros hasta la Administración Pública, pasando por las energéticas, las telco o el retail.

Si nos fijamos específicamente en el desarrollo y el mantenimiento de software en el sector financiero, las oportunidades de mejora son enormes. De acuerdo con los datos que manejamos en Orizon, en la actualidad el 50% del total de componentes técnicos presenta alguna mala praxis y resulta aún más alarmante que, cuando se modifica o se actualiza el software, la mayoría de malas praxis permanecen porque ni están identificadas ni existen mecanismos para detectarlas y modificarlas.

Existen otros indicadores clave, tan vitales para el negocio bancario como el coste o el tiempo de respuesta, que demuestran que la situación es sustancialmente mejorable. Actualmente, en el sector financiero los cambios de software debido a las nuevas versiones provocan un incremento medio de los costes de consumo de infraestructura del 6% y los cambios de software en producción elevan los tiempos de respuesta en el 16% de las operativas, con el consiguiente impacto en la experiencia del usuario.

Tampoco es menor otro indicador tan capital como el cumplimiento de los acuerdos de nivel de servicio (SLA) y aquí el espacio de mejora es también muy importante. Basta señalar que las subidas de software llegan a suponer, en el periodo de un año, hasta un 9% más de incumplimientos de los SLA.

Todos estos problemas tienen una causa común y es que los desarrollos no se realizan desde el punto de vista del rendimiento. Cambiar esa situación exige a las empresas otorgar al desarrollo y el mantenimiento de software la misma importancia que dan a otras cuestiones como, por ejemplo, la seguridad. Y del mismo modo que un Security Operations Center (SOC) es clave en la operatividad y continuidad de la actividad, las organizaciones también deben interiorizar el carácter vital de una Central del Rendimiento – Oficina Técnica del Rendimiento, como BOA (Boost & Optimize Applications).

Seis beneficios que aporta una Central del Rendimiento del software

Entre las razones por las que una Central del Rendimiento – Oficina Técnica del Rendimiento–  es crítica para las empresas se incluyen:

1.- Visión completa, unificada y detallada del funcionamiento de las aplicaciones y de su impacto en el negocio. Se trata de saber a ciencia cierta hasta qué punto la tecnología que soporta la operativa funciona de la forma adecuada y a pleno rendimiento. Esta visión es especialmente importante en un ámbito como el desarrollo y mantenimiento de software, en el que predomina la externalización, ya que los proveedores, ante la aceleración de los ciclos de innovación y la exigencia de un time-to-market cada vez más cortos, pueden restar relevancia a la calidad frente a otros criterios como la rapidez.

2.- Pasar de la monitorización a la acción. A pesar de disponer de diversas herramientas de monitorización, son muchas las organizaciones cuyo conocimiento de lo que está sucediendo en sus diferentes entornos tecnológicos (mainframe, distribuido, cloud…) es limitado, parcial o aislado. Como consecuencia, carecen de un conocimiento real, completo y detallado del comportamiento dinámico de software y, por lo tanto, su toma de decisiones es ciega o, en los mejores casos, reactiva. Un central del rendimiento como BOA permite llevar a cabo una monitorización y optimización proactivas sin salir de la plataforma y de una forma cada vez más automatizada.

3.- Eliminar sobrecostes. Al no tener una visión, completa, unificada y detallada del impacto que la tecnología tiene en el negocio, y al no poder llevar a cabo una optimización proactiva, las empresas asumen sobrecostes importantes que son consecuencia de problemas e ineficiencias ocultos en sus sistemas y aplicaciones. Estos problemas e ineficiencias pasan desapercibidos o no son objeto de control por parte de los proveedores externos, y la empresa, cuando tampoco tiene control, está obligada, sin saberlo, a soportar unos sobrecostes que, de acuerdo con nuestra experiencia, rondan el 15% de las inversiones en tecnología (tanto en costes de infraestructura como en sobrecostes derivados de la reiterada modificación del software).

4.- Promover la cultura del rendimiento. Nuestra visión de central del rendimiento implica una metodología, DevPerOps, que introduce el concepto de rendimiento dentro del ciclo DevOps, es decir, el rendimiento se convierte en principio básico del trabajo simultáneo y coordinado de desarrollo y operaciones. Esta metodología no solo contribuye a dotar a los equipos de TI de una visión de negocio, sino que también permite a las diferentes áreas operativas, empezando por la dirección, a entender el impacto que tiene la tecnología y las decisiones relacionadas con esta en términos propios del negocio, tales como costes de explotación, experiencia de usuario, capacidad de innovación, etc.

5.- Espolear la mejora continua. Una central del rendimiento actúa como acicate para la mejora continua, ya que cuando las áreas de TI y los proveedores externos perciben que están siendo monitorizados y son objeto de medición, son conscientes de estar en evaluación continua y los objetivos que anteriormente se apreciaban como finales, ahora son objetivos en consecución permanente.

De cara al cliente, esta monitorización puede mostrarse en forma, diagramas y rankings que permiten una evaluación continua, en términos de negocio (tiempos de entrega, velocidad de corrección, impacto en el consumo de infraestructuras…), del trabajo de TI y de los proveedores terceros. Además, y este punto es crucial, esta forma de hacer contribuye a la interiorización parte del conjunto de la organización de una cultura del rendimiento enfocada a la mejora continua.

6.- Implantar un modelo de gestión basado en la excelencia. Más allá de los lugares comunes de la industria, medir la realidad y disponer de instrumentos para cambiar esta realidad supone un modelo de gestión objetivo y racional, con impacto real en las operaciones de TI pero, sobre todo, con repercusión en la cuenta de explotación y en la consecución de los objetivos operativos y estratégicos. Asegurar que la tecnología funciona como debe en términos de eficacia y eficiencia implica cambiar las reglas del juego de la gestión de TI, y abordar directamente, con fundamento, el problema del valor de la tecnología.

]]>
Fusiones bancarias, desafío y oportunidad https://orizon.es/fusiones-bancarias-desafio-y-oportunidad/ https://orizon.es/fusiones-bancarias-desafio-y-oportunidad/#comments Sun, 27 Aug 2023 13:40:31 +0000 https://orizon.es/?p=1602 Como expertos en rendimiento, que finalmente se traduce en la mejora del negocio, hemos participado en las dos últimas fusiones bancarias que han tenido lugar en España para garantizar la capacidad y el servicio tras la integración. A partir de ese conocimiento y experiencia, hemos sistematizado el camino para tener éxito en este tipo de procesos que, desde el punto de vista de la tecnología/negocio, exigen: primero, identificar las limitaciones de capacidad del entorno tecnológico destino; segundo, abordar las adaptaciones y llevar a cabo los cambios necesarios para soportar el incremento de la carga operativa; y tercero, prever el comportamiento del entorno destino mediante el desarrollo de pruebas que simulen una operativa real.

Para ello hay que actuar en cuatro grandes ámbitos, todos ellos críticos: infraestructura, software, procesamiento, batch (mainframe) y online. Nuestra Oficina Técnica del Rendimiento (OTR) desarrolla estas tareas a través de la plataforma BOA y aplicando la metodología DevPerOps, único estándar de mejora continua del rendimiento del mercado.

En suma, se trata de garantizar que los sistemas destino estarán preparados para la migración, es decir, que se han dimensionado para soportar la carga de información origen y ofrecen la capacidad para procesar con normalidad toda la operativa a partir del día siguiente a la migración (D+1). Así, los errores que antes se “perdonaban”, ya no se admiten y, además, el objetivo en términos de costes es que 1+1 no sumen 3, como tiende a ocurrir en estos procesos, sino menos de 2.

En este contexto, el control del rendimiento y la gestión de la capacidad permiten descubrir lo que va mal e identificar las oportunidades en términos de negocio (eficiencia, niveles de cumplimiento, tiempos de respuesta, costes, etc.). Estas debilidades y oportunidades no pueden pasar desapercibidas, de modo que deben tenerse bajo control y ser objeto de mejora continua durante y también tras la fusión.

]]>
https://orizon.es/fusiones-bancarias-desafio-y-oportunidad/feed/ 1
Rendimiento del software, la banca no gana  https://orizon.es/rendimiento-del-software-la-banca-no-gana/ Sat, 26 Aug 2023 11:57:09 +0000 https://orizon.es/insights/fusiones-bancarias-desafio-y-oportunidad-5-3/ Los responsables de negocio y los profesionales TIC de las entidades bancarias son perfectamente conscientes de esta situación, pero no lo son tanto de los costes añadidos que están asumiendo debido a los fallos y las deficiencias de su softwareque además de afectar a su operativa, impactan en el consumo de infraestructura y en el tiempo necesario para su resolución. Este consumo de tiempo y de recursos son costes que, en última instancia, acaban penalizando la cuenta de resultados.

En muchas entidades el servicio y el cliente significan sacrificar al negocio. Escuchando a CIOs y profesionales TI de la banca española, queda meridianamente claro que las áreas de TI han optado por no jugarse el servicio ni la satisfacción del cliente -interno y externo-, pero esa filosofía tiene inevitablemente un coste que requiere del visto bueno de las áreas financieras, del CEO y, en última instancia, de los Consejos de Dirección.

Ninguna de estas tres figuras estaría muy satisfecha de saber que el coste del collar para tener satisfecho al perro no deja de crecer y esto es justamente lo que está pasando y es también uno de los objetivos, al margen de crisis y activos tóxicos, de las operaciones de fusión.

Los datos no mienten. A pesar de la voluntad y el compromiso innovador de la banca, el gasto que asume el sector para mantener su negocio rodando sigue siendo superior al destinado a innovar. Ya lo era en 2008 con unas partidas del 49,3% y del 50,7% destinadas a innovación y mantenimiento, respectivamente; y en los últimos años el peso de la última partida no ha hecho sino seguir creciendo hasta situarse en la actualidad en alrededor del 40% y 60%, respectivamente. 

¿Qué hay detrás de esta abultada partida para el mantenimiento? La respuesta, de acuerdo con nuestra experiencia, es clara: el rendimiento tecnológico no es todo lo óptimo que debería y está lastrando la capacidad de los bancos para innovar.

A nadie se le escapa que el entorno tecnológico de un banco, especialmente el de los que no han nacido en el mundo digital y cuyas raíces se unen en el mundo mainframe, no es sencillo. Basta un dato: de media, en el periodo de un año, entre un 40% y un 60% de sus componentes técnicos cambia y, según nuestros datos, el 50% del total de componentes presenta alguna mala praxis. Y lo que es aún más preocupante, cuando se modifica o se actualiza el software, la mayoría de malas praxis persisten porque ni están identificadas ni existen mecanismos para su detección y modificación.

La problemática es generalizada con independencia de los entornos. Aunque es cierto que muchos de los nuevos bancos han nacido en el mundo digital y también que los más veteranos han migrado parte de sus aplicaciones a la nube, todavía hoy muchos de los procesos verdaderamente nucleares de la banca (onboarding de clientes, corebanking, gestión de cobros y pagos, riesgo y cumplimiento) acaban en el mainframe; el mal llamado ‘legacy’ teniendo en cuenta que estos denominados sistemas están en plena forma en muchas entidades a razón de sus garantías en términos de fiabilidad, escalabilidad y seguridad.

Como sabe muy bien IBM, todo lo que acaba en el mainframe tiene un coste que no es banal, y ocurre que lo que acaba en la nube también lo tiene, como bien saben AWS o MS.

Además, las carencias en materia de rendimiento no solo incrementan los costes, también impactan en otros indicadores clave como, por ejemplo, la disponibilidad. Las entidades siguen teniendo problemas de disponibilidad de alguna de sus operativas básicas con más frecuencia de lo que sería deseable y, además, estos fallos pueden tener un efecto multiplicador en momentos críticos en los que se disparan el número de operaciones, como se demostró durante la pandemia de la Covid-19 y todavía hoy sucede.

En la mayoría de los casos y, a pesar de que los bancos aseguran tener plenamente interiorizada la cultura de la calidad de software, los orígenes de estos fallos, errores y deficiencias se encuentran habitualmente en las arquitecturas y en el software, con la particularidad (Ley de Pareto) de que pocas casuísticas son responsables de la mayoría de los problemas. A esta situación se suma, además, un problema añadido que es la alta dependencia de los bancos de proveedores terceros, los responsables de las ineficiencias en gran medida.

Por otra parte, aunque las entidades financieras también disponen de una miríada de soluciones de monitorización y herramientas APM, no logran tener una visión única, completa y al detalle de lo que está sucediendo.

Automatizar la mejora continua del rendimiento

Como consecuencia de todo ello, al final del día, y de la noche, cuando se trata de rendimiento, la banca podría ganar más de lo que gana, porque hay un margen importante para el ahorro, que es justamente el fin último de una Central del Rendimiento – Oficina Técnica del Rendimiento como BOA (Boost & OptimizeApplications).

La plataforma BOA, que actualmente gestiona más de 500 millones de procesos de negocio -fundamentalmente en el sector de banca y seguros, tiene un triple objetivo: mejorar el rendimiento de las aplicaciones e infraestructuras TI a través de la detección y eliminación de problemas, incrementar los tiempos de respuesta y facilitar la reducción de los costes totales.

BOA opera en cinco fases que se retroalimentan (captura de datos, censo de procesos y de las detecciones diarias, análisis de los datos y detección de oportunidades de mejora, seguimiento del desarrollo y verificación del cumplimiento e impacto en los objetivos en base a una serie de KPIs) y en las que la automatización inteligente es cada vez mayor. En la actualidad, los algoritmos de BOA cubren el 79% de los problemas o malas prácticas, un punto importante si tenemos en cuenta, como mencionaba antes, que en el entorno TI las 50 casuísticas más comunes son responsables del 80% de los problemas.

Además de automatización e inteligencia para la mejora continua y la eliminación de las eficiencias que lastran el rendimiento, BOA proporciona una visión completa y orientada al negocio de lo que está sucediendo a través de dashboards o cuadros de mando, con KPIs o indicadores clave para los distintos perfiles: desarrollo, arquitectura, canal negocio, dirección y producción.

Se trata de que los problemas e ineficiencias no pasen desapercibidos o sean objeto de control, porque cuando este control no existe, el negocio está obligado, sin saberlo, a soportar unos sobrecostes -en costes de infraestructura y sobrecostes derivados de la reiterada modificación del software- que, según nuestra experiencia, rondan el 15% de las inversiones en tecnología, que no es poco.

]]>
Cloud, promesa incumplida y retorno a los básicos https://orizon.es/cloud-promesa-incumplida-y-retorno-a-los-basicos/ Fri, 25 Aug 2023 11:57:09 +0000 https://orizon.es/?p=1590 Los denominados hiperescalares que proveen servicios de infraestructura, plataforma y nube privada continúan insistiendo en las bondades de la transición desde el modelo on-premise al uso de infraestructuras en la nube. Pero, es evidente que tendrán que hacer un esfuerzo extra para evitar la ralentización de esta “evolución” por parte de las grandes empresas e incluso su viaje de vuelta.

Los proyectos millonarios sin un resultado claro o en los que el resultado puede ser notable en términos de capacidad transferida, pero insondable en términos de valor aportado al negocio, han ensombrecido el brillo de cloud y han llevado a muchas empresas a replantearse el papel de la nube en sus estrategias.

Esta realidad que percibimos y también nuestros clientes, también la reflejan las consultoras que observan y analizan el mercado. Según Gartner, más de la mitad de los proyectos de digitalización no cumplen las expectativas del CEO /equipo directivo ni en tiempo (59%) ni en generación de valor (52%). Y, si nos centramos específicamente en cloud -uno de los caminos para alcanzar el edén de la digitalización- es revelador que una consultora como McKinsey & Company reconozca que algunas empresas, en lugar de capturar el valor potencial de negocio asociado a la nube y estimado en un billón de dólares, están perdiendo parte de ese valor debido fundamentalmente a ineficiencias en la orquestación de las migraciones a la nube, que suman costes y demoras que no se esperaban. Y el dispendio no es banal: la consultora calcula que entre 2021 y 2024 se desperdiciarán alrededor de 100.000 millones de dólares en migraciones a la nube.

Es evidente, por tanto, que, si bien el coste de los servicios de los hiperescalares puede ser menor en el papel, al final su coste total de propiedad (TCO) resulta más elevado y es el que acabará reflejado en la cuenta de resultados. El motivo de esta desagradable sorpresa es doble. Por un parte, existen costes ocultos en el uso de los servicios cloud como, por ejemplo, los asociados al procesamiento de picos inesperados. Y, por otra parte, sus costes de operación acaban resultando más elevados, en buena medida debido a la mayor complejidad del entorno y, por ende, a la necesidad de contar con profesionales especializados que no abundan en el mercado y que también suponen un coste adicional.

Carencias que persisten en la nube

Existe una tercera razón para el desengaño, que no es nueva y es capital: la ausencia de visión y control del rendimiento en los entornos cloud, ya sean públicos, privados o híbridos. Sucede que las carencias en términos de eficiencia que las grandes empresas ya venían padeciendo, no solo persisten, sino que se multiplican en el mundo de la nube. Y cómo verdaderamente no existe una visión global ni un plan integral de capacidad y rendimiento, cada vez resulta más complicado conocer qué es lo que sucede y cuánto cuesta.

No es por falta de herramientas. La gran mayoría de las grandes empresas disponen de varias, pero lejos de contribuir a la construcción de esa visión global, ofrecen fotos parciales, limitadas a determinados entornos y con una capacidad para actuar -entendida como la posibilidad de realizar cambios-bastante reducida. Llegados a este punto, tampoco podemos olvidar que, una vez tomada la decisión de actuar, en la mayoría de las grandes empresas habrá que hacerlo a través de un tercer proveedor de servicios, de manera que, además de sumar tiempo, se sumarán más costes en la partida de mantenimiento.

Ante esta pesadilla, la concentración de proveedores -como ya sucedió en otros tiempos- gana adeptos porque, ciertamente, la calidad del servicio y la experiencia del cliente son fundamentales, pero el CEO y los Consejos de Administración lo que verdaderamente quieren son resultados y dan por hecho que la tecnología, que es un coste, tiene que funcionar y hacerlo bien.

En la nube, al igual que en el mundo on-premise, la prioridad es la eficiencia operativa y debe demostrarse a través de KPIs sustanciales para el negocio, es decir, relevantes desde un punto de vista financiero.

Además, la presión por obtener resultados se acrecienta en un escenario de reducción de la inversión en TI. Gartner ha reducido a la mitad sus previsiones de gasto mundial en TI para 2023. La consultora estima el porcentaje de crecimiento de la inversión en TI para 2023 respecto a 2022 en un 2,4%, con un montante de 4,5 billones de dólares frente a su previsión de crecimiento del 5,1% del trimestre pasado. Así las cosas, el CEO, el CFO y las comisiones de tecnología de los Consejos de Administración tienen una petición clara para el CIO: un modelo de eficiencia y servicio que reduzca los costes sin poder en riesgo la operativa.

Visión y optimización continua

Así las cosas, asistimos al fin de la fiesta cloud y al retorno a los básicos. La monitorización y la gestión proactiva de la tecnología, con independencia del modelo elegido- es la prioridad. La denominada “Applied Observability” se ha alzado a la segunda plaza del ranking de las “10 tendencias tecnológicas estratégicas para 2023” y CIOS y CEOs están de acuerdo en que lo que necesitan es esa visión global, única y detallada. Y, además, capacidades avanzadas para bucear, correlacionar, detectar, resolver problemas y optimizar, optimizar, optimizar y optimizar.

Los gestores de las empresas quieren saber a ciencia cierta si las infraestructuras y las aplicaciones que soportan la operativa de la organización, ya sea en un modelo on-premise o en cualquiera de los distintos sabores de cloud, funcionan a pleno rendimiento y lo quieren saber no desde un punto de vista técnico, sino en términos de rendimiento del negocio: ¿cuál es el consumo de recursos de infraestructura?, ¿está dimensionado correctamente?, ¿cuáles son los tiempos de respuesta de las distintas aplicaciones? ¿Son los adecuados para los distintos procesos de negocio?, ¿qué mejoras son necesarias y que ahorros generarían?, ¿se cumplen los acuerdos de nivel de servicio?, ¿cuál es nivel de rendimiento de mis proveedores?, etc.

El rendimiento hay que entenderlo como la mejor combinación de eficiencia/costes, y su mejora continua es un imperativo para las grandes empresas, que siguen haciendo frente a unos sobrecostes -en algunos casos insoportables- en sus presupuestos TIC.

Eliminar estos sobrecostes que, como hemos visto, son resultado de la suma de costes diversos (costes ocultos por procesamientos inesperados, costes de desarrollo, costes de mantenimiento…) requiere de un ojo que lo ve todo y vigilar de forma ininterrumpida el funcionamiento de infraestructuras y aplicaciones, durante su desarrollo y una vez en funcionamiento.

También hay que tener la capacidad para actuar teniendo en cuenta todas las dependencias y hacerlo, además, de forma cada vez más automática. Y es así mismo fundamental poder ver cómo las decisiones que implican cambios tecnológicos (las migraciones a la nube) se reflejan en la cuenta de explotación y en los niveles de servicio al cliente, y -un aspecto clave- poder medir los resultados de las políticas de contratación de proveedores tecnológicos, se llamen IBM o se denominen hiperescalares.

SUMARIO

En la nube, al igual que en el mundo on-premise, la prioridad es la eficiencia operativa y debe demostrarse a través de KPIs sustanciales para el negocio.

]]>
De solo monitorizar a pasar a la acción https://orizon.es/de-solo-mirar-a-pasar-a-la-accion/ Thu, 24 Aug 2023 11:57:07 +0000 https://orizon.es/insights/fusiones-bancarias-desafio-y-oportunidad-4-2/ En el mundo de la informática empresarial se distinguen tres grandes etapas tecnológicas: el mundo mainframe – IBM, el mundo Java-Oracle y, actualmente, el mundo cloud.

De la primera etapa, hay consenso sobre que se trata de un entorno reconocido por su estabilidad y seguridad. De hecho, a pesar de los numerosos vaticinios sobre su extinción, no solo sobrevive, sino que crece y sigue siendo vital para muchas empresas. De ese primer estadio procede una herencia importante, especialmente en organizaciones tan punteras en ese momento como, por ejemplo, el sector financiero o las aerolíneas.

Para las empresas en vanguardia tecnológica, el mainframe -primero los IBM 360 y luego los Z- era el camino. Por ese motivo, estas empresas tienen una herencia – o legacy – que están obligadas a optimizar para que continúe siendo garantía de buen servicio y de cumplimiento.

En los años 90, segunda etapa, entran en escena los sistemas distribuidos. El mainframe dejó de estar solo, empezó a convivir con otros entornos y surgieron las bases de datos relacionales como Oracle y el lenguaje Java.

La inversión de las empresas en entornos distribuidos fue desigual, algunas invirtieron más y otras menos, de forma que, si bien en la práctica la totalidad transformó el front para que fuera más amigable, en el back los escenarios fueron variados. Algunas optaron por desarrollar todas sus nuevas aplicaciones en el mundo distribuido y otros conservaron el mainframe como pieza nuclear.

La razón de la apuesta dispar por el mundo distribuido, y cuyo sentido y acierto todavía está por determinar, fue principalmente económica, pero no solo. El mainframe resultaba más doloso desde el punto de vista de los costes y los sistemas distribuidos prometían un impacto positivo en la cuenta de resultados, además de una alternativa.

Y llegamos a la tercera fase: cloud y los micro servicios. En tanto que modelo financiero, la nube permite al CFO transformar un gasto fijo en uno variable e indudablemente también implica un cambio de las estructuras tecnológicas. Las empresas quieren estar en la nube porque persiguen incrementar la automatización y ser más rápidas, y en el mundo cloud, a priori, se desarrolla más rápido y, supuestamente, con menor coste.

Los nuevos desafíos del mundo cloud

El modelo cloud promete más automatización, agilidad, flexibilidad, escalabilidad y menor coste. Por ello, parece complicado no rendirse a su llamada, pero el avance no está exento de dificultades, ya que, desde el punto de vista de la monitorización, la optimización y la toma de decisiones enfocadas a mejorar el rendimiento, en la nube aparecen problemas que antes estaban resueltos o no existían. Mientras que en el mundo mainframe y, hasta cierto punto, en el distribuido, se monitorizaba de extremo a extremo, se controlaban perfectamente los tiempos y era posible predecir; la situación es muy diferente en la nube.

Efectivamente, bajo el modelo cloud es posible elegir y por ello es un viaje que exige tomar decisiones y en el que, además, es complicado saber a ciencia cierta qué está pasando, la dispersión es brutal debido a que hay servicios que controlas y otros muchos que son de terceros. En pocas palabras: cloud puede convertirse en una caja negra.

La situación puede complicarse aún más debido, por un lado, por las limitaciones que fija la legislación y, por otro, por el nivel de cultura de excelencia tecnológica. El fervor tecnológico o las decisiones arbitrarias pueden transformar la supuesta libertad de elección de la nube en un dardo envenado.

En el modelo cloud, como consecuencia de la libertad en la elección de“piezas”, la complejidad de los sistemas aumenta y la imprevisibilidad caracteriza las implementaciones reales. Al mismo tiempo, las estructuras organizativas crecen y se dispersan los equipos de desarrollo, que utilizan metodologías independientes.

En suma, la gestión y el control de los procesos de desarrollo resulta inviable y, como consecuencia, su resultado se mide en función de los fallos o las caídas del servicio, función a la que se orientan las herramientas AIOps actuales. Pero hay cuatro factores adicionales que impactan directamente en la competitividad.

El primero son los costes de las infraestructuras, tanto en entornos zOS como, y especialmente, en el mundo cloud, donde en muchos casos las arquitecturas escalan mal en costes, tanto en instalaciones de nube privada como pública, donde algunos problemas son diferentes. El segundo es la experiencia del usuario, tanto desde el punto de vista del tiempo de respuesta y las tasas de fallo, como desde la perspectiva de percepción del servicio, y nuevamente aquí la situación es más compleja en los entornos cloud en los que la carga de las páginas ya no es secuencial. El tercer factor clave es el cumplimiento de los Acuerdos de Nivel de Servicio (ANS) y el cuarto la eficiencia del ciclo de desarrollo, entendido como la medición objetiva del comportamiento dinámico del software a nivel de proveedor, grupo/aplicación y programador.

Central del rendimiento independiente

En este contexto, ninguna de las soluciones APM, AIOps, DevOps o de observabilidad actual son capaz de responder de forma unificada a las necesidades inherentes a un proceso de monitorización, control y mejora continua de los cuatro aspectos antes mencionados. Y es aquí donde radica el éxito de la plataforma BOA (Boost & Optimize Applications), la única donde la monitorización –proactiva y no reactiva- y la optimización se desarrollan sin salir de ella.

BOA es, además, inmune a la evolución tecnológica descrita. Con independencia de tipo de infraestructuras, de la arquitectura, del sabor de las aplicaciones o del modelo de consumo de servicios TI, BOA opera como central del rendimiento independiente y enfocada a la mejora continua del código software y del uso óptimo de las infraestructuras. Para ello, proporciona visión y capacidad para actuar sobre los principales KPI del rendimiento.

BOA permite llevar a la práctica un estándar de monitorización proactiva e inteligente que se basa en ocho fases: ingesta de datos procedentes de múltiples fuentes, tratamiento y transformación, consolidación, definición de KPIs, establecimiento de procedimientos para la resolución automatizada de incidencias, soporte a todos estos procesos y medición continua de los resultados. Un círculo virtuoso en retroalimentación constante que, gracias a la incorporación continua de nuevos algoritmos de inteligencia artificial, se desarrollan de forma cada vez más automatizada.

Con BOA es posible saber lo que está pasando y asegurar al mismo tiempo la mejora continua y la toma de decisiones informadas para asegurar los mejores niveles de rendimiento, que es también el objetivo de DevPerOps. Esta metodología introduce el concepto de rendimiento dentro del ciclo DevOps, extiende su cultura en la organización y sus proveedores y dota de una visión de negocio, al desarrollo y a las operaciones TI.

]]>