De las cajas negras a la inteligencia artificial (ética) explicable (XAI)

Durante años, la inteligencia artificial (IA) ha avanzado a un ritmo vertiginoso gracias a modelos cada vez más complejos y potentes, especialmente los basados en redes neuronales y aprendizaje profundo (deep learning). Sin embargo, esta potencia ha tenido un precio: la opacidad. Muchos de estos sistemas funcionan como auténticas “cajas negras”, capaces de ofrecer predicciones o decisiones sin que ni los propios desarrolladores puedan explicar del todo cómo se han obtenido.

De hecho, personalmente opino, que ha sido un acto deliberado que se nos inculca a los ingenieros desde la facultad, la aproximación de caja negra. Dadas unas entradas, en este caso una gran cantidad de datos disponibles, el algoritmo (la caja negra) generaba un resultado. Es una técnica que se ha venido empleando desde los comienzos de la informática.

Y esa aproximación es correcta en la mayoría de las circunstancias excepto cuando empieza a afectar al día a día de muchos individuos ya que muchos aspectos importantes de la vida cotidiana quedan sometidos al resultado de un algoritmo con implicaciones muy relevantes.

El problema de la “caja negra”

Imaginemos un sistema de IA que decide si una persona obtiene o no un crédito bancario, o que ayuda a diagnosticar enfermedades. A priori, no son usos sorprendentes, en el caso del crédito bancario, tampoco es ciencia ficción, pero su resultado afecta de manera crucial a las personas. Si el modelo niega un préstamo o sugiere un tratamiento equivocado, es esencial saber por qué lo ha hecho. Sin embargo, los modelos más avanzados (como las redes neuronales profundas) procesan millones de parámetros y capas de información que hacen casi imposible entender su razonamiento.

Es decir, como individuo afectado por el resultado de ese algoritmo, tengo el derecho a conocer que elementos han sido tomados en cuenta durante su proceso de evaluación y en base a que criterios, se me ha denegado o aceptado el citado crédito.

Esta falta de transparencia genera desconfianza y, sobre todo, riesgos éticos y legales.

Y no nos tenemos que ir muy lejos para encontrar casos en los que esto está sucediendo. A modo de ejemplo, comparto el caso del algoritmo llamado Bosco (https://www.xataka.com/legislacion-y-derechos/algoritmo-que-decide-quien-recibe-bono-social-para-luz-gobierno-jueces-se-niegan-a-ensenar-codigo) desarrollado por el Gobierno y empleado por las compañías eléctricas en la asignación del bono social de electricidad, algo clave para las familias más desprotegidas.

La respuesta: XAI (Explainable Artificial Intelligence)

La IA explicable o XAI surge como respuesta a esta necesidad de comprensión y transparencia. Su objetivo es permitir que los sistemas de IA expliquen de forma comprensible las razones detrás de sus decisiones, sin sacrificar del todo la precisión o la potencia del modelo.

No se trata solo de una cuestión técnica, sino también regulatoria y social. La Unión Europea, a través del AI Act (https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai) o en español, La Ley de Inteligencia Artificial de la UE, establece requisitos de transparencia y explicabilidad en los sistemas de IA, especialmente en aquellos considerados de riesgo alto, como los que afectan a la sanidad, la justicia, las finanzas o el empleo.

Recordemos que la citada ley establece 4 niveles o categorías donde debemos clasificar cada algoritmo de IA. Estos 4 niveles son:

  • Riesgo Nulo
  • Riesgo Limitado
  • Riesgo Alto
  • Riesgo Inaceptable

El reglamento exige que los usuarios comprendan cómo y por qué un sistema toma una decisión, promoviendo así la responsabilidad y la trazabilidad de los algoritmos y por tanto, las empresas que han creado los algoritmos deben poner las herramientas necesarias a disposición de los usuarios para conseguir el citado fin.

Cómo se puede “explicar” la IA

Bien, la motivación y la necesidad parecen claras y cada vez tendrán más importancia dado el despliegue de algoritmos en casi todas las áreas de nuestra vida. Pero ¿cómo conseguimos convertir un algoritmo de AI de caja negra en algo que tenga sentido para un humano?

Afortunadamente existen distintas estrategias para lograr que los modelos sean explicables. Son técnicas que exigen un profundo conocimiento de la AI y sus interioridades para ser aplicadas, mientras que su entendimiento es, afortunadamente, bastante más sencillo. A continuación, se mencionan algunas de estas estrategias:

  • Modelos intrínsecamente interpretables: En lugar de usar modelos opacos o muy complejos, podemos recurrir a modelos cuya estructura sea más fácilmente comprensible. Sin duda, aplicar un árbol de decisión o un modelo de regresión lineal permitirá una comprensión más directa de los resultados, eso sí, con frecuencia, a costa de ser menos preciso.
  • Métodos post-hoc: Cuando el modelo ya está entrenado, se aplican técnicas que ayudan a interpretar sus decisiones. Algunos ejemplos son:
    1. LIME (Local Interpretable Model-agnostic Explanations): crea un modelo local simple para aproximar el comportamiento del modelo complejo en torno a una predicción concreta.
    2. SHAP (SHapley Additive exPlanations): mide la contribución de cada variable de entrada a una predicción concreta basándose en la teoría de juegos. Muy visual y fácil de entender.
    3. Grad-CAM y saliency maps: en el ámbito del deep learning visual, destacan las regiones de una imagen que más influyen en la decisión de una red neuronal.
  • Técnicas de visualización y narrativa: ayudan a traducir las explicaciones técnicas en lenguaje comprensible para usuarios no expertos.
Ejemplo (figurado) SHAP

Hacia una IA más responsable y humana

En el caso europeo, que es el que nos afecta, no podemos olvidar la dimensión sancionadora del reglamento, ya que éste establece multas en el caso de incumplimiento de sus directivas. Estas sanciones se podrán fijar como un porcentaje sobre la facturación de la compañía afectada o una cantidad fija. En ambos casos, los límites superiores son de importancia.

Además, esta evolución hacia la IA explicable no solo debe responder a las leyes o al riesgo de multa, sino que debe existir una motivación ética y práctica: los sistemas de inteligencia artificial deben poder justificar sus decisiones del mismo modo que lo haría un humano.

Si queremos integrar la IA en nuestra vida cotidiana sin un sentimiento de rechazo por parte de los ciudadanos, debemos generar confianza, y esta confianza en la IA dependerá tanto de su capacidad predictiva como de su capacidad para explicarse y ser entendida sin grandes dificultades.

La XAI, en definitiva, representa el paso necesario de la opacidad a la transparencia, del poder sin control a la confianza informada. Solo así la inteligencia artificial podrá integrarse de forma segura y responsable en los ámbitos que más afectan a nuestras vidas.

Y cerrando el círculo con la mención anterior al algoritmo Bosco, ante la negativa del propio Gobierno de mostrar las tripas del algoritmo, recientemente se ha producido una sentencia del Tribunal Supremo que tumba esa aproximación y que ha obligado a revelar todo el código fuente del algoritmo. https://almacendederecho.org/juicio-final-sobre-bosco-la-sentencia-del-tribunal-supremo. De otra manera, el gobierno se ha visto obligado a cumplir su propia legislación,

No creo que se pueda considerar como un ejemplo de XAI ni por la intención ni por el resultado, pero si una tendencia a entender “que es lo que hay detrás”. Nos encontramos en el comienzo de una nueva corriente.

Una IA ética y explicable

Nota: las imágenes han sido generadas empleando IA.

Publicado en IA, IT | Etiquetado , | Deja un comentario

De Deep Blue a AlphaGo: Aprendizaje en IA

Hola, no se si es vuestro caso, pero en mi época, como niño “occidental”, casi el único conocimiento que tenía de culturas orientales era gracias a las películas de Bruce Lee. Aun recuerdo en el colegio jugando con los compañeros a hacer la maniobra de la cobra y otras parecidas. Pero, sinceramente, no parecen el mejor referente para identificar a una cultura y desde luego, no el único.

Pensando en juegos, la referencia que tenía como el más complicado en el mundo, era el ajedrez. Para mi era el summum de la dificultad y no podía pensar en otro que fuese más complicado. Y eso que, aunque el ajedrez es europeo, sus orígenes se remontan a Persia y algo de oriental tiene, pero eso forma parte de otra historia. Bueno, si quería algo un poco más raro y menos complicado, tenía el Othello, aunque de nuevo, su origen era inglés y eso sí, un poco más elitista.

Imagen generada con IA

Claro, en aquella época no conocía el Go y no lo pude conocer hasta los avances en inteligencia artificial con las partidas que se celebraron en 2016 y el impacto que generaron las mismas entre AlphaGo y Lee Sedol, jugador profesional y noveno dan. Y lo reconozco, sus características me superan por mucho. Creo que de todas las partidas que he jugado, he conseguido ganar escasamente cinco partidas y con un nivel sencillito. Se nota claramente que es un juego del que no tengo interiorizadas las reglas, la estrategia, etc. y mis movimientos son muy burdos y básicos.

El objetivo de este artículo no es hablar de mis habilidades con el ajedrez o el Go (más bien la falta de habilidades), sino ver como con dos juegos se han seguido estrategias distintas con el objetivo de conseguir que una máquina doblegara a un jugador humano, lo que era una meta de la informática para marcar un hito y en el fondo, son una muestra de la evolución de la tecnología en general y la IA en particular.

Así, en el caso del ajedrez, probablemente recordéis Deep Blue, aquella máquina-monstruo que desarrolló IBM con el único y claro propósito de vencer al mejor jugador en su época de ajedrez, Garry Kasparov. No tenía otro destino que no fuera ganar al jugador ruso.

Y aunque costó un poco, se consiguió finalmente en el año 1997 tras un torneo de 6 partidas donde Deep Blue ganó 2 partidas y se dieron tablas en otras 3, para un resultado total de 3 1/2 a 2 1/2.

DeepBlue es un supercomputador basado en la arquitectura IBM RS/6000 SP, que disponía de 30 procesadores PowerPC 604e a 120 MHz y 480 chips VLSI diseñados específicamente para el ajedrez. Su potencia era de 11.38 GFLOPS y podía evaluar aproximadamente 200 millones de posiciones por segundo. Eso sí, su memoria RAM era de solo 1 GB (¡qué tiempos!)

Si pensamos en la parte lógica, más allá de sus notables recursos de computación, la aproximación software que se siguió fue lo que se conoce como fuerza bruta. Es decir, para cada posición en un momento dado en el tablero, construía de manera dinámica un árbol con todas las posibilidades que podrían acontecer a partir de ese momento. Lógicamente, el crecimiento de alternativas era exponencial, dado que, en un tablero de ajedrez, partiendo de la posición inicial, hay 16 fichas por jugador sobre el mismo, cada una con sus propios movimientos, alternativas, etc, que, a su vez, pueden generar una respuesta distinta por parte del contrario y así hasta el infinito.

Según algunas fuentes, el número de posiciones posibles que se pueden alcanzar tras sólo 10 movimientos es de 165 cuatrillones (165 seguido de. 24 ceros). El número total de partidas de ajedrez diferentes que se pueden jugar es de, nada más y nada menos que un 1 y con 100 mil ceros.

Cuantos más niveles de profundidad pudiera “imaginar”, más podría “ver” el futuro y calcular la mejor jugada inmediata. Lógicamente los recursos necesarios para realizar tal proeza eran  muy notables. En el caso de DeepBlue, el nivel medio de profundidad empleado era de 6 a 8 jugadas, aunque en ocasiones determinadas, podía ser mucho más profundo.

Si vemos con distancia la aproximación seguida, es como un árbol de alternativas o posibilidades, dibujado al revés, con la raíz en la parte superior del gráfico. De esa raíz surgen las ramas con cada uno de los posibles movimientos de cada jugador, de donde a su vez, surgen nuevas ramas en función de la profundidad, etc.

En realidad, se utilizó una pequeña variante para limitar la complejidad. Ya que hablamos de árboles, sobre el generado se aplicaba lo que se conoce como una Poda alfa-beta para no dejar crecer aquellas ramas que no conducían a resultados atractivos, con el objetivo de reducir la complejidad, las necesidades de cálculo y el tiempo necesario para evaluar cada alternativa.

Recuerdo aquella época como si fuera ayer, con las noticias en la televisión sobre este logro y aunque ya estaba enredando con la informática, el concepto de Inteligencia Artificial era algo todavía muy lejano, muy extraño, que solo aparecía en alguno de los artículos de la revista BYTE Magazine que devoraba en aquella época cada mes, como algo de los locos del MIT o Stanford.

Fuente: Internet Archive

Por tanto, parecía que esa aproximación de fuerza bruta era la única posible y el cerebro humano no sería nunca destronado. Además, eran igualmente los años donde se decía que los humanos solo empleábamos un 10% del cerebro por lo que nuestras capacidades podían ser todavía muy superiores, solo era cuestión de entrenamiento (teoría que posteriormente la neurociencia se encargó de desmentir)

Y este concepto de entrenamiento es el que quiero introducir con Go y el equipo de AlphaGo. Concretamente lo que se conoce como reinforcement learning o aprendizaje por refuerzo, que ya es un campo de pleno derecho dentro del mundo de la inteligencia artificial y que tan buenos resultados ha dado de momento y del que se espera mucho más todavía.

Básicamente consiste en que un agente aprende a tomar decisiones (acciones) por sí mismo mediante la interacción con el entorno que le rodea. En cada iteración recibe una recompensa buena o mala en función de los objetivos conseguidos e intenta maximizar la recompensa a largo plazo.

Así, aunque al principio del entrenamiento de AlphaGo se recurrió a (miles) partidas humanas para que la red neuronal pudiera aprender los movimientos básicos y jugadas útiles, la parte realmente interesante fue cuando se puso a jugar a AlphaGo contra si mismo durante millones de partidas. Cada una de esas partidas fueron únicas y no hubo intervención humana pues fueron puramente máquina contra máquina.

Se da la paradoja, probablemente inflada por los medios, que algunas jugadas que se produjeron nunca habían sido visto antes por humanos y se consideraron como novedosas.

Al final, mas allá del ruido mediático, fue una prueba evidente que la IA podría aprender por si mismo estrategias no enseñadas por humanos y más allá de nuestra propia comprensión. Igualmente abrió la puerta a utilizar de manera extensiva el aprendizaje por refuerzo y las redes neuronales de las que tanto se habla en los últimos años.

Por ejemplo, aunque no de manera exclusiva, el aprendizaje por refuerzo es altamente empleado en los test de conducción autónoma especialmente en el caso de Waymo.

Para despedirme, solo puedo recomendar a quien no lo haya visto todavía que saque un hueco en su agenda y vea el documental del 2017 sobre este acontecimiento llamado AlphaGo. Recuerdo que lo vi en Netflix pero no lo he encontrado ahora (2025) aunque buscando aparentemente está disponible y completo en youtube.

Publicado en IA, IT | Etiquetado , , , , | Deja un comentario

La (no) digitalización de la banca

Hola,

Sin duda, uno de los temas candentes en el sector bancario en los últimos tiempos ha sido el proceso de digitalización, respuesta a las fintechs, identificación del cliente final, etc. Y algunos bancos hacen gala de este proceso en cada una de sus comunicaciones públicas, anuncios, sucursales, Internet, etc.

Sin embargo, una cosa es predicar y otra bien distinta es dar trigo, por lo que quiero compartir con todos vosotros una reciente anécdota con uno de esos bancos. Mantengo una cuenta bancaria en un banco cuyo logo es una llama de color rojo (no, no me refiero al Banco Santander) con la que he podido realizar transferencias por Internet sin problemas. Igualmente el banco ha sido capaz de enviarme de vez en cuando publicidad mediante mensajes SMS a mi móvil.

digital2

Bueno, mas bien debería decir que tengo una cuenta con la que podía (pasado) hacer transferencias ya que intenté realizar una hace unos días por Internet y en el último paso, después de haber introducido todas las claves, me encontré con un mensaje de error operativo que no permitía finalizar la operación. Sorprendido, lo reintento varias veces y siempre con el mismo resultado, error. Ante mi sorpresa, decido llamar al servicio de atención telefónica y empieza la odisea de la (no) digitalización.

Primero, tuve que esperar ¡40 minutos! al teléfono hasta que alguien me atendió. Parece  ser que la digitalización consiste en no tener personas que puedan atender al cliente en un día laborable a una hora normal, no hablo de madrugada o de un fin de semana. Cuando por fin soy atendido, me encuentro con la habitual retahila de preguntas para identificarme. En parte, es comprensible pero en parte no, como por ejemplo, en otra compañía (no de banca, sino de telco, de telco con T) que tienes que introducir tu número de teléfono antes de ser atendido y cuando tienes finalmente al operador, la primera pregunta es ¿cuál es tu número de teléfono? ¡A lo mejor ha cambiado desde hace 30 segundos!

digital

Segundo, explicada la situación, no consiguen encontrar el motivo por el que no se puede finalizar la transferencia. Así que, prueba esto, prueba esto otro, inténtalo de nuevo, etc. De nuevo, hasta cierto punto normal, si el objetivo es resolver el problema.

Tercero, tras otros 10 minutos al teléfono, parece que «por seguridad y para bien de nuestros clientes» debes registrar tu número de teléfono en el sistema. Bien, yo lo tengo pues ya recibo mensajes de publicidad por su parte pero no es suficiente, ¡hay que ir a una sucursal física, en persona, con el teléfono para registrarte! Entonces, ¿cómo me mandan publicidad por SMS? Y si es por «mi seguridad», ¿cómo es posible que hasta hace bien poco no era necesario? Y sin duda, ¿cómo se pone en marcha un procedimiento que sólo genera incomodidad y molestia en el cliente sin beneficio alguno para el usuario?

Y ya la traca final, la operadora en un gesto que la honra, se ofrece a realizar la transferencia de manera telefónica empleando las claves que no podían ser utilizadas por Internet. Dejando a un lado lo extraño que es que las claves valgan para un canal y no para otro, me parece una buena solución y empezamos con la operativa, hasta que esta persona con un tono de voz entre tembloroso y dolido, me dice «claro, pero por teléfono tiene un coste de 6 euros» ¡6 euros por una transferencia de 105 €!

Sinceramente, creo que se confunde la digitalización de la banca con la generación de obstáculos. ¡Viva la digilosofía!

Publicado en IT, Personal | Deja un comentario

Pasado y Futuro

Hola a todos,

Mientras el foco principal de este mini-blog guadianero, ha sido y seguirá siendo la tecnología, algunas noticias recientes me han animado a escribir sobre un tema más general pero de capital importancia. Puede que igualmente la edad que voy teniendo sobre las espaldas, te haga pensar más en estas cosas o que simplemente me apetecía, así que allí va.

Y el motivo es la fijación española por centrar esfuerzos en el pasado y no en el futuro. Parece que llevamos unas cadenas grandes y pesadas que no nos permiten dar el salto para mirar el futuro con optimismo y preferimos seguir anclados en el pasado, pensando en aquello que nos pasó o aquello que no queríamos que nos pasara. Y sin centrar la conversación sobre temas políticos, aunque no deje de ser un magnífico ejemplo reciente de la energía que consumimos en esas discusiones, podemos aplicarlo a un entorno empresarial.

Tengo un buen amigo (si Javi, va por ti) del que me gusta aprender y escuchar y que en una comida hace unos meses emitió un axioma como solo puede hacerlo un vasco del centro de Bilbao como es él. “Mira Daniel, cuando me incorporo para dirigir un nuevo proyecto en una empresa, no pierdo el tiempo en preguntar sobre el pasado, solo me preocupa lo que tengo por delante”. No es literal, pero se acerca en espíritu a lo que me comentó.

Reconozco que, en un primer momento, ante la potencia verbal de mi interlocutor, me quedé impactado pues por mi parte, siempre he dedicado esfuerzos (más o menos) a preguntar por el pasado, por aquello de que quería conocer de donde veníamos, que nos había traído hasta aquí, etc. Había una mezcla de curiosidad, descubrimiento y aprendizaje de los errores (y aciertos) del pasado. Pero esa fase indagatoria, puede ser un alimento para otras personas para no salir de ese bucle en el que mucha gente tiende a quedarse anclada. Es tanta la herencia que he recibido que no quiero pensar en el futuro.

Y el detonante para escribir estas líneas ha sido una reciente noticia(1) en la que el director de cine iraní Asghar Farhadi decía “En España siempre se piensa en el pasado”. Y no hay nada como la visión de nuestro país y de nosotros por parte de alguien de fuera, libre de esos complejos (aunque tenga los suyos propios) que le permiten analizar la realidad más libremente. Evidentemente ese comportamiento que se produce también en las organizaciones empresariales es espejo de nuestra enseñanza, nuestra educación, nuestra historia, etc.

¿Cuántas empresas u organizaciones conocemos que dedican más tiempo y energía a pensar en el pasado? En algunos casos, se llega al extremo que los miembros se encuentran cómodos en esa amargura de lo que ya ocurrió y no se puede cambiar y prefieren seguir dando vueltas al tema una y otra vez, de manera recurrente, en una historia interminable. Está en nuestras manos cambiarlo, hacer esfuerzos por dejar de centrarnos en el pasado y mirar al futuro con optimismo, pues es la única manera de cambiar y hacer grandes cosas que, sin duda, podemos hacer.

“La cultura se come a la estrategia para desayunar”

Peter Drucker

PD: En la elaboración de este artículo, no se ha plagiado ningún otro documento ni se ha recurrido a fuentes como Wikipedia y similares, por tanto, el pensamiento solo corresponde al autor 😉

(1) http://www.elmundo.es/metropoli/cine/2018/09/13/5b9a4caa22601d9f5b8b462e.html

Publicado en Personal | Deja un comentario

¿Qué nos queda de las enciclopedias?

Vas cumpliendo años, que es ley de vida y de repente te das cuenta que cosas que han formado parte de tu vida cuando eras más joven, han desaparecido. Incluso, su propio nombre no despierta ningún sentimiento ni recuerdo en las generaciones más jóvenes y a veces, te hace sentirte incómodo.

Toda esta introducción viene a colación de las «enciclopedias». Todos aquellos que por nuestra edad cuando estábamos en el colegio o en el bachillerato, no dispusimos de Internet, teníamos que recurrir a un concepto «viejuno» como es el de las enciclopedias. Recuerdo que ante cualquier trabajo que se nos pedía realizar en el colegio, no nos quedaba más remedio que recurrir a los compañeros del cole y preguntar, «¿Qué enciclopedia tienes en casa?»

Palabras, como Salvat, Larousse, Espasa-Calpe, etc, formaban parte de nuestra jerga habitual aunque probablemente, no digan nada a muchos de los lectores de esta página, ni siquiera, vagamente. Bueno, tal vez por el espacio que aun ocupan en la estanterías de sus padres aunque no las han abierto nunca, pues tampoco las han necesitado.

Así, era habitual el peregrinaje por las casas de los amigos y familiares para consultar una enciclopedia u otra y poder construir un trabajo, referencias bibliográficas, etc. Era un proceso lento y cansado pero igualmente muy social, pues se aprovechaba para ir madurando el texto y comentarlo con los compañeros. ¡Esa era la parte divertida!

Y qué decir de esa vieja profesión que era «el vendedor de enciclopedias«, que ha sido parodiado muchas veces en televisión. Esa persona, casi siempre hombre, con una voluntad a prueba de bombas y de portazos, que junto a su maleta grande donde llevaba algunos volúmenes de la enciclopedia, intentaba convencer a unos y a otros que sin la enciclopedia, sus hijos, nunca serían nada en el mundo.

vendedor

 

El concepto se intentó estirar a finales del siglo XX con la aparición de Microsoft Encarta. ¡Qué recuerdos! Un híbrido con la estructura rígida de la enciclopedia tradicional pero utilizable (mediante pago y suscripción) en ordenadores. Pero todo eso, forma parte del pasado.

Hoy, disponemos todos, tanto las generaciones jóvenes como las menos jóvenes de herramientas potentísimas que conocemos como wikipedia, google, otros buscadores, etc. ¿Echo de menos aquellas enciclopedias? La verdad es que no. Mas allá del componente emocional de compartir una tarde con los amigos para preparar un trabajo, o el tacto del papel, no, no lo echo de menos.

640px-Lueger

Aunque por otro lado, las generaciones actuales han caído en el «take it from granted» y no son conscientes del enorme potencial que tienen al alcance de las yemas de sus dedos con solo escribir unas pocas palabras delante de su ordenador o mejor dicho, móvil sin son millenials. Un poco de esfuerzo, podría ayudar a poner las cosas en contexto, pero probablemente es porque soy un sentimental.

PD: Por cierto, yo era de Salvat 😉

 

Publicado en Personal | Etiquetado | Deja un comentario

¿Nos quedamos fuera del cloud?

Parece que no queda mucho por hablar del concepto «cloud computing» y su utilización diaria. Lejos quedan aquellos tiempos cuando se empezaba a hablar de este concepto, al principio, bajo un nombre menos glamuroso como «Utility Computing» y que ha ido llenando muchos espacios en el IT corporativo, por no hablar del IT doméstico.

Pero quiero traer una visión distinta sobre su impacto en la economía de los países. Recientemente, he asistido a algunas webcasts donde  se ha comparado la madurez de la propuesta de cuatro de los principales jugadores en este mercado, Google, Amazon, Azure e IBM. Faltan muchos jugadores, pero sin duda, desde un punto de vista mundial, SON los cuatro jugadores más importantes, excepción hecho de alguna empresa china por las características especiales de su mercado y alguna japonesa.

Ya tenemos una característica común entre las cuatro, son empresas americanas, no teniendo ninguna representación europea. Cierto es que hay empresas con peso en Europa, pero solo en Europa y no tienen esa visión global.

Pero el punto que me despertó la curiosidad, es su ubicación geográfica. Tomemos como ejemplo, la localización de la infraestructura de Azure, atendiendo a la información publicada en su página web.

AzureWW

Hay un dominio de CPDs en el hemisferio norte, lo que puede ser normal por la distribución de la población, aunque con un claro dominio de algunos países en concreto. África y América del Sur son dos páramos y eso que Azure tiene representación allí, pues otros proveedores, nada de nada.

Veamos, de manera global, los países que cuentan con infraestructura de alguno de los 4 grandes. La lista es la siguiente (1):

  1. Alemania
  2. Australia
  3. Bélgica
  4. Brasil
  5. Canadá
  6. China
  7. Corea del Sur
  8. Estados Unidos
  9. Francia
  10. Holanda
  11. Hong-Kong
  12. India
  13. Inglaterra
  14. Irlanda
  15. Italia
  16. Japón
  17. México
  18. Noruega
  19. Singapur
  20. Taiwán

Por tanto, a día de hoy, solo 20 países del mundo, cuentan con presencia local de alguno de estos proveedores. A esta lista, habría que añadir los que están pendientes de construcción o inauguración, pero es lo que hay a día de hoy.

Parece que se produce, una aparente concentración del negocio cloud en un subconjunto, muy limitado de países, por no hablar de la sobrepresencia americana en el resultado final.

Y las reflexiones, ¿qué consecuencias puede tener esta concentración en la economía de los países que no aparecen representados aquí? Sin duda, tiene un impacto en el PIB de estos países, pues una parte de la capacidad de compra se está mudando de lugar. Y, ¿qué nivel de dependencia puede generar?

Solo son dos apuntes, pues sin duda, da para mucho mas, que dejo al lector para su reflexión.

 

(1) Fuente: RightScale Management www.rightscale.com

 

Publicado en Cloud, IT | Etiquetado | Deja un comentario

(ACTUALIZADO 01/18) SD-WAN, ¿el nuevo nirvana?

Actualización Enero 2018.

Ya desde finales del año pasado nos encontramos con la noticia por parte de Telefónica que, una vez más, habían decidido subir el precio de los paquetes de conexión Fusión cinco euros, a cambio de un incremento en el número de Gb en la conexión móvil y a duplicar la velocidad de los enlaces de fibra. Así, tendremos (se supone que en Febrero) una velocidad base de 100 Mbps y un techo de 600 Mbps (fuente: http://www.eleconomista.es/economia/noticias/8826836/12/17/Movistar-estudia-duplicar-la-fibra-y-elevar-los-datos-moviles-en-sus-paquetes-Fusion-por-cinco-euros-mas.html). Esta tendencia sigue el camino del resto de operadores durante la segunda mitad del año pasado, llegando en el caso concreto de uno de ellos, a ofrecer hasta 1 Gbps para el mercado residencial.

Si ya antes consideraba que era una apuesta segura emplear SD-WAN, con estas velocidades, redoblo mi apuesta. Es el momento de emplear, para la mayoría de los usos a excepción de los hiper-sensibles a la latencia, conexión FTTH securizadas con SD-WAN, con el consiguiente ahorro en costes frente a otras alternativas.

Además, en los últimos meses he podido probar en casa este tecnología haciendo uso de equipos de Meraki (sin participación activa del fabricante) con mi conexión FTTH. Y los resultados han sido más que positivos. A modo de ejemplo, añado dos gráficos con los tiempos de latencia observados en un rango horario contra un servidor de Google y un servidor de la red de Telefónica.

Estadistica-1

Estadistica-2

En el caso de la latencia con el servidor de Google, ha estado la inmensa mayoría del tiempo alrededor (por debajo) de los 5 ms, y en el caso del servidor de Telefónica, más cerca de los 4 ms.

Por tanto, redoblo mi apuesta para el 2018, ¡es el año de las soluciones SD-WAN en España!

 

 

Artículo original

Si algo puede definir en lo estético al sector de IT, es la constante creación de nuevos términos asociados a cualquier tema que esté de moda. Se podría llegar a escribir un libro entero solo con los términos inventados o asociados durante los últimos años. Cierto es que un gran porcentaje de estos términos, igual que nacen, mueren, sin dejar mucha huella detrás de sí, pero durante su vida, son guerreros.

Y uno de los términos que está en boca de todos los fabricantes, clientes y consultoras en los últimos tiempos, es el de Software Defined Everything o SD-x. Este término engloba muchas tecnologías diferentes, incluso sin relación entre sí, por lo que funciona a modo de cajón de sastre. Eso sí, corresponde a un caso de un término que ha venido para quedarse, aunque como representante de toda una familia (SDN, SDS SDDC, etc), los habrá con mejor y peor suerte.

Pero hay un concepto que en mi opinión, luce mucho mas fuerte que el resto y que es una especie de “rara avis” pues no solo atrae a la gente de IT, como es de esperar con una nueva tecnología, ya que la parte financiera de las compañías lo quieren, al menos, con la misma intensidad, por los ahorros que promete. Este concepto es el de SD-WAN.

Toda la gestión en general de las WANs empleadas por las compañías, ha estado enterrada bajo crípticos comandos de línea con muchas opciones, un mensaje de “no tocar” y unos costes, en general, altos para las empresas que necesitan de esa infraestructura. Igualmente, el número de empresas que necesitaban de esa conectividad se ha incrementado de manera notable en los últimos años, por lo que antes quedaba reservado a un conjunto limitado de compañías, hoy es necesario para casi cualquier  compañía independientemente de su sector y tamaño.

Estos factores han traído un incremento en el uso de redes WAN aunque sus características principales se han mantenido constantes. Así, el tiempo para poder provisionar nuevo ancho de banda, no es un proceso ni trivial ni rápido, y el coste sigue siendo prohibitivamente alto para la mayoría de las compañías.

Keep2

Es aquí, donde las soluciones SD-WAN brillan pues prometen una facilidad en la gestión y administración de los enlaces WAN, lo que contentará al departamento de IT, con una estructura de precios muy, muy competitiva al permitir utilizar otro tipo de enlaces de manera corporativa, lo que hará las delicias del financiero.

De acuerdo a la definición de Gartner de SD-WAN, una solución para considerarse como tal, debe incluir:

  • Un reemplazo para los tradicionales equipos router WAN que sean agnósticos con respecto al transporte (MPLS, Internet, FTTH, LTE, etc)
  • Debe soportar balanceo de carga entre diferentes conexiones WAN por políticas de negocio o por aplicación
  • Simple de gestionar y administrar, haciendo que desaparezca la barrera de entrada
  • Deben ofrecer conexiones VPN seguras para crear los túneles necesarios entre las diferentes oficinas y opcionalmente, integrar servicios adicionales como firewall, optimizadores WAN, etc

Y una pizca de números de mercado. Según IDC, el TAM será de 6 B de dólares en 2020, con un crecimiento anual de más del 90% entre el 2015 y el 2020. Estas cifras nos dan claramente una idea de la explosión que se espera de este mercado en estos años.

Parece que los pros, están claros y definidos, lo que no siempre ocurre. ¿Hay también cons? Pues sí, como en casi todo, hay que buscar un equilibrio. En el lado de los cons, citaría especialmente la falta de estandarización, cierta inmadurez en la incorporación de tecnologías (como IP v6) y que algunos fabricantes han decidido abrazar el nombre de SD-WAN aunque su solución no lo sea exactamente.

Solo una reflexión final para el lector. ¿Qué postura adoptarán los carriers que pueden ver amenazado su negocio tradicional de líneas WAN?

 

Publicado en IT | Etiquetado , , | Deja un comentario

La tiranía de los números pequeños (II)

Hola,

Hace, ni mas ni menos que 3 años, escribí un artículo sobre el uso de los números pequeños y su influjo en el modelo cloud. Pasado tanto tiempo, y tras hablar con algunos compañeros, he creído importante retomar el tema, pues considero que sigue estando de actualidad. ¡Al menos tanto como en el pasado!
En esta ocasión, no quiero enfocar el contenido a jugar con números, cosa que me encanta y me siento muy cómodo, sino a ver como, el precio del almacenamiento se ha venido desplomando, mes sobre mes, año tras año y parece que no tiene fin.
Hace 3 años, en Marzo del 2014, cuando escribí el artículo, había realizado una pequeña investigación (mucho nombre para lo que hice) y encontré que el precio en un renombrado proveedor de almacenamiento en la nube, de cada GB al mes era de 0,085 €. Recordando el análisis, he ido a la fuente para ver lo que ese proveedor estaba cobrando ahora por una cantidad similar. Y en el día de hoy, el mismo espacio (1 GB) solo nos costaría 0,01 €/mes.

Evolucion

Por tanto, tras tres años, por el mismo dinero ¡conseguimos 8,5 veces más almacenamiento! De acuerdo, que la demanda de almacenamiento ha subido en estos años, pero sin lugar a dudas, no con la misma tasa de crecimiento como para poder compensar la enorme bajada de precios. Tal vez, este apunte pueda ayudar a poner en contexto el momento del mercado de almacenamiento de manera global y las enormes presiones a las que ha sido sometido en estos años. Creo que no habrá muchos mercados que hayan sido sometidos, de manera tan rápida, tan profunda y por qué no, tan brutalmente, al efecto de la «comoditización».

Prometo revisar para un siguiente capítulo, los precios del almacenamiento Flash, que son aún más divertidos.

Saludos

 

Publicado en IT | Deja un comentario

¿Política o realidad?

Hola a todos,

Hace tiempo que no he podido actualizar el blog y por tanto, ha estado parado si actividad. Para todo se necesita tiempo y últimamente no me ha sido posible activar mi vena escritora (si tengo, claro).

Gracias a un reciente viaje por algunos países de Europa, además de los temas de tecnología, que son la fuente principal de noticias para el blog, he decidido escribir este artículo relacionado con algunas cosas que he visto en la vieja Europa.

Así, como que vivo en Madrid, asisto desde hace muchos años a una campaña por parte de los políticos locales (de casi todos los colores) por fomentar el uso del transporte público, dejar el coche, etc. Y dejando atrás las posturas políticas que hacen que automáticamente estés en un lado o en otro, creo sinceramente que no hay una apuesta decidida por el uso del transporte público, más allá de utilizarlo como soflama política y para ser arrojado entre los bandos.

Pongo el ejemplo que me ha hecho escribir este artículo. Realmente vivo fuera de Madrid, en una localidad cercana. Si quisiera bajar sin coche a Madrid, sería una auténtica odisea. Así, no tengo estación de cercanías en mi localidad, bueno, no se puede pedir tener todo. Por lo que si decidiera coger el coche para dejarlo en la estación más cercana y desde ahí, bajar en tren, además del coste asociado, o estás muy, muy pronto en el parking, o no hay plazas disponibles.

Ahora pongo el contra-ejemplo. He visitado recientemente Brujas, ciudad pequeña y encantadora, donde el coche es un estorbo mas que una ayuda. Como llegamos en coche, decidimos aparcarlo fuera de la ciudad para evitar problemas. Y aquí, la enorme sorpresa. Hay aparcamientos disuasorios en los alrededores de Brujas que, ¡con una tarifa de 3.5 € por día! tienes derecho a aparcar el coche e incluyen los billetes de autobús para ir y volver del centro gratis, para todos los pasajeros del coche.

¡Esto es realidad y no política! Creo que es una medida muy acertada que redunda en beneficio de todos. De los locales, pues evita las molestias de los que no conocemos la ciudad si entrásemos con coche, para los turistas, pues podemos disfrutar en mejores condiciones de la ciudad y del medio ambiente, evitando los humos de los coches. Todo a cambio de 3.5 € (incluyendo billetes de autobús) en un parking donde no existen problemas para encontrar plaza libre, pues está correctamente dimensionado para la población local y flotante.

 

 

Publicado en Personal | Deja un comentario

La venta de EMC

Hola,

La entrada de hoy no es la típica en la que he venido dando mi opinión sobre temas tecnológicos o de negocio, sino recopilar artículos interesantes y con diferentes puntos de vista sobre la compra de EMC por parte de Dell en lo que es la compra mas grande entre empresas tecnológicas.

USA Today
Algunos «peros» a la operación
¿Qué ocurriría si otro puja mas fuerte?
Y la visión local de Expansión

Fue bonito mientras duró.

Publicado en IT | Etiquetado , | Deja un comentario