Categoría: internet

📜Sobre la legislación de las 📡redes en Europa🇪🇺

La Ley de Redes Digitales (ADN): la FSFE pide una protección fuerte y consistente para la Libertad de los Routers

La Free Software Foundation Europe lleva más de diez años trabajando para proteger la libertad de los enrutadores (routers) en Europa. La Unión Europea está a punto de reformar el sector de las telecomunicaciones con la propuesta Ley de redes Digitales. Pedimos un enfoque claro y armonizado que defienda esta libertad en todos los Estados miembros.

10,000+ Free Large Letter L & Letter Images - Pixabaya Libertad del Enrutador es el derecho de los y las usuarios/as a elegir y operar sus propios enrutadores, módems y otros equipos utilizados para la conexión a Internet. Es importante para la autonomía de la usuaria, la competencia y la privacidad, ya que permitiría a los usuarios ejecutar sistemas operativos de Software Libre en sus enrutadores y módems de elección. La libertad del enrutador se entiende en un contexto más amplio como un elemento crucial de Neutralidad del Dispositivo, y requiere que los operadores de red permitan a las usuarias finales ejecutar Software Libre en sus dispositivos.

Durante más de diez años, la Fundación del Software Libre de Europa (FSFE) ha defendido esta libertad en toda Europa con éxitos en Finlandia, Alemania, Italia, los Países Bajos, Grecia y Bélgica.

La propuesta Ley de Redes Digitales (DNA) tiene como objetivo reformar el sector de las telecomunicaciones en la Unión Europea (UE). En la iteración anterior (2018-2020) de la regulación de enrutadores, la UE introdujo varias reglas técnicas que fragmentaron la implementación de la Libertad del Enrutador al permitir que los reguladores nacionales excluyeran este derecho de determinadas topologías de red cuando existían «necesidades objetivas». Desafortunadamente, muchos Estados miembros aprovecharon esta oportunidad para excluir la libertad de enrutadores de las redes de fibra. Ahora, el ADN presenta una oportunidad para cerrar esta brecha de fragmentación asegurando la libertad del enrutador de manera consistente y efectiva en toda la Unión Europea.

Marco regulatorio fragmentado

Representation of the Network Termination PointLa Libertad del Enrutador está formalmente reconocida en la legislación de la UE; sin embargo, la implementación práctica depende en gran medida de cómo se defina el Punto de Terminación de la Red (NTP). El NTP marca el límite entre la red del proveedor y el equipo terminal del usuario. Si este punto se define, por ejemplo, detrás de un enrutador suministrado por el proveedor, se impide efectivamente que los usuarios usen sus propios dispositivos, incluso si la libertad del enrutador está nominalmente garantizada. Por lo tanto, para la libertad del enrutador, es esencial asegurarse de que el NTP esté claramente definido en el punto de acceso apropiado.

Aunque el BEREC, el organismo regulador europeo de las telecomunicaciones, emitió directrices que establecían la libertad del enrutador como predeterminada para todas las topologías de red, permitió a las autoridades nacionales establecer exclusiones. Ejemplos recientes ilustran esta fragmentación. En Austria, las decisiones regulatorias han debilitado la Libertad del enrutador al permitir interpretaciones del NTP que restringen la capacidad de los usuarios para reemplazar los enrutadores suministrados por el proveedor. En Italia, el marco regulatorio ha cambiado una y otra vez, creando incertidumbre e inestabilidad para los usuarios, los fabricantes y los proveedores de servicios de Internet (ISP). Estos enfoques divergentes muestran que las orientaciones no vinculantes por sí solas no han sido suficientes para garantizar una protección coherente de la libertad de los enrutadores en toda la UE.

Debes controlar su enrutador, no el ISP

Esta fragmentación de las normas en los Estados miembros ha llevado a una supervisión limitada sobre cómo los ISP tratan a los clientes que usan su propio equipo para la conexión a Internet. En el estudio más exhaustivo que la FSFE ha llevado a cabo hasta la fecha, se identificaron los siguientes problemas:

  • Limitaciones a la libertad de elección. Algunos ISP restringen a los usuarios finales la conexión de sus enrutadores y módems a la red pública. Esto se observa con mayor intensidad en países donde la posición del NTP no está regulada en una configuración favorable para los usuarios finales.
  • Bloqueo del ISP. Algunos ISP imponen otras restricciones que aumentan los costos de conmutación por parte de los usuarios finales, como cobrar por el equipo proporcionado e imponer multas cuando los usuarios finales usan su propio equipo. El bloqueo es significativamente más notable en las redes de fibra y en los países donde la libertad del enrutador no está establecida por la legislación.
  • Provisión de dispositivos propietarios. Los enrutadores, módems y dispositivos de fibra óptica proporcionados por los ISP generalmente son propietarios. Los usuarios finales no pueden inspeccionar su firmware ni instalar un sistema operativo alternativo. Esto es especialmente problemático con las conexiones de fibra, ya que muchos contratos prohíben a los usuarios finales cambiar el equipo óptico impuesto por los ISP.
  • Problemas de seguridad. La falta de libertad del enrutador genera consecuencias negativas para la seguridad de la red. Algunos ISP no proporcionan actualizaciones de seguridad para sus dispositivos. Cuando los usuarios finales no pueden administrar sus propios enrutadores, quedan más expuestos a fallas de seguridad.
  • Prácticas comerciales y técnicas ilícitas. Incluso cuando la legislación ha establecido la libertad del enrutador, los ISP aún pueden obstaculizar la capacidad de los usuarios finales de elegir y usar sus propios enrutadores y módems. Algunos ISP hacen que sea engorroso reemplazar el equipo del ISP, se retrasan mucho en proporcionar datos de inicio de sesión u otras credenciales de acceso, no ofrecen soporte técnico para la red o amenazan a los usuarios finales que usan enrutadores personales con la rescisión del contrato o multas.

Esta situación socava no solo los derechos de los usuarios, sino también el mercado interior de la UE. Si paga la electricidad para alimentar su enrutador, debería estar tanto bajo su control como su propia cafetera u ordenador portátil, no algo dictado por su proveedor de Internet. Las diferentes normas nacionales sobre dónde termina la red y comienza el equipo del usuario crean barreras para los fabricantes de dispositivos, complican las ofertas transfronterizas y erosionan la confianza en las protecciones a nivel de la UE.

Lo que la FSFE pide a la DNA: ¡La libertad del enrutador debería garantizarse en toda la UE!

La posición de la FSFE es que la Ley de Redes Digitales (DNA, por sus siglas en inglés) debe ir más allá de las normas nacionales fragmentadas y establecer un marco operativo claro que garantice una protección eficaz y uniforme de la Libertad de los Enrutadores. Esto requiere establecer un cumplimiento armonizado en toda la UE que refleje adecuadamente los intereses de los usuarios finales y los consumidores. Cualquier desviación debida a la topología de la red debe seguir siendo la excepción, no la regla, y debe justificarse de manera transparente.

Varios reguladores ya han apoyado este enfoque. La autoridad nacional de Alemania ha rechazado muchos de los argumentos presentados por los proveedores de servicios de Internet contra la libertad del Enrutador, confirmando también el derecho de los usuarios a elegir su propio equipo terminal en las redes de fibra. Del mismo modo, en 2023, Bélgica introdujo formalmente la libertad de enrutadores que cubre todos los tipos de redes, incluida la fibra. Finlandia implementó la libertad de los enrutadores ya en 2014 y reafirmó su compromiso en 2021. En el mismo año, la Autoridad Holandesa para Consumidores y Mercados publicó reglas que confirmaban la Libertad del enrutador para los consumidores en los Países Bajos.

Para proteger la Libertad de los enrutadores y garantizar que se implemente un enfoque armonizado en toda la UE, son necesarias las modificaciones del Considerando 14, el artículo 69 y el artículo 125 del texto propuesto. Los cambios son necesarios para consolidar la identificación del NTP en el punto físico pasivo de la red, de forma predeterminada.

Hoy, hemos presentado nuestra posición sobre la Libertad de los enrutadores a la consulta de la Comisión Europea sobre la Ley de redes Digitales. Puedes leerla aquí.

✊🏽La lucha de las trabajadoras de ‘El Corte Inglés’ en  Rojo y Negro.

☮️El Día Internacional de las Mujeres nace de las luchas obreras y feministas de inicios del siglo XX

🧐Los influencers también lloran😭

The Journal

El derecho, la negación y el vacío moral en la llamada «ciudad más segura»,  a medida que aumenta el número de muertos, algunos expatriados occidentales en Dubai se preocupan por los campos de golf, el agua embotellada y las inyecciones para bajar de peso, escribe Caoilfhionn Gallagher KC.

un auténtico titular del DAILY MAIL esta semana: «Estoy atrapada y bajo ataque en Dubai; mientras tanto en casa, en Chichester, mis hijas están furiosas, los labradoodles están enfermos y, lo peor de todo, dejé mi pluma Mounjaro en la nevera».

Penny, our 3-year old Australian Labradoodle, enjoying fall in our yard ...Pensé que era una crítica irónica, pero no. Shona Sibary, una británica que escribe para el periódico y divide su tiempo entre Inglaterra y Dubai, explicaba lo estresada que se encontraba en los últimos días, aparentemente sin el menor indicio de autoconciencia o contexto. «Gracias a la explosión del dron esta mañana, el Jeque también cerró el campo de golf, lo que en sí mismo no tiene precedentes. Y hay una notable falta de agua embotellada en Waitrose al otro lado de la calle», escribió. «No puedo evitar sentir que estamos al borde de algo grande.»

Pero su mayor preocupación era ella misma y su apariencia: «Quizás lo peor de todo es que dejé mi bolígrafo Mounjaro en la nevera de casa porque pensé que solo iba a estar fuera una semana. Parece que no solo estoy atrapada en una zona de guerra, sino que también voy a engordar de nuevo.»

«No hay un violín lo suficientemente pequeño»», respondió acertadamente un comentarista en línea. En el quinto día del bombardeo de Irán por parte de Estados Unidos e Israel, se informaba que el número de muertos solo en Irán había llegado a 1.045, y Teherán continúa con sus ataques de represalia en todo Oriente Medio.

Una región en conflicto

Ha sido una semana difícil para todos los países de la región. Los ataques aéreos por sorpresa contra Irán por parte de Estados Unidos e Israel comenzaron el sábado, involucrando el asesinato del Líder Supremo de Irán, el Ayatolá Ali Khamenei, y otros líderes del régimen, y un impacto directo de misiles en una escuela en el sur de Irán, matando a 180 personas, la mayoría niñas.

Imagen de Seyed Javad Miri, en su Instagram. Irán ha respondido con intensidad, ampliando el conflicto en todo el Medio Oriente. Ciudades de los Emiratos Árabes Unidos, incluido Dubai, han tenido que defenderse de cientos de misiles y drones disparados desde el interior de Irán. Los vuelos han sido cancelados y muchos se están refugiando en sus casas por ahora.

Se cree que alrededor de 12.000 ciudadanos irlandeses viven en los Emiratos Árabes Unidos, que es un aliado de los EE.UU. El país es conocido por su excelente clima, glamorosos hoteles de rascacielos y tiendas de lujo, como un punto de acceso para futbolistas famosos, aficionados al fútbol y jet set. Pero hay un lado más oscuro en los Emiratos Árabes Unidos, un lado oscuro de los abusos contra los derechos humanos.

Por supuesto, hay muchos ciudadanos irlandeses atrapados en los sucesos de esta semana en Dubai, familias y jóvenes, algunos en una escala aérea a otro destino, y la prioridad debe ser su seguridad. Es enormemente traumático verse atrapado en una guerra inesperada e impredecible, y es alentador ver al Gobierno irlandés presionar con fuerza para llevarlos a casa lo antes posible. Tenemos la suerte, como ciudadanos irlandeses, de poder volver a casa a un país seguro y pacífico. Eso, en sí mismo, es un privilegio.

Muchos millones en este mundo no tienen tanta suerte. Habiendo pasado gran parte de esta semana hablando con clientes y amigos con familiares en Irán, en grave riesgo tanto por el brutal régimen como por el bombardeo, no tengo ninguna simpatía por los labradoodles Chichester de Sibary o sus problemas con el GLP-1. Está claro que ella, y muchos más «expatriados» como ella en la región, piensan que los ataques deberían ocurrir en otro lugar, a otra persona, no a ellos, y no en Dubai.

«Por supuesto, la gente vive en zonas de guerra y sufre ataques con drones y misiles a diario. Pero esto es Dubai», escribió. «Se supone que es la ciudad más segura del mundo. No solo eso, es de donde vengo… para recargar mi bronceado… no esquivar los escombros de los ataques iraníes.»

Pero la respuesta autoobsesionada y sorda de Sibary a la escalada de violencia de esta semana en el Medio Oriente lamentablemente está lejos de ser única. La influencer australiana Louise Starkey, que publica sobre la vida en Dubai bajo #dubaiexpat, publicó un video de Instagram (ya eliminado), filmado en el balcón de su hotel con misiles iraníes visibles en el cielo nocturno detrás de ella.

Starkey vestía una bata blanca y se agarraba la cara. «No puede pasar aquí. ¿No pueden todos simplemente relajarse?» se pregunta. «Esto no es divertido, muchachos. Se supone que debemos estar en el lugar más seguro. Amo los Emiratos Árabes Unidos. Me encanta estar aquí, me siento tan segura todo el tiempo, y ahora puedo verlo. Por favor, parad.»

Starkey fue ampliamente criticada por su respuesta. «»No puede pasar aquí.” es una de las declaraciones más sensatas que he escuchado», escribió un comentarista en su video.

Otro agregó: «Sus derechos. Si sucede en Gaza, está bien. Pero si le sucede a su estilo de vida de lujo, “No puede pasar aquí.”»

Unidad de mensajes de los EAU

Las autoridades de los Emiratos Árabes Unidos (EAU) advirtieron rápidamente que es ilegal difundir «noticias falsas, rumores o información engañosa» o contenido que «cause pánico o confusión pública», anunciando que la circulación de «información no verificada sobre guerras, seguridad o seguridad nacional» será castigada con una pena de cárcel y/o una fuerte multa.

Según la ley de delitos informáticos del país, las sanciones incluyen penas de prisión de hasta cinco años y multas de hasta 3 millones de AED (más de 700.000 euros). Y también hay amenazas más sutiles: a partir del 1 de febrero de 2026, todos los usuarios y creadores de contenido deben obtener un Permiso obligatorio de Anunciante del Consejo de Medios de los EAU para publicar cualquier contenido promocional, pagado o no, y los permisos pueden revocarse si una persona no cumple con las estrictas regulaciones de los medios.

Muchos de los influencers, una mezcla heterogénea de exconcursantes de Love Island, estrellas del deporte retiradas y sus familias, maquilladores, blogueros y estilistas, ahora publican videos efusivos en las redes sociales sobre lo maravilloso que es el liderazgo de los EAU.

Y la plantilla que muchos de ellos usan comienza: «Vives en Dubai/EAU. ¿No tienes miedo?» Luego corta imágenes de líderes emiratíes con un texto elogiándolos: «No, porque sé quién nos está protegiendo.»

Las publicaciones dicen cosas como: «aquí estamos con el líder más fuerte y mejor del mundo», y expresan «confianza» en las autoridades. Jessie Willis, una influyente irlandesa en Dubai – una de las pocas que reconoció el impacto en los países vecinos, dijo: «Nunca supe que los Emiratos Árabes Unidos tuvieran un sistema de defensa tan fuerte y me siento muy segura de que tienen el control de todo… Orar por aquellos en el Líbano hoy que están siendo atacados y por todos aquellos en países que lidian con esto todos los días sin sistemas de defensa, esto nos ha dado a todos mucha perspectiva. Somos muy afortunados de tener el liderazgo que tenemos en los Emiratos Árabes Unidos.»

¿Un EAU para todos?

Mi perspectiva, como abogada experimentada en derechos humanos, es muy contradictoria. Emiratos Árabes Unidos se promociona a sí mismo como un destino seguro y progresista, pero detrás de la imagen ostentosa y pulida se esconde una realidad sucia, con abusos desenfrenados de los derechos humanos.

Dudo que la mujer de Roscommon (ciudad de Irlanda), Tori Towey, se sintiera «afortunada» de vivir bajo el liderazgo de los EAU. Según los informes, fue víctima de agresión, la trataron como una delincuente, acusada de intento de suicidio y consumo de alcohol. ¿Afortunada?

Contó la forma en cómo la habían llevado a la comisaría de policía, aterrorizada, la noche en que intentó quitarse la vida, e instó a la gente a pensar en las otras mujeres que languidecen en las cárceles de los EAU.

Human Rights Watch y BBC Arabic han documentado cómo cientos de mujeres, algunas de ellas embarazadas o empleadas domésticas víctimas de violación, son encarceladas cada año en los Emiratos Árabes Unidos en virtud de leyes que prohíben las relaciones sexuales consensuadas fuera del matrimonio. ¿Afortunadas?

Y los homosexuales ciertamente no se sienten afortunadas de vivir bajo el liderazgo de los EAU. EAU criminaliza la actividad sexual entre personas del mismo sexo. El artículo 177 del Código Penal de Dubái penaliza la «sodomía» con una pena de hasta diez años de prisión, y según la ley islámica, la actividad sexual entre personas del mismo sexo se castiga con la muerte.

El Human Dignity Trust ha observado evidencia de que la ley se está aplicando en los últimos años y que las personas LGBT están sujetas a discriminación y violencia.

He actuado en nombre de personas procesadas y encarceladas en los Emiratos Árabes Unidos por atreverse a trabajar con organizaciones de derechos humanos o criticar a las autoridades. Expertos de las Naciones Unidas, incluida la Relatora Especial de la ONU sobre Defensores de los Derechos Humanos, la irlandesa Mary Lawlor, han expresado su grave preocupación por el trato a los acusados en un juicio masivo, afirmando, escalofriantemente, que habían sido «sometidos a desaparición forzada, confinamiento solitario e incomunicación, algunos durante más de un año y a menudo en condiciones de detención abusivas.» ¿Afortunado?

Y los abusos contra los derechos humanos de los EAU no se detienen en sus propias fronteras: es un centro de intercambio de información para otros regímenes abusivos. Como he escrito anteriormente, conozco múltiples casos de activistas de derechos humanos y otras personas inocentes secuestradas cuando estaban en tránsito en los aeropuertos de Dubai o Abu Dhabi y trasladadas a prisiones en otros países, como Arabia Saudita, China y Ruanda.

Y tan recientemente como en diciembre de 2025, el Comité para la Protección de los Periodistas (formo parte de su Junta Directiva) destacó el impactante caso del comentarista político Adel al-Nazili, secuestrado de su casa en Yemen por paramilitares de las Fuerzas de Resistencia Nacional respaldados por los Emiratos Árabes Unidos, como castigo por publicaciones en Facebook.

Esta semana, Oriente Medio está en el centro de atención, con cientos de miles de personas en toda la región aterrorizadas y en grave riesgo. Puede ser demasiado esperar que se despierten los influencers residentes en EAU, que durante mucho tiempo han hecho la vista gorda ante las realidades de la región y los abusos contra los derechos humanos que ocurren ante sus narices.

Pero el resto de nosotros debemos hacerlo. ¿Afortunado de tener este liderazgo en los EAU? No. La seguridad de los EAU se mantiene a través de graves abusos contra los derechos humanos, represión y amenazas. Rasca debajo de la superficie de las estúpidas publicaciones en las redes sociales y observa lo que realmente está sucediendo.

Caoilfhionn Gallagher KC es abogada y abogada de derechos humanos. Ha actuado para muchos periodistas, escritores, abogados y activistas encarcelados ilegalmente en todo el mundo, incluidos los Emiratos Árabes Unidos. En 2023 fue galardonada con el Premio al Servicio Distinguido del Presidente de Irlanda para los Irlandeses en el Extranjero por su trabajo, y en 2025 fue nombrada Mujer Internacional del Año de Irish Tatler.

🇦🇷Montoneros y la herencia maldita del peronismo revolucionario

🇨🇺Inflación, apagones y sobrecarga de trabajo: así resisten las mujeres cubanas al bloqueo de Estados Unidos

🕹Los controles de IA🤖llegan a Firefox🦊

tylized Firefox AI controls interface highlighting the option to block AI enhancements with dropdown controls for AI features.

Free L Letter Vector Art - Download 1,544+ L Letter Icons & Graphics ...a IA está cambiando la web y la gente quiere cosas muy diferentes de ella. 👍🏼Hemos escuchado de muchos que no quieren tener nada que ver con la IA👏🏽. También hemos escuchado a otros que quieren herramientas de IA que sean realmente útiles. Escuchar a nuestra comunidad, junto con nuestro compromiso continuo de ofrecer opciones, nos llevó a crear controles de IA.

Comenzando con Firefox 148, que se lanzará en febrero. 24, encontrarás una nueva sección de controles de IA dentro de la configuración del navegador de escritorio. Proporciona un lugar único para bloquear las funciones generativas de IA actuales y futuras en Firefox. También puedes revisar y administrar funciones de IA individuales si decides usarlas. Esto te permite usar Firefox sin IA mientras continuamos creando funciones de IA para aquellos que las desean.

Un lugar para administrar sus preferencias de IA

Firefox ofrece funciones de IA para mejorar la navegación diaria. Estas funciones son opcionales y son fáciles de activar o desactivar.

En el lanzamiento, los controles de IA permiten administrar estas funciones individualmente:

  • Traducciones, que ayudan a navegar por la web en la lengua de confianza.
  • Texto alternativo en archivos PDF, que agrega descripciones de accesibilidad a las imágenes en páginas PDF.
  • Agrupación de pestañas mejorada con IA, que sugiere pestañas relacionadas y nombres de grupos.
  • Vistas previas de enlaces, que muestran los puntos clave antes de abrir un enlace.
  • Chatbot AI en la barra lateral, que le permite usar el chatbot elegido mientras se navega, incluidas opciones como Anthropic Claude, ChatGPT, Microsoft Copilot, Google Gemini y Le Chat Mistral.

Puedes optar por utilizar algunos de estos y no otros. Si no deseas utilizar las funciones de IA de Firefox en absoluto, puedes activar la opción Bloquear mejoras de IA. Cuando esté activado, no verá ventanas emergentes ni recordatorios para usar las funciones de IA existentes o futuras.

Una vez que configures tus preferencias de IA en Firefox, permanecerán vigentes en todas las actualizaciones. También puedes cambiarlos cuando quieras.

 

🤖Inteligencia artificial, sistemas militares y derechos humanos✊🏽

Pere Brunet, Centro Delàs de Estudios para la Paz

Free L Letter Vector Art - Download 1,544+ L Letter Icons & Graphics ...os sistemas de inteligencia artificial (IA en lo que sigue) han experimentado un auge espectacular en los últimos años, con aplicaciones que van desde el diagnóstico precoz en medicina hasta la robótica moderna, pasando por campos tan diversos como el de la traducción automática, los juegos por ordenador o la previsión del impacto del cambio climático. Los vemos también en la mejora automática de las fotos que realizamos en nuestros móviles, en los sistemas publicitarios que nos sugieren otras posibles compras, en los anuncios que nos proponen viajes y hoteles y en sistemas de combate. Pero, aunque cubiertas de un manto de panacea, no son lo que parecen.

La inteligencia artificial: luces y sombras

La hablar de IA nos referimos a aplicaciones informáticas diseñadas con el fin de actuar de manera similar a las personas humanas en ámbitos específicos. Observemos que se trata de actuar, no de pensar o razonar, y de hacerlo en ámbitos muy concretos. Una IA diseñada para mejorar fotos no sirve en traducción, ni viceversa. Es por tanto mucho más limitada que la inteligencia humana, y es dudoso que la “I” sea un término adecuado a lo que nos está llegando.

Tras un auge inicial de los algoritmos de IA basados en conocimiento y reglas, durante las últimas décadas la inteligencia artificial se ha ido materializando básicamente en nuevos sistemas denominados de aprendizaje profundo o IA basada en datos, que son los que trataremos en adelante. En otras palabras, hemos pasado de algoritmos y reglas que alguien programaba y entendía, a sistemas automáticos de IA que se auto configuran en base a un volumen ingente de datos, el llamado “Big Data”. Esta IA basada en datos trabaja en dos fases: la primera de aprendizaje o entrenamiento y la segunda, de uso (en algunos casos, ambas fases interaccionan de manera que los sistemas continúan aprendiendo durante su uso). La primera es altamente costosa y laboriosa y requiere gran potencia de cálculo, mientras que la segunda puede ejecutarse en ordenadores personales o teléfonos móviles y es eficiente y rápida. La fase de aprendizaje es invisible, lenta y desconocida, mientras que la de uso parece casi trivial si olvidamos el volumen de trabajo preparatorio de entrenamiento. Podríamos compararlas al proceso de aprendizaje de los bebés y al momento en que empiezan ya a hablar.

Uno de los desarrollos sorprendentes de la IA basada en datos, que le dieron el empuje definitivo, nos llegó de la mano de los traductores automáticos. El investigador Franz Josef Och fue pionero en diseñar los primeros algoritmos en 2003, y luego Google los incorporó entre los años 2005 y 2007. Estos nuevos traductores funcionan tras aprender de ingentes cantidades de datos y funcionan razonablemente bien.

En este momento vemos una fuerte ola de entusiasmo con la IA en muchas áreas de la actividad humana. Pero estos sistemas carecen de conocimientos de sentido común y los sensores que puedan tener ni «perciben» la realidad ni pueden interactuar con ella. No pueden gestionar situaciones imprevistas ni aprender a partir de la experiencia. Durante los primeros años de vida, el cerebro de los niños va madurando en base a la interacción constante con el entorno y las personas. Los sistemas de IA, en cambio, se nutren de información congelada en el tiempo, fría y descontextualizada. Los niños observan por ejemplo que los pájaros cantan a la salida del sol. Un sistema de IA puede perfectamente «deducir», en cambio, que el canto de los pájaros es el que desencadena la salida del sol.

Por otra parte,

  • El aprendizaje en los sistemas de IA es imperfecto y sesgado, ya que es imposible disponer de conjuntos de datos totalmente imparciales.
  • Los sistemas de IA se equivocan. El porcentaje de error depende del tipo de problema, de la calidad de los datos de aprendizaje, de la estructura de la red neuronal y de la calidad del proceso de entrenamiento, pero nunca es nulo.
  • Los resultados de la IA no son explicables, ni por parte de los expertos. Al no serlo, la rendición de cuentas se hace casi imposible.
  • El entrenamiento de los sistemas de IA es muy costoso en términos ecológicos y de energía, como veremos.

Encontramos IA en los sistemas generativos que crean texto e imagen, en el diagnóstico médico, en informaciones falsas que nos llegan, en mensajes electorales hechos a medida, en sistemas de control social, en sistemas de armamento e incluso en armas autónomas que pueden matar sin intervención humana. En algunos de estos casos, sus posibles errores son poco preocupantes y fáciles de corregir. En otros pueden afectar a personas concretas en situaciones críticas con efectos graves o letales y sin rendición alguna de cuentas.

¿Derechos humanos o negocio?

Como hemos visto, los sistemas de IA actuales no son realmente inteligentes, sino que simplemente nos pueden ayudar en la realización de tareas muy concretas. Por otra parte, sus errores son inevitables: son sistemas que se equivocan y que por tanto requieren que comprobemos y supervisemos sus resultados. Sus fallos (también llamados alucinaciones) pueden ser disparatados y en todo caso imposibles de explicar incluso por parte de los expertos. Y, finalmente, su entrenamiento requiere cantidades ingentes de datos y de energía.

En este contexto, ¿tiene sentido usar aplicaciones basadas en IA? ¿en qué casos deberíamos denunciarlas? ¿son compatibles la IA y los derechos humanos? ¿la IA nos va a controlar?

No debemos olvidar que los sistemas de IA son herramientas, que deberíamos poder decidir si usamos o no y en qué casos las utilizamos. De la misma manera que no vamos por la calle con las tijeras de la cocina colgadas del cuello, debemos defender nuestro derecho a utilizar únicamente la IA cuándo queramos y la consideremos necesaria. Deberíamos usar internet, los móviles y la IA de la misma manera que utilizamos el abrelatas o el peine.

En algunos casos, como el de la traducción automática o el de la mejora de fotos, la IA puede sernos ciertamente útil. Pero tenemos derecho a ser informados de que estamos usando una aplicación basada en IA (así lo indica por ejemplo la ley europea de regulación de la inteligencia artificial) y nunca debemos pasar por alto la supervisión de sus resultados. El hábito de revisar los resultados de las traducciones deberíamos extenderlo a todos los ámbitos que incorporan sistemas de aprendizaje máquina.

Y el uso cotidiano de la IA, cada vez más inevitable, no debe detener la denuncia. Porque la IA es un gran negocio, basado en el uso ilícito de cantidades ingentes de datos de la nube y redes sociales, que ignora los derechos de privacidad de las personas utilizando su información sin darles ni tan solo una modesta compensación económica. Porque los sistemas de aprendizaje y los centros de datos suponen un dispendio enorme de energía y agua, en una espiral que requeriría una reflexión urgente a nivel global para ver cómo pasamos de la actual IA ecocida a nuevos esquemas más humanos y ecológicos. ¿Tiene algún sentido mantener el crecimiento imparable de la IA actual, cuando vemos su escandalosa ineficiencia? ¿Sería posible diseñar otra IA, más eficiente, respetuosa y humana? ¿Cómo es que los servicios de las aplicaciones basadas en esta IA ecocida son gratuitos? ¿No será que nos están comprando a nosotros?

Los expertos en IA reconocen y estudian sus logros, pero también advierten de sus limitaciones (sesgos, errores, falta de explicabilidad) y entienden que estamos en una fase histórica inicial que será superada con la llegada de nuevos paradigmas que la hagan más “I” y menos “A”. Con nuevos sistemas que dejen atrás los actuales métodos de fuerza bruta, acercándose más a nuestra estructura cerebral. Porque nuestro cerebro es eficiente energética y ecológicamente, aprende con un monto mucho más reducido de datos y va moldeándose plásticamente en base a la información de los sentidos y a nuestra interacción con el entorno. Y es que, a pesar de lo que nos dicen y de la fascinación social, la IA se encuentra en la edad de piedra.

El problema, en todo caso, es que estas opiniones matizadas de los expertos no llegan a la sociedad. Y es que no interesan. La IA actual no incluye los derechos humanos como objetivo porque se basa en el negocio y no en las personas. Las empresas dominan y los gobiernos se doblegan a los intereses del mercado. La regulación europea de la IA que aprobó el Parlamento Europeo, fue recortada convenientemente por la influencia de los lobbies empresariales hasta llegar a la versión final que aprobó el Consejo. Y las voces que nos llegan son las de los tecnotraficantes, que, desconocedores tanto de la tecnología como de las limitaciones tecnológicas de la IA, nos venden cuentos de hadas sobre sus virtudes. La regulación y los derechos humanos no interesan porque limitarían el negocio.

La inteligencia artificial en sistemas militares y de combate

Hasta ahora, en los conflictos bélicos, se suponía que existía una deliberación en relación a los objetivos, por parte de personas responsables, antes de iniciar cualquier ataque. Pero con la entrada de los sistemas de IA, aparecen dos nuevos escenarios. O bien vemos sistemas automáticos que escogen los objetivo a atacar, objetivos que determinadas personas deberán aprobar antes de que se proceda al ataque, o bien nos encontramos con sistemas autónomos de combate que escogen objetivos a atacar y proceden a atacarlos sin intervención humana alguna. Los dos casos son objetables, aunque en distinto grado. En el primer caso debido al sesgo de automatización, que es la tendencia humana a dar por bueno aquello que nos proponen las máquinas. En el segundo, porque implica que las decisiones letales las toman entes no humanos, en este caso basados en IA.

Los sistemas de IA aprenden, captan y actúan. Pero pueden ser imprevisibles y no siempre lo hacen de la manera esperada. En este sentido, la escalada hacia los sistemas armados autónomos con IA es ética y jurídicamente inaceptable, porque delegar en una máquina las decisiones de matar va en contra de la dignidad humana y de los derechos de las personas. Se pretende argumentar diciendo que estos sistemas tienen la capacidad de reducir el número de tropas combatientes, que reducen las bajas propias, que permiten hacer guerras de bajo coste. Pero todo ello nos lleva a cuestionar si evitar el riesgo para la vida de los combatientes está por encima de la vida de las victimas civiles. En definitiva, si hay vidas que tienen más valor que otras.

Los sistemas de combate basados en IA desconocen emociones tan singulares como la empatía, la piedad o la culpa. Lo mismo podemos decir sobre la capacidad para distinguir y evaluar entre ordenes lícitas o ilícitas o la capacidad para interpretar un contexto y evaluarlo en cálculos basados en valores. Sus errores, inevitables, son vidas humanas. La supervisión humana es baja o inexistente, y tanto su operación como los daños generados quedan bajo secreto militar. No existe explicación posible de los desastres que producen sus errores, y la rendición de cuentas es inexistente.

Por todo ello, tanto la campaña Stop Killer Robots como el mismo Secretario General de Naciones Unidas defienden que atentan contra la dignidad de las personas y que deben ser prohibidos por la legislación internacional.

De la dominación a la vida

La futura IA no será como los primitivos sistemas actuales, pero siempre será diferente de la humana. Porque el desarrollo mental humano se nutre de las interacciones con el entorno. Una corporeidad perceptiva y motora y una intencionalidad que no existe en las inteligencias artificiales no corpóreas.

El gran debate pendiente en el campo de la IA incluye la huella ecológica, sus objetivos concretos y todos los aspectos éticos asociados. ¿Seremos capaces, desde la ciudadanía, de exigir una nueva IA ética que deje atrás la dominación y el control, que surja de las necesidades y derechos concretos de las personas y que a la vez sea ecológicamente respetuosa? ¿Llegaremos a hablar de una IA feminista, postcapitalista y ecologista?

Debemos tener en cuenta que quien nos puede dominar son personas, no máquinas. Y que el futuro requiere grandes dosis de regulación global, ética, educación y conciencia crítica.

Bibliografía

  • Pere Brunet, Tica Font y Joaquín Rodríguez (2021), “Robots Asesinos: 18 preguntas y respuestas”, Centro Delàs de Estudios para la Paz:
  • Ramón López de Mántaras y Pere Brunet (2024), “Qué es la inteligencia artificial”, Revista Papeles, núm. 164 (págs. 1-9).
  • Pere Brunet (2024), “Regulación de la inteligencia artificial” Revista Papeles, núm. 164 (págs. 45-54):

Este artículo se publicó en Libre Pensamiento nº 118. Verano 2024.

✊🏽Por la defensa del Escudo Social Básico🛡

🇨🇱Gabriela Mistral y Sandino📚

🤖Inseguridad artificial: cómo las herramientas de IA comprometen la confidencialidad👁

Green background with bitmap elements depicting artificial intelligence icons and words.

En la primera de nuestra serie de blogs de tres partes sobre las dudosas prácticas de seguridad digital que subyacen a las herramientas avanzadas de inteligencia artificial (IA), analizamos cómo los modelos de lenguaje extenso (LLM) pueden poner en peligro la confidencialidad de los datos de las personas.

Graphic Design I Paper & Party Supplies etna.com.pendependientemente de lo que se piense sobre las promesas o los peligros de la IA, cada vez es más difícil ignorar que estas herramientas están plagadas de evidentes vulnerabilidades de seguridad. Desde exponer los datos de los usuarios hasta facilitar ataques informáticos, desde socavar la integridad de la información hasta crear vulnerabilidades en la cadena de suministro, las herramientas de IA están respaldadas y socavadas por prácticas de seguridad poco fiables. Como vamos a explorar en esta serie, esto tiene graves consecuencias para la confidencialidad de nuestros datos, para la integridad de la información, y para el acceso y la disponibilidad de los sistemas, todos los problemas que los derechos humanos, el respeto de enfoque puede ayudar a resolver.

¿Por qué necesitamos hablar de IA y seguridad digital?

Es importante tener en cuenta que en estos días cuando hablamos de ‘IA avanzada’ herramientas tales como los chatbots, la imagen de los generadores, y ‘AI agentes,’ lo que estamos hablando en realidad son de sistemas construidos en Modelo extenso de lenguaje (LLMs). Los LLM son un tipo de modelo de aprendizaje automático entrenado en enormes cantidades de datos, incluidos texto, imágenes y video, que pueden generar contenido en respuesta a solicitudes y realizar tareas complejas con diversos grados de confiabilidad.

Para analizar los riesgos de seguridad específicos asociados con los LLM, es útil utilizar la tríada confidencialidad-integridad-disponibilidad (CIA) , un modelo ampliamente utilizado que guía la forma en que las organizaciones manejan la seguridad de los datos. Cuando se aplica a los LLM, este marco nos ayuda a comprender sus riesgos para la seguridad, además de mostrar por qué las salvaguardas de los derechos humanos son esenciales para mitigar esos riesgos. Por ejemplo, como veremos a continuación, la tríada de la CIA es una forma de comprender cómo las LLM pueden poner en peligro la seguridad individual de las personas y sus derechos digitales, porque ¿qué sucede con la confidencialidad de los datos que ingresa en un chatbot cuando hay una violación de datos? Pero también nos permite examinar cómo los LLM ponen en peligro la seguridad digital de manera más amplia y sistémica; como discutiremos en las partes dos y tres de esta serie, esto incluye comprometer la integridad de la información a través de la «pérdida de inteligencia artificial» o concentrar el poder del mercado de tal manera que se socave la disponibilidad de dichos sistemas.

¿Cómo puede comprometer la IA la confidencialidad?

Según el Instituto Nacional de Estándares y Tecnología de EE. UU. (NIST), confidencialidad significa «[p]reservar restricciones autorizadas sobre el acceso y la divulgación de la información, incluidos los medios para proteger la privacidad personal y la información patentada.» En otras palabras, ninguna persona no autorizada debería poder acceder a tu información. Esto es especialmente importante dado que las personas están utilizando herramientas basadas en LLM para todo, desde terapia y asesoramiento médico hasta acompañamiento, mientras que las empresas, los gobiernos y las organizaciones sin fines de lucro están integrando estas herramientas en flujos de trabajo que tratan con datos confidenciales.

Las fallas de seguridad que afectan a las herramientas basadas en LLM suelen ser bastante básicas. Por ejemplo, aunque compañías encallecidas como Microsoft y Google ofrecen autenticación multifactor( MFA), muchas aplicaciones populares de IA tienen una protección de cuenta nativa limitada, lo que significa que las cuentas las pueden secuestrar fácilmente los atacantes. Las violaciones de datos, ya sean accidentales o intencionadas, también suceden con regularidad. En enero de 2025, Wiz Research descubrió una base de datos de acceso público perteneciente a la empresa china DeepSeek, que contenía el historial de chat de personas, claves secretas, detalles del backend y otra información altamente confidencial. Y hace apenas tres meses, un atacante utilizó un proveedor de análisis externo para piratear OpenAI, filtrando información privada que incluía nombres, direcciones de correo electrónico, datos de ubicación, sistema operativo e información del navegador.

Incluso las herramientas que prometen aumentar la seguridad pueden, de hecho, socavarla. Investigadores de seguridad de Koi descubrieron recientemente cómo una serie de Urban Cyber Security Inc. Las extensiones del navegador de la red privada virtual (VPN), muchas de las cuales prometían «protección de IA» para datos confidenciales, en realidad estaban recopilando datos sobre todas las solicitudes ingresadas en LLM, las respuestas recibidas y las marcas de tiempo, metadatos e información sobre las herramientas de IA utilizadas por ocho millones de personas. Según Koi, Urban Cyber Security Inc. luego estaba compartiendo esta información con corredores de datos.

¿Cuáles son los riesgos de privacidad más amplios asociados con la IA?

El New York Times actualmente está demandando a Open AI por infracción de derechos de autor, alegando que las personas están usando ChatGPT para eludir su muro de pago en línea. Para probar esto, el medio de comunicación quiere acceso a más de 20 millones de conversaciones privadas de ChatGPT. Cualesquiera que sean los méritos del caso, otorgar acceso a estas conversaciones sería una gran violación de la privacidad; sin embargo, ni siquiera es un caso aislado, ya que las solicitudes de que los registros de chat de IA estén disponibles en los procedimientos legales son cada vez más frecuentes.

Uno de los principales factores de riesgo aquí es que el cifrado de extremo a extremo (E2EE) no es una característica estándar, ni siquiera necesariamente disponible, para chatbots como ChatGPT o Gemini, lo que significa que los historiales de chat de las personas enfrentan exposición. La E2EE es fundamental para proteger los derechos humanos, incluida la privacidad. Además del problema de que las plataformas de chatbot no cifran los historiales de chat, los «agentes» o asistentes de IA basados en LLM, a nivel del sistema operativo o de la aplicación, están socavando la promesa de seguridad de E2EE.

En abril de 2024, Meta lanzó su chatbot de IA, Meta AI, para WhatsApp, que usa E2EE, y no hay opción para eliminarlo. Esto significa que, a solicitud de otro usuario y sin su consentimiento, Meta AI puede acceder y resumir los mensajes entre usted y ese usuario, y los resúmenes pasan a través de los servidores de Meta. Como explica la Fundación de la Frontera Electrónica (Electronic Frontier Foundation), cuando la persona con la que está chateando le hace una pregunta a Meta AI, «esa parte de la conversación, que ambos pueden ver, no está encriptada de extremo a extremo y se puede utilizar para el entrenamiento de IA.» Este es un gran paso en la dirección equivocada. Si bien siempre ha existido un ligero riesgo para que su correspondencia de WhatsApp permanezca privada (por ejemplo, la persona con la que está chateando podría hacer una captura de pantalla o copiar el contenido cifrado, o denunciar sus mensajes a WhatsApp por supuestas violaciones de las pautas), Meta AI elimina la expectativa de privacidad por defecto.

WhatsApp afirma que, si no deseas que Meta AI resuma tus conversaciones compartidas, todo lo que hay que hacer es activar la función avanzada de privacidad de chat. Pero trasladar la responsabilidad a las personas no está muy bien, especialmente porque esta función debe activarse de forma manual e individual por chat; no hay una forma fácil y sencilla de aplicarla automáticamente en todas las conversaciones. Integrar Meta AI de forma predeterminada, diluyendo las promesas de privacidad y seguridad de WhatApp en el proceso, es parte de una tendencia más amplia de que las herramientas basadas en LLM sean obligatorias para las personas con o sin su consentimiento.

¿Cuáles son los peligros de los agentes (dobles) de la IA?

Junto con la integración de las nuevas funciones de IA en las aplicaciones existentes, el software de ‘IA agentica’ que funciona a nivel de sistema operativo también está creando nuevos riesgos. Los entusiastas de la IA elogian la integración de LLM en todas las facetas de nuestras vidas, defendiendo la adopción generalizada de agentes de IA capaces de ejecutar comandos en nuestro nombre, ya sea reservando vuelos, enviando mensajes a posibles parejas románticas o jugando en el mercado de valores.

Esto es lo que Meredith Whittaker, presidenta de Signal Foundation, llama el «problema del permiso de root», por el cual otorgar a los agentes de IA acceso total a nuestros sistemas y datos, incluidos los «recuerdos» de nuestras interacciones, abre una gran cantidad de oportunidades de ataque e incluso puede socavar las plataformas E2EE. Simon Willison ha enmarcado este problema como una trifecta letal en la que los agentes de IA tienen acceso a datos privados, obtienen exposición a contenido que no es de confianza y pueden comunicarse externamente para transmitir sus datos. Por ejemplo, los agentes de IA son susceptibles a ataques de inyección inmediata, en los que los atacantes engañan al agente de IA para que haga algo que no pretendías que se hiciera, como exponer los detalles de tu tarjeta de crédito. Estos riesgos se están desarrollando actualmente en tiempo real gracias a OpenClaw, un software asistente de IA de código abierto y autohospedado que, según resultó, permitió a miles de personas configurar agentes de IA con configuraciones de seguridad abismales.

¿Qué soluciones de seguridad se han sugerido?

Hasta la fecha, las medidas de seguridad implementadas para las herramientas basadas en LLM no han seguido el ritmo de los crecientes riesgos. En su respuesta a la solicitud de historiales de chat del The New York Times, Open AI indicó que está trabajando en «cifrado del lado del cliente para sus mensajes con ChatGPT»—, pero incluso aquí la compañía insinúa implementar «sistemas totalmente automatizados para detectar problemas de seguridad en nuestros productos», lo que suena muy parecido al escaneo del lado del cliente (CSS). CSS, que implica escanear el contenido en el dispositivo de un individuo en busca de algún tipo de material objetable, antes de enviarlo a través de una plataforma de mensajería cifrada, es una propuesta de perder-perder que socava el cifrado, aumenta el riesgo de ataque y abre la puerta a la fluencia de la misión.

Por el contrario, la comunidad de código abierto ha logrado avances positivos al priorizar la confidencialidad. MapleAI de OpenSecret admite un chatbot de IA cifrado de extremo a extremo y multidispositivo, mientras que Moxie Marlinspike, coautor del protocolo E2EE de Signal, ha lanzado ‘Confer’, un asistente de IA de código abierto que protege todas las solicitudes, respuestas y datos relacionados de los usuarios. Pero al menos por ahora, tales soluciones respetuosas de los derechos siguen siendo la excepción y no la norma.

La adopción desenfrenada de la IA combinada con las deprimentes prácticas de seguridad requiere una acción urgente. Los problemas de seguridad asociados con las  avanzadas herramientas de IA son las consecuencias de que deliberadamente priorizen el lucro y la competitividad sobre la seguridad y la protección de comunidades en riesgo, y ellos no los van a resolver. Si bien nos encantaría ver a las empresas corregirse a sí mismas, los gobiernos no deberían rehuir exigir que estas empresas prioricen la seguridad y los derechos humanos, especialmente cuando se gasta dinero público para adquirir y construir herramientas de IA de «interés público». Mientras tanto, todos podemos optar por apoyar alternativas abiertas y responsables que respeten los derechos a los modelos y herramientas de renombre siempre que sea posible. (🤔o no usarlas💡).

🖌El pensamiento ético y político de Kropotkin🏴

💩¿Por qué #UGT es el peor sindicato y el más amarillo de España?🤢

🕸Google asesina el internet libre II💩

Google is killing the open web

En el capítulo anterior narramos🖌

Por qué es importante

C letter logo, png | PNGWinguando se lanzó la especificación XML en 1998, ganó fuerza muy rápidamente, a pesar de su mayor verbosidad, porque al perder parte de la flexibilidad de SGML (la especificación excesiva de la cual HTML era la encarnación más famosa:

«Hay quien dice que HTML no es realmente una aplicación de SGML; esto es discutible: TBL pretendía que fuera uno, e incluso si hubo algunas divergencias significativas en las primeras iteraciones, la especificación HTML 4, que era la definición estándar de HTML en el momento al que me refiero, en realidad lo definió como un lenguaje SGML compatible, incluso si los navegadores nunca lo adoptaron como tal».

favoreció la desambiguación y simplificó el análisis sintáctico de documentos de tipo arbitrario. Combinado con XSLT, permitió que documentos de cualquier tipo estuvieran «listos para Internet» y, lo que es más importante, listos para la World Wide Web, ayudando a impulsar la WWW hacia su objetivo diseñado de un «sistema universal de información vinculada».

Aunque los beneficios de XML y el poder transformador de XSLT llamaron principalmente la atención de profesionales en una gran variedad de campos, a principios de siglo su flexibilidad se extendió también a la más generalizada población de usuarios de la Web a través de la encarnación específica de los RSS y los canal web Atom, que permitían a los usuarios mantenerse informados sobre las noticias y actualizaciones en sus sitios web favoritos sin estar constantemente «entrando y saliendo».

RSS y otras tecnologías basadas en XML como los Pingbacks fueron la columna vertebral de los blogs, la red social distribuida que caracteriza la primera década del siglo XXI.

Con los blogs comunes y distribuidos en múltiples plataformas, la posibilidad de agregar información de fuentes dispares y aún verla presentada como una página web normal, en todos los navegadores, sin necesidad de secuencias de comandos, en una época en la que las implementaciones eran lentas y (gracias a Microsoft, intencionalmente) incompatibles entre sí, se consideró una clara victoria.

A pesar de los esfuerzos de Google para eliminarlo desde 2013, el formato RSS sigue siendo un componente esencial de una web abierta e independiente, todavía en uso generalizado tanto en el lado del servidor como del cliente: se estima que hay más de 500 millones de sitios web que usan WordPress, y todos cuentan con fuentes RSS, incluso cuando no se anuncian adecuadamente; la mayoría, si no todas, las plataformas fediversas también ofrecen fuentes RSS, y algunas (por ejemplo, Friendica) también pueden importarlas y, por lo tanto, funcionar como agregadores; y posiblemente lo más importante, los RSS son el componente fundamental de los podcastsno es un podcast si no es RSS»), un formato de distribución multimedia con cientos de millones, si no miles de millones, de usuarios en todo el mundo.

Como ya se ha dicho, se está experimentando un resurgimiento a medida que la gente comienza a darse cuenta de lo catastrófica que fue, es, ha sido y será para la web la centralización impulsada por los GAFAM durante la segunda década del siglo XXI (aunque demasiados aún no han aprendido la lección correcta, y simplemente han saltado de un chiringuito nazi al siguiente, o han caído en el disfraz de federación porque es más brillante que la federación real).

XSLT es un complemento esencial de RSS, ya que permite leer detenidamente el feed en el navegador (a menos, por supuesto, que el navegador haga un esfuerzo adicional para evitar que lo visualice, como lo hace Firefox). Esto permite que los sitios con cientos de feeds utilicen el feed en sí (diseñado con XSLT) como página de índice (ejemplo), lo que reduce los costos de alojamiento y ancho de banda. Y, por supuesto, también se puede utilizar para dar estilo a cualquier otro documento XML «estándar» que se pueda encontrar en un sitio: por ejemplo, lo he descubierto recientemente gracias a @[email protected], que WordPress proporciona una hoja de estilo XSLT predeterminada para sus mapas de sitio (aunque curiosamente, ¿parece que no para sus feeds web? Por supuesto, aún puedes enrollar el tuyo y conectarlo en el lugar correcto.)

Como señala @[email protected], XML se usa ampliamente en humanidades digitales (y muchos otros campos), y TEI ofrece un amplio conjunto de hojas de estilo XSLT para transformar marcas comunes de TEI en una variedad de formatos, entre los que se encuentra XHTML, lo que permitiría la visualización directa de los documentos XML.

Y esto es solo el comienzo: como he mostrado en este mismo sitio, es posible usar XSLT para trazar datos XML y, en general, para producir documentos ricos y complejos sin JavaScript, y nuevamente con reducciones potencialmente significativas en los costos de alojamiento y ancho de banda.

Puntos extra: parece que la horda de raspadores LLM que están causando problemas por todas partes tienen algunas dificultades con XML general, por lo que cambiar a XML + XSLT podría funcionar realmente para la autoprotección.

¿Recuerdas AMP? Si realmente quisieras seguir enviando las toneladas habituales de basura inútil al escritorio, pero no al móvil, podrías poner el contenido real en un archivo XML y luego proporcionar dos hojas de estilo XSLT triviales separadas, una para transformarla en la página de escritorio hinchada habitual y otra para transformarla en la abominación simplificada (y menos hinchada) que es AMP HTML, lo que habría sido útil cuando Google introdujo el requisito de que AMP y la página estándar tuvieran que presentar el mismo contenido. Pero, de nuevo, ¿por qué enviar esas toneladas de basura inútil en el escritorio en primer lugar?

Y para ser honesto, las plantillas HTML se ven muy poco impresionantes en comparación con XSLT. Peor aún, ¿por qué la gente reinventa las plantillas sin tan siquiera mencionar XSLT? Cualquier cosa que discuta la creación de plantillas para HTML sin una comparación directa y concreta con XSLT debería descalificarse automáticamente por no estar bien investigada.

Pero lo más importante, incluso si personalmente no te gustan XML y/o XSLT, ¿por qué dejamos que Google decida lo qué es aceptable y lo qué no (y lo más importante, nunca más) en la World Wide Web?

Seguiremos…

💩La fábrica del miedo usa a la infancia como moneda política en Cartes

🎓Revocan la prescripción del caso por las amenazas del policía infiltrado a un militante

HISTORIA SOCIAL DEL JAZZ PRIMITIVO. Capítulo 10

«Renacimiento Negro, Harlemania y Jungle Jazz»

 

🐃“Los hackers originales fueron los primeros en ver la belleza en la tecnología”🤔

WIRED

Steven Levy sobre los «héroes» de la revolución informática

Steven Levy, editor at large de WIRED y autor de Hackers, analiza las similitudes y diferencias entre los primeros hackers de los sesenta y los de 2025. ¿Sigue reflejada la «ética hacker» en las decisiones de los actuales líderes del sector tecnológico?

Download E, Letter, Font. Royalty-Free Stock Illustration Image - Pixabayn 1981, Steven Levy tenía 30 años de edad cuando recibió el encargo de la revista Rolling Stone de escribir un artículo sobre hackers. Hasta entonces, el joven periodista nunca había tocado un ordenador. Como muchos de su generación, desconfiaba de la tecnología, asociándola a la deshumanización y al control social en tiempos de la guerra de Vietnam. Sin embargo, su investigación lo llevó a Stanford (en California) y a la naciente contracultura del ordenador personal. Allí descubrió un movimiento que mezclaba creatividad y rebeldía, sazonado con un toque de anarquismo. La impresión fue tal que Levy escribió el libro que marcaría el inicio de su carrera como una de las voces más influyentes del periodismo tecnológico, Hackers: héroes de la revolución informática (O’Reilly, 1984).

Hackers: Heroes of the Computer Revolution - 25th Anniversary EditionDurante aquella investigación, remitían a Levy una y otra vez al Instituto Tecnológico de Massachusetts (MIT), donde a finales de los años cincuenta había nacido lo que él llamaría «la ética hacker»: una forma de pensar y crear que veía en el ordenador un instrumento de libertad, colaboración y conocimiento compartido. Aquellos pioneros trabajaban en comunidad, escribían código sin firmar sus programas, ni siquiera usaban contraseñas, convencidos de que «la información debe fluir libremente». Esta ética, sin embargo, no se mantuvo intacta con el paso de las décadas. La irrupción del negocio tecnológico, el ánimo de lucro y las patentes introdujeron tensiones que perduran hasta hoy.

No fue sencillo para Levy entrar en contacto con esos pioneros. Figuras como Bill Gosper o Richard Greenblatt nunca habían conversado en términos reflexivos con un periodista. El laboratorio de inteligencia artificial del MIT era un universo hermético, casi sagrado. «Yo simplemente no podía creer mi suerte como periodista», recuerda Levy. «Me topé con algo que no era solo interesante, sino también muy importante, sobre lo que nadie había escrito antes, y tuve la oportunidad de hablar extensamente con las personas involucradas y documentarlo».

El término «hacker» se transformó con los años. En los ochenta comenzó a asociarse con los delitos informáticos y el espionaje cibernético, una percepción que poco tenía que ver con los programadores y emprendedores que Levy retrató en su libro, como Lee Felsenstein, Steve Wozniak o Richard Stallman. «Un hacker era, simplemente, alguien obsesionado con dominar la máquina y mejorarla», resume. La percepción negativa no logró borrar del todo la otra cara: la de los innovadores que fundaron empresas como Apple o Microsoft. Sobra explicar la influencia global que alcanzaron.

Hoy, la tensión entre el espíritu hacker y el ánimo de lucro se refleja en luchas que van de Napster a WikiLeaks. El triunfo del código abierto, señala Levy, es quizá el legado más tangible de aquel ethos: gran parte de internet se sostiene sobre proyectos colaborativos (libres o abiertos) que remontan sus raíces al MIT de Greenblatt y Gosper. Incluso gigantes como IBM, que durante años combatieron la idea, terminaron por adoptarla (hasta cierto grado).

🗄Anna’s Archive: metabuscador gratuitoa través de Tor

🇲🇽Resistencia Digital

✊🏼Recuperemos Internet⛵️

📖«Asalto a las plataformas» es el libro de Kenobit, lanzado hace dos semanas para Agenzia X 📚
Alphabet Letter E Crafts positivo encontrarse con experimentos como estos y resulta agradable leer el testimonio directo de un artista que ha crecido en las redes sociales y hoy comparte una visión mundial de una «salida».
O como dice en su newsleteer:
Habla de la relación tóxica que tenemos con las plataformas comerciales, analiza los mecanismos que nos roban el tiempo, cuenta el gran engaño de la creación de contenidos y propone un camino concreto para dejar de apoyar el capitalismo digital y reivindicar una dimensión online que no contamine el mundo y nuestras vidas. Es el resultado de dos años de experimentación (que comenzó aquí mismo, en la Semana Subversiva), tecnológica y humana, y explica de la manera más sencilla posible las alternativas y prácticas que pueden liberarnos.
Si quieres, el libro también se puede «escuchar» por capítulos por el propio Castópodo de Kenobit.

💵💷Inversiones en centros de datos:

💴 malos negocios 💩💶

KUALA LUMPUR – La oposición a los centros de datos (CD) se ha extendido rápidamente a nivel mundial debido a su creciente demanda de recursos. Los CD han proliferado rápidamente, impulsados por la popularidad de la inteligencia artificial (IA).

¿Para quién son los centros de datos?

El auge de la IA ya ha superado a otros usos de la «nube» e impulsa el rápido crecimiento de los CD, lo que impone una demanda de recursos en rápida expansión. Esto ha provocado una reacción pública bipartidista en Estados Unidos debido al mayor consumo de energía, agua y uso de la tierra, así como al aumento de los precios.

En octubre de 2024, McKinsey, una consultora internacional de estrategia global, proyectó que la demanda energética mundial de los centros de datos aumentaría entre 19 % y 22 % anual hasta 2030, alcanzando una demanda anual de entre 171 y 219 gigavatios (GW).

Jomo Kwame Sundaram
Jomo Kwame Sundaram

Esto supera con creces la demanda actual de 60 GW. «Para evitar un déficit [de suministro], habría que construir al menos el doble de la capacidad (de centros de datos) construida desde 2000 en menos de una cuarta parte del tiempo», planteó la consultora.

Dado que las empresas tecnológicas no pagan por la capacidad adicional de generación de energía, son los consumidores y los gobiernos anfitriones quienes lo hacen, independientemente de si se benefician de la IA o no.

A medida que los centros de datos se enfrentaban a una creciente oposición en el norte, los promotores se han volcado en los países en desarrollo, externalizando los problemas a naciones más pobres con recursos limitados.

Es necesario comprender estas instalaciones que consumen mucha energía y agua para proteger mejor las economías, las sociedades, las comunidades y sus entornos.

Necesidades energéticas

Con la creciente demanda de IA por parte de las empresas y los consumidores, el crecimiento de los centros de datos continuará e incluso se acelerará en ocasiones.

El aumento del uso de la IA incrementará significativamente el consumo de energía y agua, acelerando el calentamiento del planeta tanto directa como indirectamente.

A medida que aumenta la demanda de IA y centros de datos, los ordenadores que los soportan necesitarán mucha más electricidad.

Esto generará calor, lo que requerirá el uso de agua y energía para la refrigeración. Gran parte de la energía que consumen los centros de datos, entre 38 % y 50 %, se destina a la refrigeración.

La generación de electricidad, ya sea a partir de combustibles fósiles o de fisión nuclear, requiere más refrigeración que las fuentes de energía renovables, como los paneles solares fotovoltaicos o las turbinas eólicas.

Un centro de datos a pequeña escala con entre 500 y 2000 servidores consume entre uno y cinco megavatios (MW). En el caso de los gigantes tecnológicos, un centro de datos «hiperescalable», que aloja decenas de miles de servidores, consume entre 20 y más de 100 MW, ¡como una pequeña ciudad!

Los centros de datos no son fríos

Dado que la atención popular se centra en las enormes necesidades energéticas de los centros de datos, sus enormes necesidades de agua para refrigerar los equipos tienden a ser ignoradas, subestimadas y pasadas por alto.

La ubicación de nuevos centros de datos en países en desarrollo calentará aún más los microclimas locales y la atmósfera planetaria. Peor aún, el calor es más amenazante para el medio ambiente en los trópicos, donde las temperaturas ambientales son más altas.

K Kuhaneetha Bai

El establecimiento de más centros de datos inevitablemente desplazará los usos existentes y otros posibles usos de los suministros de agua dulce, además de reducir los acuíferos subterráneos locales.

Como era de esperar, los inversores en centros de datos rara vez advierten a los gobiernos anfitriones sobre la cantidad de energía y agua que se necesita suministrar a nivel local.

Los centros de datos requieren mucha agua dulce para refrigerar los servidores y los routers. En 2023, solo Google utilizó casi 23 000 millones de litros para refrigerar sus centros de datos. En los sistemas de refrigeración que utilizan la evaporación, se utiliza agua fría para absorber el calor intenso, liberando vapor a la atmósfera.

Los sistemas de refrigeración de circuito cerrado absorben el calor utilizando agua canalizada, mientras que los enfriadores refrigerados por aire enfrían el agua caliente. El agua enfriada que se recircula para la refrigeración requiere menos agua, pero más energía para enfriar el agua caliente.

Los inversores esperan subvenciones

Al igual que otros posibles inversores, los centros de datos se han trasladado a zonas donde los gobiernos anfitriones han sido más generosos y menos exigentes.

Liderados por los poderosos «hermanos tecnológicos» del presidente estadounidense Donald Trump, muchos inversores extranjeros se han beneficiado de la energía subvencionada, la tierra y el agua baratas y otros incentivos especiales.

Los posibles gobiernos anfitriones compiten por ofrecer incentivos fiscales y de otro tipo, como energía y agua subvencionadas, para atraer la inversión extranjera directa en los centros de datos.

Estados Unidos presionó a Malasia y Tailandia para que impidieran a las empresas chinas utilizarlos como «puerta trasera de control de las exportaciones» para sus chips de IA. Washington alega que los centros de datos fuera de China compran chips para entrenar su IA con fines militares. Hasta ahora, solo Malasia ha cumplido.

Esto limita el acceso de las empresas chinas a dichos chips. Washington afirma que los sustitutos chinos de los chips fabricados en Estados Unidos son inferiores y busca proteger la tecnología estadounidense de China.

¿Empleos de alta tecnología en los centros de datos?

Los centros de datos están surgiendo en todas partes, pero no se crearán muchos puestos de trabajo. Sus defensores afirman que los centros de datos proporcionarán empleos de alta tecnología.

Los centros de datos funcionan en gran medida de forma autónoma y requieren una intervención humana mínima, salvo para el mantenimiento, que determinan de forma independiente. Por lo tanto, la creación de empleo se reduce al mínimo.

Los trabajos de construcción e instalación serán temporales, y la mayoría de las funciones de gestión se realizarán de forma remota desde la sede central. Un informe de la estadounidense Universidad de Georgetown estima que solo 27 % de los puestos de trabajo en los centros de datos son «técnicos».

Si bien el discurso sobre los centros de datos se centra principalmente en las inversiones extranjeras, se habla poco del creciente deseo nacional de soberanía de datos.

Acceder a tantas solicitudes extranjeras bloqueará inevitablemente las ambiciones nacionales de desarrollar capacidades de centros de datos de extremo a extremo y no solo de alojarlos.

Hasta ahora, hay un interés limitado en la «vida posterior» de los centros de datos, como lo que ocurre después de que hayan cumplido su propósito o la eliminación de los materiales de desecho.

Los mayores costes de energía y agua, las subvenciones, los incentivos fiscales y otros problemas causados por los centros de datos apenas se ven compensados por su modesto empleo y otros beneficios.

🎓El Supremo desvela el mayor secreto de los pinchazos telefónicos en España.

💩El poder judicial cierra filas con los policías infiltrados y archiva la cuarta querella contra estas prácticas

⛓️La servidumbre perfeccionada: 📱esclavos del algoritmo, prisioneros del clic📡

https://rebelion.org/wp-content/uploads/2016/08/rebelionheader.jpg

Pensábamos que la esclavitud era una página cerrada de la historia. Que las cadenas se habían oxidado, que los grilletes eran piezas de museo. Pero nos equivocamos. Hoy la esclavitud no se impone con látigos, sino con notificaciones. No se firma con sangre, sino con clics. No se perpetra en campos de algodón, sino en oficinas abiertas, en plataformas digitales, en discursos que nos venden libertad mientras nos atan con algoritmos.

the letter v is decorated with flowers and leavesivimos en una sociedad que ha perfeccionado el régimen de servidumbre. El individuo ya no es ciudadano: es usuario, cliente, dato. El desclasado, el apolítico, el ignorante, el emprendedor ingenuo… todos giran en torno a un sistema que nos devora mientras nos promete éxito, visibilidad, pertenencia. Pero lo que recibimos es ansiedad, precariedad, aislamiento. Somos piezas de una maquinaria que no entendemos, pero que se alimenta cada día con nuestro tiempo, nuestra atención, nuestro deseo. Y buena parte de ello nos llega por nuestro teléfono.

AlgoritmoEl algoritmo es el nuevo capataz. Decide qué ves, qué sientes, qué crees. Te premia si confrontas (¡dále al like!), te castiga si reflexionas (te censuro y no te viralizo). Te empuja a odiar al pobre, al migrante, al diferente, mientras oculta a los verdaderos amos del cortijo: los fondos de inversión, los complejos militares-industriales, las transnacionales que saquean el planeta. Todo realizado sigilosamente, como una gran maniobra de distracción. Una coreografía de espejismos. Nos enfrentan entre los de abajo para que no miremos hacia arriba.

La sociedad actual es un teatro de sombras. Las redes sociales simulan comunidad, pero son vitrinas de soledad. El trabajo simula dignidad, pero es una carrera sin meta. La política simula representación, pero es un juego de máscaras. Y el individuo, perdido en este laberinto, ya no sabe qué papel cumple. Cree que emprende, pero lo que hace es sobrevivir. Cree que opina, pero lo que hace es repetir. Cree que elige, pero lo que hace es aceptar.

Wilhelm Reich lo vio venir. En Psicología de masas del fascismo, denunció cómo la represión emocional y la estructura autoritaria del carácter hacían posible el ascenso del totalitarismo. Hoy, esa estructura se ha digitalizado. La obediencia se ha convertido en scroll. La represión, en productividad. El miedo a la libertad, en miedo al algoritmo. Y la izquierda, si quiere ser transformadora, debe dejar de jugar en este tablero amañado. Debe enseñar a leer entre líneas, a desconectar, a organizar, a resistir. Porque esta esclavitud no se rompe con clics. Se rompe con conciencia. Con cuerpo. Con calle. Con comunidad.

En Psicología de masas del fascismo (1933), Wilhelm Reich se preguntaba por qué las masas obreras, que deberían luchar por su emancipación, terminaban apoyando regímenes autoritarios que las oprimían. Su respuesta no se limitaba a lo económico: Reich introdujo la dimensión emocional, sexual y cultural como clave para entender el fascismo. La represión del deseo, la obediencia inculcada en la familia patriarcal, el miedo a la libertad y la necesidad de pertenencia eran, para él, los ingredientes psicológicos que explicaban la sumisión de las masas.

En el Estado español, partidos como Vox y el PP han construido su discurso sobre el miedo y la confrontación. Promueven la idea de que el «otro» —el extranjero, el feminismo, el independentismo, la diversidad sexual— amenaza la unidad, la seguridad y la identidad nacional.

Mientras esto ocurre, ¿quiénes se benefician realmente? Muy sencillo:

  1. las grandes eléctricas, la banca y los fondos buitre, que siguen acumulando beneficios récord mientras millones de personas sufren pobreza energética, tienen empleos precarios y no pueden acceder a una vivienda digna.
  2. Las multinacionales que controlan sectores estratégicos como la alimentación, las medicinas, la sanidad privada o la educación concertada.
  3. El complejo militar-industrial que se refuerza con presupuestos crecientes, mientras se recortan servicios públicos.
  4. Las corporaciones tecnológicas que, por medio de los algoritmos de las redes sociales, amplifican el discurso del odio y la polarización, generando una falsa sensación de participación mientras manipulan emocionalmente a los usuarios.

Todo esto encaja con lo que Reich denunció: el fascismo no se impone solo desde arriba, sino que se alimenta de estructuras emocionales profundamente arraigadas. La ultraderecha ofrece orden, pertenencia, identidad. Pero lo hace a costa de la libertad, la empatía y la conciencia crítica.

ALGORITMO Y LOGICA DE PROGRAMACION - YouTubeHoy, esa estructura emocional sigue vigente. La ultraderecha contemporánea no ha inventado nada nuevo: ha perfeccionado el manual. Fija enemigos externos para desviar la atención de los verdaderos beneficiarios del sistema. Así que necesitamos de forma urgente argumentos para luchar contra este sistema de servidumbre perfeccionada porque el enemigo no es el otro, es el sistema que nos enfrenta entre nosotros los explotados.

La ultraderecha señala al migrante, al pobre, al disidente, al queer. Pero el verdadero enemigo está en los consejos de administración, en los algoritmos que moldean el pensamiento, en los tratados comerciales que blindan el expolio. La izquierda debe dejar de jugar a la reacción y volver a la raíz: señalar al poder económico, al extractivismo, a la financiarización de la vida.

La tecnología no es neutral, es ideología codificada. Los algoritmos no solo censuran: moldean deseos, emociones, creencias. La izquierda debe entender que la batalla digital no es estética, sino estructural. No basta con tener presencia en redes: hay que construir soberanía tecnológica, medios digitales propios, plataformas descentralizadas.

La democracia representativa está agotada. Los parlamentos se han convertido en escenarios de marketing político. Las decisiones reales se toman en despachos opacos, en consejos de administración, en cumbres blindadas, en lobbies transnacionales. La izquierda debe apostar por formas de democracia directa, deliberativa, comunitaria. Hay que volver a la asamblea, al barrio, al contacto personal.

Y es que hay propuestas reales y prácticas para un nuevo rumbo basadas en pedagogía crítica digital, como pueden ser la creación de escuelas populares de alfabetización algorítmica, enseñar cómo funcionan las redes, cómo manipulan y cómo resistir a este marea de fakes que nos inunda, formando militantes en comunicación no dependientes de plataformas corporativas.

Hay que crear, y esto es urgente, infraestructuras propias, impulsar medios alternativos, cooperativas tecnológicas, redes federadas (como Mastodon o Peertube) y recuperar el control sobre los canales de comunicación.

Hay que repolitizar el deseo. La izquierda debe hablar de placer, de cuerpo, de afectos. Reich lo dijo: «sin liberar el deseo, no hay revolución».

Hay que crear espacios donde la política no sea solo discurso, sino experiencia compartida, vínculo, comunidad.

Hay que impulsar redes de ayuda mutua. Frente al «sálvese quien pueda», construir redes de cuidados, bancos de tiempo, cooperativas de consumo, espacios de resistencia cotidiana, porque la solidaridad no es un valor abstracto: es una práctica concreta que puede desmontar el individualismo neoliberal.

Opinião - O algoritmo é que sabe! por Eduardo Figueiredo — Mais RibatejoLa desobediencia institucional debiera ser otro pilar fundamental del tránsito hacia una más sociedad más justa, sin esperar a que un gobierno nos salve de la catástrofe. La izquierda debe desobedecer cuando las leyes protegen el expolio.

Si queremos transformar esta sociedad, este sistema, hay que apoyar la insumisión, la ocupación, la autogestión. Crear flotillas de libertad que naveguen fuera del mapa oficial.

Vivimos en un mundo en el que el algoritmo es el nuevo inquisidor: decide qué es verdad, y que merece ser visto. El clic es el nuevo voto sin poder: se contabiliza, pero no transforma. La red social es el nuevo confesionario donde se expone la intimidad, pero no se recibe consuelo. La izquierda institucional es un barco varado, necesita astilleros nuevos, velas nuevas, rutas nuevas.

🤌🏽Acciones para resistir el tecnofeudalismo

🎙«Creo firmemente en que las personas cambian el futuro»

💩Empresas de spyware recibieron fondos de la UE🇪🇺

La Comisión Europea ha confirmado que fondos de la UE pagan a empresas de software espía. La financiación fue revelada por periodistas en septiembre.

The Berlaymont building with EU flags

a Comisión Europea ha confirmado que las empresas de software espía se beneficiaron de los subsidios de la UE. Sin embargo, periodistas de investigación han criticado la respuesta de la Comisión, calificándola de incompleta.

La Comisión emitió una respuesta↗️ por escrito a una carta de los eurodiputados, explicando que los fondos de varias fuentes, incluido el Fondo Europeo de Defensa y la iniciativa de investigación de la UE conocida como Horizonte 2020, fueron a compañías de software espía. Las empresas de vigilancia también recibieron fondos del programa Europa Digital.

La admisión se produce después de que la revista en línea Follow the Money publicara una investigación↗️ en septiembre que revelaba que los fondos públicos se habían destinado a apoyar a las empresas de software espía. En algunos casos, la financiación ascendió a millones de euros, aunque no está claro si el dinero se utilizó específicamente para el desarrollo de software espía.

Europarlamentarios expresan críticas

Después de que se publicara la investigación, 39 miembros del Parlamento Europeo de cuatro partidos enviaron una carta a la Comisión Europea manifestando su preocupación por las revelaciones de que↗️:

«los subsidios de la Unión Europea, junto con los fondos de los contribuyentes nacionales, han financiado directamente a empresas implicadas en el desarrollo, despliegue y exportación de software espía

Henna Virkkunen, Vicepresidenta Ejecutiva de Soberanía Tecnológica, Seguridad y Democracia de la Comisión Europea, respondió a las preguntas de los legisladores en un documento publicado antes de una audiencia del 6 de noviembre. La respuesta de Virkunnen se produce como parte del proceso presupuestario conocido como el «Procedimiento de aprobación de la gestión», que permite al Parlamento Europeo supervisar la ejecución del presupuesto de la UE por parte de la Comisión. Varias audiencias más están programadas en Bruselas en relación con el proceso.

En su carta, los eurodiputados preguntaron qué programas o instrumentos financieros de la UE habían contribuido con fondos a empresas como Cy4Gate, Cognyte y miembros de Intellexa Alliance.

Compañias controvertidas

Según la investigación Follow the Money, la empresa francesa Nexa Technologies recibió unos 60.000 € de la Comisión Europea en 2015. En ese momento, la empresa formaba parte de Intellexa Alliance. Estados Unidos impuso sanciones al Consorcio Intellexa en 2023 y 2024 por su papel en el desarrollo y comercialización de software espía Predator. Predator está en el centro de un escándalo de software espía griego y, según los informes, también se ha exportado a otros países.

La investigación de septiembre reveló que hay otras empresas han recibido financiación. Algunas de las las cuales son muy controvertidas. En su carta, los eurodiputados dicen que las tecnologías desarrolladas por estas empresas:

«se han relacionado con la vigilancia ilegal de periodistas, defensores de los derechos humanos y actores políticos en la UE, así como en terceros países con terribles antecedentes en materia de derechos humanos.»

Follow The Money informó esta semana↗️ que la Comisión «no enumera todos los programas de la UE de los que se han beneficiado las empresas de vigilancia.» La Comisión afirma que se puede acceder a dicha información a través de su Sistema de Transparencia Financiera, pero como señala Follow the Money, la respuesta de la Comisión no menciona al Fondo Social Europeo, que otorgó una subvención al Área de empresas italianas en 2022.

En 2014, Area tuvo que pagar una multa de 100.000 dólares en Estados Unidos por vender un sistema de vigilancia al régimen de Assad en Siria.

Sin contabilidad completa

Follow the Money también informó que la Comisión «omite mencionar los fondos recientes que el Fondo Europeo de Inversiones (FEI) otorgó a la firma israelí de software espía Paragon Solutions.» El sitio de noticias belga Apache informó por primera vez sobre el respaldo del FEI a Paragon. No está claro cuánto dinero se invirtió específicamente en Paragon.

La herramienta de software espía Graphite de la compañía está en el centro de un escándalo de escuchas telefónicas en Italia, donde activistas y miembros de la prensa fueron objeto de vigilancia. Las autoridades italianas fueron responsables del espionaje de activistas↗️, pero no está claro quién atacó a los periodistas.

En su carta, los eurodiputados hicieron preguntas adicionales. Querían saber, por ejemplo, cómo verifica la Comisión la «integridad, las estructuras de propiedad y el cumplimiento de los derechos humanos de las empresas que reciben fondos de la UE.» También preguntaron si la Comisión había recibido alguna advertencia antes de otorgar fondos a las compañías de software espía.

«Referencias vagas»

Respondiendo ampliamente a la carta de los eurodiputados, la Comisión afirma que todos los contratos deben cumplir con la legislación de la UE y que se debe evitar la mala aplicación de los fondos de la UE. Todas las solicitudes de financiación «se someten a una rigurosa valoración y evaluación». La Comisión señala además que «los productos y software de vigilancia pueden tener fines legítimos» –, pero agrega que «tomará medidas de inmediato» si se entera, por ejemplo, de cualquier «violación de los valores de la UE».

Aljosa Ajanovic Andelic, de European Digital Rights (EDRi), un grupo de defensa, dijo a Follow the Money que la Comisión Europea

«se esconde detrás de vagas referencias a los ‘valores de la UE’, al tiempo que admite abiertamente que los fondos europeos han financiado empresas cuyas tecnologías se utilizan para espiar a periodistas y defensores de los derechos humanos». Agregó que las recientes revelaciones indican «una ausencia total de mecanismos de control.

La eurodiputada Hannah Neumann (Verdes/ALE), firmante de la carta enviada el mes pasado, dijo a Follow the Money que, si bien la Comisión afirma seguir las recomendaciones del comité PEGA, que se estableció para investigar Pegasus y otras formas de software espía, ha tomado pocas medidas en los últimos dos años.

Legisladores y expertos en ciberseguridad han criticado repetidamente a la Comisión por no tomar medidas concretas para promulgar las recomendaciones formuladas por el comité PEGA. El comité concluyó su trabajo en 2023 y recomendó regulaciones estrictas sobre la venta y el uso de software espía. El Comité también recomendó↗️ implementar «mecanismos de control más rigurosos» para garantizar que los fondos de investigación de la UE no financien programas espía.

Ya en junio los programas espías fueron tema de debate en el europarlamento↗️ y sus miembros volvieron a hacer un llamamiento a la Comisión y a los estados miembros para que actuaran en consecuencia.

💂🏽‍♀️El golpe de Estado de las plataformas digitales

🤌🏽El expolio del patrimonio que la democracia heredó aún se mantiene

🫵🏼Unas 20 asociaciones piden a los diputados🖋

que aceleren la aprobación de la Ley de Servicios Digitales

Pedimos #DSAya

16 de noviembre de 2025

Estimados grupos parlamentarios del Congreso de los Diputados,

oy hace tres años que entró oficialmente en vigor el Reglamento de Servicios Digitales (2022/2065), más conocido por su nombre en inglés, la Digital Services Act (DSA). Se trata de una regulación innovadora y fundamental para salvaguardar los derechos de los ciudadanos europeos en Internet y para asegurar que las plataformas digitales y buscadores más grandes, que juegan un papel decisivo en muchas áreas de la vida pública, jueguen según unas reglas y tengan la obligación de identificar y reducir los riesgos que sus servicios suponen a veces para los menores de edad, la salud, las elecciones o la desinformación.

En la aplicación de esa regulación tienen un papel muy relevante los Coordinadores de Servicios Digitales de cada estado miembro, que son las autoridades independientes responsables de buena parte de su ejecución. Sin embargo, aunque España ya ha designado a la Comisión Nacional de Mercados y Competencia como la entidad que debe cumplir ese papel, las Cortes Generales no han hecho aún las reformas necesarias para dotar a la CNMC de las competencias y recursos que necesita para implementar de forma efectiva la DSA.

La Comisión Europea ya decidió hace cinco meses llevar a España y otros cinco estados miembros ante el Tribunal de Justicia de la UE por incumplir la DSA. Sin embargo, a pesar de que hay propuestas en trámite parlamentario que abordan la cuestión, España sigue incumpliendo sus obligaciones tres años después de la entrada en vigor de la ley. Por tanto, los españoles gozan de menos garantías y de una protección menor de la que tienen otros millones de ciudadanos europeos, mientras nuestros investigadores y estudiosos no cuentan con la intermediación de la CNMC para acceder a datos clave de las grandes plataformas para estudiar los riesgos derivados de su diseño.

Es por esto que las organizaciones firmantes pedimos a su grupo parlamentario que trabaje en la medida de sus posibilidades para cumplir con el Reglamento de Servicios Digitales y dotar a la Comisión Nacional de Mercados y Competencia de las facultades legales y otros recursos necesarios para cumplir sus tareas como Coordinador de Servicios Digitales en España, pudiendo así poner en marcha un despliegue completo de la DSA en nuestro país que puede beneficiar enormemente a la ciudadanía frente a las estafas, el contenido ilegal y otros tipos de desinformación en Internet.

Atentamente,

Contacto: [email protected]

💩«Huele a podrido el IAC», sobre el despojo de tierras a los Mapuche -Tehuelche

🤌🏽La diplomacia del blázer: De yihadista a invitado de honor