Categoría: Ciberderechos

📜Sobre la legislación de las 📡redes en Europa🇪🇺

La Ley de Redes Digitales (ADN): la FSFE pide una protección fuerte y consistente para la Libertad de los Routers

La Free Software Foundation Europe lleva más de diez años trabajando para proteger la libertad de los enrutadores (routers) en Europa. La Unión Europea está a punto de reformar el sector de las telecomunicaciones con la propuesta Ley de redes Digitales. Pedimos un enfoque claro y armonizado que defienda esta libertad en todos los Estados miembros.

10,000+ Free Large Letter L & Letter Images - Pixabaya Libertad del Enrutador es el derecho de los y las usuarios/as a elegir y operar sus propios enrutadores, módems y otros equipos utilizados para la conexión a Internet. Es importante para la autonomía de la usuaria, la competencia y la privacidad, ya que permitiría a los usuarios ejecutar sistemas operativos de Software Libre en sus enrutadores y módems de elección. La libertad del enrutador se entiende en un contexto más amplio como un elemento crucial de Neutralidad del Dispositivo, y requiere que los operadores de red permitan a las usuarias finales ejecutar Software Libre en sus dispositivos.

Durante más de diez años, la Fundación del Software Libre de Europa (FSFE) ha defendido esta libertad en toda Europa con éxitos en Finlandia, Alemania, Italia, los Países Bajos, Grecia y Bélgica.

La propuesta Ley de Redes Digitales (DNA) tiene como objetivo reformar el sector de las telecomunicaciones en la Unión Europea (UE). En la iteración anterior (2018-2020) de la regulación de enrutadores, la UE introdujo varias reglas técnicas que fragmentaron la implementación de la Libertad del Enrutador al permitir que los reguladores nacionales excluyeran este derecho de determinadas topologías de red cuando existían «necesidades objetivas». Desafortunadamente, muchos Estados miembros aprovecharon esta oportunidad para excluir la libertad de enrutadores de las redes de fibra. Ahora, el ADN presenta una oportunidad para cerrar esta brecha de fragmentación asegurando la libertad del enrutador de manera consistente y efectiva en toda la Unión Europea.

Marco regulatorio fragmentado

Representation of the Network Termination PointLa Libertad del Enrutador está formalmente reconocida en la legislación de la UE; sin embargo, la implementación práctica depende en gran medida de cómo se defina el Punto de Terminación de la Red (NTP). El NTP marca el límite entre la red del proveedor y el equipo terminal del usuario. Si este punto se define, por ejemplo, detrás de un enrutador suministrado por el proveedor, se impide efectivamente que los usuarios usen sus propios dispositivos, incluso si la libertad del enrutador está nominalmente garantizada. Por lo tanto, para la libertad del enrutador, es esencial asegurarse de que el NTP esté claramente definido en el punto de acceso apropiado.

Aunque el BEREC, el organismo regulador europeo de las telecomunicaciones, emitió directrices que establecían la libertad del enrutador como predeterminada para todas las topologías de red, permitió a las autoridades nacionales establecer exclusiones. Ejemplos recientes ilustran esta fragmentación. En Austria, las decisiones regulatorias han debilitado la Libertad del enrutador al permitir interpretaciones del NTP que restringen la capacidad de los usuarios para reemplazar los enrutadores suministrados por el proveedor. En Italia, el marco regulatorio ha cambiado una y otra vez, creando incertidumbre e inestabilidad para los usuarios, los fabricantes y los proveedores de servicios de Internet (ISP). Estos enfoques divergentes muestran que las orientaciones no vinculantes por sí solas no han sido suficientes para garantizar una protección coherente de la libertad de los enrutadores en toda la UE.

Debes controlar su enrutador, no el ISP

Esta fragmentación de las normas en los Estados miembros ha llevado a una supervisión limitada sobre cómo los ISP tratan a los clientes que usan su propio equipo para la conexión a Internet. En el estudio más exhaustivo que la FSFE ha llevado a cabo hasta la fecha, se identificaron los siguientes problemas:

  • Limitaciones a la libertad de elección. Algunos ISP restringen a los usuarios finales la conexión de sus enrutadores y módems a la red pública. Esto se observa con mayor intensidad en países donde la posición del NTP no está regulada en una configuración favorable para los usuarios finales.
  • Bloqueo del ISP. Algunos ISP imponen otras restricciones que aumentan los costos de conmutación por parte de los usuarios finales, como cobrar por el equipo proporcionado e imponer multas cuando los usuarios finales usan su propio equipo. El bloqueo es significativamente más notable en las redes de fibra y en los países donde la libertad del enrutador no está establecida por la legislación.
  • Provisión de dispositivos propietarios. Los enrutadores, módems y dispositivos de fibra óptica proporcionados por los ISP generalmente son propietarios. Los usuarios finales no pueden inspeccionar su firmware ni instalar un sistema operativo alternativo. Esto es especialmente problemático con las conexiones de fibra, ya que muchos contratos prohíben a los usuarios finales cambiar el equipo óptico impuesto por los ISP.
  • Problemas de seguridad. La falta de libertad del enrutador genera consecuencias negativas para la seguridad de la red. Algunos ISP no proporcionan actualizaciones de seguridad para sus dispositivos. Cuando los usuarios finales no pueden administrar sus propios enrutadores, quedan más expuestos a fallas de seguridad.
  • Prácticas comerciales y técnicas ilícitas. Incluso cuando la legislación ha establecido la libertad del enrutador, los ISP aún pueden obstaculizar la capacidad de los usuarios finales de elegir y usar sus propios enrutadores y módems. Algunos ISP hacen que sea engorroso reemplazar el equipo del ISP, se retrasan mucho en proporcionar datos de inicio de sesión u otras credenciales de acceso, no ofrecen soporte técnico para la red o amenazan a los usuarios finales que usan enrutadores personales con la rescisión del contrato o multas.

Esta situación socava no solo los derechos de los usuarios, sino también el mercado interior de la UE. Si paga la electricidad para alimentar su enrutador, debería estar tanto bajo su control como su propia cafetera u ordenador portátil, no algo dictado por su proveedor de Internet. Las diferentes normas nacionales sobre dónde termina la red y comienza el equipo del usuario crean barreras para los fabricantes de dispositivos, complican las ofertas transfronterizas y erosionan la confianza en las protecciones a nivel de la UE.

Lo que la FSFE pide a la DNA: ¡La libertad del enrutador debería garantizarse en toda la UE!

La posición de la FSFE es que la Ley de Redes Digitales (DNA, por sus siglas en inglés) debe ir más allá de las normas nacionales fragmentadas y establecer un marco operativo claro que garantice una protección eficaz y uniforme de la Libertad de los Enrutadores. Esto requiere establecer un cumplimiento armonizado en toda la UE que refleje adecuadamente los intereses de los usuarios finales y los consumidores. Cualquier desviación debida a la topología de la red debe seguir siendo la excepción, no la regla, y debe justificarse de manera transparente.

Varios reguladores ya han apoyado este enfoque. La autoridad nacional de Alemania ha rechazado muchos de los argumentos presentados por los proveedores de servicios de Internet contra la libertad del Enrutador, confirmando también el derecho de los usuarios a elegir su propio equipo terminal en las redes de fibra. Del mismo modo, en 2023, Bélgica introdujo formalmente la libertad de enrutadores que cubre todos los tipos de redes, incluida la fibra. Finlandia implementó la libertad de los enrutadores ya en 2014 y reafirmó su compromiso en 2021. En el mismo año, la Autoridad Holandesa para Consumidores y Mercados publicó reglas que confirmaban la Libertad del enrutador para los consumidores en los Países Bajos.

Para proteger la Libertad de los enrutadores y garantizar que se implemente un enfoque armonizado en toda la UE, son necesarias las modificaciones del Considerando 14, el artículo 69 y el artículo 125 del texto propuesto. Los cambios son necesarios para consolidar la identificación del NTP en el punto físico pasivo de la red, de forma predeterminada.

Hoy, hemos presentado nuestra posición sobre la Libertad de los enrutadores a la consulta de la Comisión Europea sobre la Ley de redes Digitales. Puedes leerla aquí.

✊🏽La lucha de las trabajadoras de ‘El Corte Inglés’ en  Rojo y Negro.

☮️El Día Internacional de las Mujeres nace de las luchas obreras y feministas de inicios del siglo XX

🤖Inseguridad artificial: cómo las herramientas de IA comprometen la confidencialidad👁

Green background with bitmap elements depicting artificial intelligence icons and words.

En la primera de nuestra serie de blogs de tres partes sobre las dudosas prácticas de seguridad digital que subyacen a las herramientas avanzadas de inteligencia artificial (IA), analizamos cómo los modelos de lenguaje extenso (LLM) pueden poner en peligro la confidencialidad de los datos de las personas.

Graphic Design I Paper & Party Supplies etna.com.pendependientemente de lo que se piense sobre las promesas o los peligros de la IA, cada vez es más difícil ignorar que estas herramientas están plagadas de evidentes vulnerabilidades de seguridad. Desde exponer los datos de los usuarios hasta facilitar ataques informáticos, desde socavar la integridad de la información hasta crear vulnerabilidades en la cadena de suministro, las herramientas de IA están respaldadas y socavadas por prácticas de seguridad poco fiables. Como vamos a explorar en esta serie, esto tiene graves consecuencias para la confidencialidad de nuestros datos, para la integridad de la información, y para el acceso y la disponibilidad de los sistemas, todos los problemas que los derechos humanos, el respeto de enfoque puede ayudar a resolver.

¿Por qué necesitamos hablar de IA y seguridad digital?

Es importante tener en cuenta que en estos días cuando hablamos de ‘IA avanzada’ herramientas tales como los chatbots, la imagen de los generadores, y ‘AI agentes,’ lo que estamos hablando en realidad son de sistemas construidos en Modelo extenso de lenguaje (LLMs). Los LLM son un tipo de modelo de aprendizaje automático entrenado en enormes cantidades de datos, incluidos texto, imágenes y video, que pueden generar contenido en respuesta a solicitudes y realizar tareas complejas con diversos grados de confiabilidad.

Para analizar los riesgos de seguridad específicos asociados con los LLM, es útil utilizar la tríada confidencialidad-integridad-disponibilidad (CIA) , un modelo ampliamente utilizado que guía la forma en que las organizaciones manejan la seguridad de los datos. Cuando se aplica a los LLM, este marco nos ayuda a comprender sus riesgos para la seguridad, además de mostrar por qué las salvaguardas de los derechos humanos son esenciales para mitigar esos riesgos. Por ejemplo, como veremos a continuación, la tríada de la CIA es una forma de comprender cómo las LLM pueden poner en peligro la seguridad individual de las personas y sus derechos digitales, porque ¿qué sucede con la confidencialidad de los datos que ingresa en un chatbot cuando hay una violación de datos? Pero también nos permite examinar cómo los LLM ponen en peligro la seguridad digital de manera más amplia y sistémica; como discutiremos en las partes dos y tres de esta serie, esto incluye comprometer la integridad de la información a través de la «pérdida de inteligencia artificial» o concentrar el poder del mercado de tal manera que se socave la disponibilidad de dichos sistemas.

¿Cómo puede comprometer la IA la confidencialidad?

Según el Instituto Nacional de Estándares y Tecnología de EE. UU. (NIST), confidencialidad significa «[p]reservar restricciones autorizadas sobre el acceso y la divulgación de la información, incluidos los medios para proteger la privacidad personal y la información patentada.» En otras palabras, ninguna persona no autorizada debería poder acceder a tu información. Esto es especialmente importante dado que las personas están utilizando herramientas basadas en LLM para todo, desde terapia y asesoramiento médico hasta acompañamiento, mientras que las empresas, los gobiernos y las organizaciones sin fines de lucro están integrando estas herramientas en flujos de trabajo que tratan con datos confidenciales.

Las fallas de seguridad que afectan a las herramientas basadas en LLM suelen ser bastante básicas. Por ejemplo, aunque compañías encallecidas como Microsoft y Google ofrecen autenticación multifactor( MFA), muchas aplicaciones populares de IA tienen una protección de cuenta nativa limitada, lo que significa que las cuentas las pueden secuestrar fácilmente los atacantes. Las violaciones de datos, ya sean accidentales o intencionadas, también suceden con regularidad. En enero de 2025, Wiz Research descubrió una base de datos de acceso público perteneciente a la empresa china DeepSeek, que contenía el historial de chat de personas, claves secretas, detalles del backend y otra información altamente confidencial. Y hace apenas tres meses, un atacante utilizó un proveedor de análisis externo para piratear OpenAI, filtrando información privada que incluía nombres, direcciones de correo electrónico, datos de ubicación, sistema operativo e información del navegador.

Incluso las herramientas que prometen aumentar la seguridad pueden, de hecho, socavarla. Investigadores de seguridad de Koi descubrieron recientemente cómo una serie de Urban Cyber Security Inc. Las extensiones del navegador de la red privada virtual (VPN), muchas de las cuales prometían «protección de IA» para datos confidenciales, en realidad estaban recopilando datos sobre todas las solicitudes ingresadas en LLM, las respuestas recibidas y las marcas de tiempo, metadatos e información sobre las herramientas de IA utilizadas por ocho millones de personas. Según Koi, Urban Cyber Security Inc. luego estaba compartiendo esta información con corredores de datos.

¿Cuáles son los riesgos de privacidad más amplios asociados con la IA?

El New York Times actualmente está demandando a Open AI por infracción de derechos de autor, alegando que las personas están usando ChatGPT para eludir su muro de pago en línea. Para probar esto, el medio de comunicación quiere acceso a más de 20 millones de conversaciones privadas de ChatGPT. Cualesquiera que sean los méritos del caso, otorgar acceso a estas conversaciones sería una gran violación de la privacidad; sin embargo, ni siquiera es un caso aislado, ya que las solicitudes de que los registros de chat de IA estén disponibles en los procedimientos legales son cada vez más frecuentes.

Uno de los principales factores de riesgo aquí es que el cifrado de extremo a extremo (E2EE) no es una característica estándar, ni siquiera necesariamente disponible, para chatbots como ChatGPT o Gemini, lo que significa que los historiales de chat de las personas enfrentan exposición. La E2EE es fundamental para proteger los derechos humanos, incluida la privacidad. Además del problema de que las plataformas de chatbot no cifran los historiales de chat, los «agentes» o asistentes de IA basados en LLM, a nivel del sistema operativo o de la aplicación, están socavando la promesa de seguridad de E2EE.

En abril de 2024, Meta lanzó su chatbot de IA, Meta AI, para WhatsApp, que usa E2EE, y no hay opción para eliminarlo. Esto significa que, a solicitud de otro usuario y sin su consentimiento, Meta AI puede acceder y resumir los mensajes entre usted y ese usuario, y los resúmenes pasan a través de los servidores de Meta. Como explica la Fundación de la Frontera Electrónica (Electronic Frontier Foundation), cuando la persona con la que está chateando le hace una pregunta a Meta AI, «esa parte de la conversación, que ambos pueden ver, no está encriptada de extremo a extremo y se puede utilizar para el entrenamiento de IA.» Este es un gran paso en la dirección equivocada. Si bien siempre ha existido un ligero riesgo para que su correspondencia de WhatsApp permanezca privada (por ejemplo, la persona con la que está chateando podría hacer una captura de pantalla o copiar el contenido cifrado, o denunciar sus mensajes a WhatsApp por supuestas violaciones de las pautas), Meta AI elimina la expectativa de privacidad por defecto.

WhatsApp afirma que, si no deseas que Meta AI resuma tus conversaciones compartidas, todo lo que hay que hacer es activar la función avanzada de privacidad de chat. Pero trasladar la responsabilidad a las personas no está muy bien, especialmente porque esta función debe activarse de forma manual e individual por chat; no hay una forma fácil y sencilla de aplicarla automáticamente en todas las conversaciones. Integrar Meta AI de forma predeterminada, diluyendo las promesas de privacidad y seguridad de WhatApp en el proceso, es parte de una tendencia más amplia de que las herramientas basadas en LLM sean obligatorias para las personas con o sin su consentimiento.

¿Cuáles son los peligros de los agentes (dobles) de la IA?

Junto con la integración de las nuevas funciones de IA en las aplicaciones existentes, el software de ‘IA agentica’ que funciona a nivel de sistema operativo también está creando nuevos riesgos. Los entusiastas de la IA elogian la integración de LLM en todas las facetas de nuestras vidas, defendiendo la adopción generalizada de agentes de IA capaces de ejecutar comandos en nuestro nombre, ya sea reservando vuelos, enviando mensajes a posibles parejas románticas o jugando en el mercado de valores.

Esto es lo que Meredith Whittaker, presidenta de Signal Foundation, llama el «problema del permiso de root», por el cual otorgar a los agentes de IA acceso total a nuestros sistemas y datos, incluidos los «recuerdos» de nuestras interacciones, abre una gran cantidad de oportunidades de ataque e incluso puede socavar las plataformas E2EE. Simon Willison ha enmarcado este problema como una trifecta letal en la que los agentes de IA tienen acceso a datos privados, obtienen exposición a contenido que no es de confianza y pueden comunicarse externamente para transmitir sus datos. Por ejemplo, los agentes de IA son susceptibles a ataques de inyección inmediata, en los que los atacantes engañan al agente de IA para que haga algo que no pretendías que se hiciera, como exponer los detalles de tu tarjeta de crédito. Estos riesgos se están desarrollando actualmente en tiempo real gracias a OpenClaw, un software asistente de IA de código abierto y autohospedado que, según resultó, permitió a miles de personas configurar agentes de IA con configuraciones de seguridad abismales.

¿Qué soluciones de seguridad se han sugerido?

Hasta la fecha, las medidas de seguridad implementadas para las herramientas basadas en LLM no han seguido el ritmo de los crecientes riesgos. En su respuesta a la solicitud de historiales de chat del The New York Times, Open AI indicó que está trabajando en «cifrado del lado del cliente para sus mensajes con ChatGPT»—, pero incluso aquí la compañía insinúa implementar «sistemas totalmente automatizados para detectar problemas de seguridad en nuestros productos», lo que suena muy parecido al escaneo del lado del cliente (CSS). CSS, que implica escanear el contenido en el dispositivo de un individuo en busca de algún tipo de material objetable, antes de enviarlo a través de una plataforma de mensajería cifrada, es una propuesta de perder-perder que socava el cifrado, aumenta el riesgo de ataque y abre la puerta a la fluencia de la misión.

Por el contrario, la comunidad de código abierto ha logrado avances positivos al priorizar la confidencialidad. MapleAI de OpenSecret admite un chatbot de IA cifrado de extremo a extremo y multidispositivo, mientras que Moxie Marlinspike, coautor del protocolo E2EE de Signal, ha lanzado ‘Confer’, un asistente de IA de código abierto que protege todas las solicitudes, respuestas y datos relacionados de los usuarios. Pero al menos por ahora, tales soluciones respetuosas de los derechos siguen siendo la excepción y no la norma.

La adopción desenfrenada de la IA combinada con las deprimentes prácticas de seguridad requiere una acción urgente. Los problemas de seguridad asociados con las  avanzadas herramientas de IA son las consecuencias de que deliberadamente priorizen el lucro y la competitividad sobre la seguridad y la protección de comunidades en riesgo, y ellos no los van a resolver. Si bien nos encantaría ver a las empresas corregirse a sí mismas, los gobiernos no deberían rehuir exigir que estas empresas prioricen la seguridad y los derechos humanos, especialmente cuando se gasta dinero público para adquirir y construir herramientas de IA de «interés público». Mientras tanto, todos podemos optar por apoyar alternativas abiertas y responsables que respeten los derechos a los modelos y herramientas de renombre siempre que sea posible. (🤔o no usarlas💡).

🖌El pensamiento ético y político de Kropotkin🏴

💩¿Por qué #UGT es el peor sindicato y el más amarillo de España?🤢

🐃El valor social de la libertad de estudiar el código fuente en el TS español🇪🇸

Si bien los derechos de autor y las licencias forman actualmente las estructuras legales centrales que respaldan el Software Libre, un fallo de septiembre de 2025 del Tribunal Supremo de España proporciona un precedente legal que subraya la importancia de la transparencia en los códigos fuente y algoritmos, ¡y el apoyo a la Libertad de Estudiar!

A wide-angle view of the top of the Spanish Supreme court, a stone   building with classical statues along the roofline, the letters  Tribunal Supremo and a large red and yellow Spanish flag flying  above

Letter Free Printables - Printableen 2009, el Gobierno español aprobó una ley para otorgar el llamado «bono social» a unos 5 millones de hogares, con el fin de subvencionar los gastos de electricidad. Posteriormente, un fallo judicial de 2016 obligó al gobierno a introducir normas más estrictas que regulaban quién podía recibir este bono social. Todos los beneficiarios debían volver a registrarse a finales de 2018, momento en el que se volvería a evaluar su elegibilidad para el bono social por un software conocido como BOSCO, administrado por el Ministerio para la Transición Ecológica (el «Ministerio»).

Tras esta nueva evaluación, sobre 1,5 millones de beneficiarios fueron aprobados para el bono social. Esto fue casi un millón menos que los 2,4 millones del plan anterior, y significativamente menos que los 4,5 millones estimados que cumplieron con los criterios para recibir el bono social en primer lugar. Varios solicitantes que habían sido rechazados se comunicaron con Civio, organización sin ánimo de lucro con sede en Madrid que trabaja para investigar deficiencias en el sector público y abogar por cambios positivos para apoyar la transparencia y el apoyo social, lo que generó sospechas de que el software BOSCO no había revisado adecuadamente sus reclamaciones.

Como destaca AlgorithmWatch, una de las quejas a Civio se refería a una viuda jubilada que solicitó el bono social bajo la prueba de medios. Legalmente, aún sería elegible para el bono por su condición de jubilada y viuda, incluso si sus ingresos excedieran el máximo para ser elegible bajo la prueba de medios. Sin embargo, BOSCO descartó su solicitud automáticamente.

Civio, por tanto, contactó con el Ministerio para solicitar el código fuente de BOSCO, con el fin de confirmar la veracidad de los testimonios que habían recibido, así como verificar otros fallos de funcionamiento. En respuesta, el Consejo de Transparencia y Buen Gobierno (el «Consejo»), autoridad española de libertad de información, denegó la solicitud de Civio, alegando la protección de los «derechos de propiedad intelectual» y la protección de datos personales. Esto, a su vez, impulsó a Civio a presentar un recurso administrativo, lo que dio inicio al largo proceso judicial que concluyó en septiembre de 2025 en el Tribunal Supremo de España (el «Tribunal»).

El fallo del Tribunal Supremo dió un apoyo general a la transparencia y la Libertad de Estudiar, al establecer claramente que se debía otorgar la solicitud inicial de Civio de acceso al código fuente de BOSCO. Al hacerlo, el Tribunal ha sentado ahora un precedente legal concreto en España de que la libertad de estudiar es constitucionalmente necesaria en el contexto de los programas informáticos y algoritmos de administración pública, y de acuerdo con los principios inherentes a un Estado democrático .

Al explicar su posición, la Sala fija la siguiente doctrina jurisprudencial:

 

  1. «El derecho de acceso a la información pública trasciende a su condición de principio objetivo rector de la actuación de las administraciones públicas, para constituir un derecho constitucional ejercitable, como derecho subjetivo, frente a las administraciones públicas, derivado de exigencias de democracia y transparencia, e inseparablemente unido al Estado democrático y de Derecho.
  2. El derecho de acceso a la información pública adquiere especial relevancia ante los riesgos que entraña el uso de las nuevas tecnologías en el ejercicio de las potestades públicas o la prestación de servicios públicos, como ocurre con el empleo de sistemas informáticos de toma de decisiones automatizadas en la actividad de las administraciones públicas, especialmente, cuando tienen por objeto el reconocimiento de derechos sociales.»

En términos más simples, el análisis del Tribunal sobre la importancia de la transparencia pública en relación con los programas de software y los algoritmos se puede desglosar en las siguientes conclusiones clave::

  1. El acceso al código fuente puede ser necesario para verificar decisiones gubernamentales automatizadas;
  2. Los «derechos de propiedad intelectual» no bloquean automáticamente la transparencia;
  3. Las preocupaciones de seguridad deben equilibrarse con la rendición de cuentas democrática; y
  4. La transparencia es especialmente crítica para los sistemas que afectan los derechos sociales.

Acceso al Código Fuente Para Verificación

Al revisar la solicitud de Civio de acceso al código fuente de BOSCO, el Tribunal se apresuró a señalar que la validez de las administraciones públicas para hacer uso de sistemas automatizados de toma de decisiones no estaba en duda. De hecho, reconoció que tales procesos automatizados a menudo eran esenciales para la eficiencia y la prestación adecuada de los servicios públicos.

Más bien, el Tribunal remarcó la necesidad de que se continúe observando el principio de transparencia incluso en el uso de tales sistemas automáticos, tal como lo consagra el artículo 105.b de la Constitución española. Por tanto, es un requisito legal en España que las administraciones públicas permitan a los ciudadanos acceder a características fundamentales de los algoritmos utilizados en la toma de decisiones, o a su código fuente.

El Tribunal consideró que dicha transparencia estaba asociada con un concepto importante y más amplio que denominó «democracia digital o electrónica»:

«La Democracia Digital no es sólo una extensión tecnológica de la democracia representativa, sino también el fruto de una verdadera transformación estructural en el funcionamiento democrático de las autoridades públicas, que se caracteriza por la vigencia de los principios de la transparencia, la participación y la rendición de cuentas en un entorno digital, donde el acceso a la información pública y algorítmica de la transparencia juega un papel esencial en la garantía de la misma.»

Por lo tanto, las autoridades públicas están obligadas a permitir que los ciudadanos comprendan cómo funcionan los algoritmos utilizados en la toma de decisiones que afectan a los ciudadanos. El Tribunal Supremo español considera que hacerlo estaría en consonancia con los principios de la democracia digital, con el fin de permitir a los ciudadanos conocer, controlar y participar en la gestión pública.

«Derechos de la Propiedad Intelectual» y Preocupaciones sobre Seguridad frente a Responsabilidad Democrática

En España, el artículo 14(1) (j) de la Ley Española de Transparencia, Acceso a la Información Pública y Buen Gobierno (la «LTAIBG») permite limitar el acceso a la información si dicho acceso va en detrimento de lo que denomina «derechos de la propiedad intelectual». De hecho, a lo largo del litigio de este caso, el Ministerio se basó en esta disposición para argumentar la afirmación vaga y nada concreta de que el código fuente de BOSCO estaba protegido generalmente por «el derecho de la propiedad intelectual», lo que le dio al Ministerio la opción de negarse a compartir el código fuente de BOSCO con Civio.

De manera similar, el artículo 14(1)(a) de la LTAIBG restringió el acceso a la información pública por motivos de seguridad nacional o pública, y también fue invocado por el Ministerio en sus argumentos para denegar el acceso al código fuente de BOSCO.

El Tribunal determinó que, si bien el derecho de acceso a la información pública no es ilimitado ni absoluto, las restricciones establecidas en la LTAIBG deben aplicarse de manera justificada y proporcionada. Esto, a su vez, debe decidirse sopesando los intereses en juego, a saber, la importancia del acceso a la información pública, por un lado, y la importancia de proteger los derechos de los titulares de los derechos de autor de BOSCO, o de cualquier preocupación por la seguridad nacional, del otro. De hecho, consideró que, si bien los derechos de autor y las preocupaciones de seguridad son consideraciones importantes, no pueden invocarse como escudos automáticos para el secreto.

Al sopesar estos intereses entre sí, el Tribunal dio especial importancia a la solicitud de Civio del código fuente de BOSCO. Reconoció que la relevancia pública de la investigación de Civio sobre si BOSCO funcionaba correctamente era de gran magnitud: servía para garantizar la protección de los consumidores que se encuentran en una situación social y económica más frágil, específicamente en este caso para protegerlos contra la pobreza energética.

En consecuencia, el Tribunal consideró que el mero riesgo de un posible perjuicio a los «derechos de la propiedad intelectual» de la administración pública no era lo suficientemente importante como para considerarase motivo válido para denegar el derecho de acceso de Civio, cuando se compara con la importancia de la investigación de Civio.

Asimismo, al considerar posibles riesgos para la seguridad pública, el Tribunal determinó que una solicitud de código fuente y transparencia algorítmica no contiene ni incluye datos personales de los ciudadanos solicitantes del bono social. Esto era suficiente para que el Tribunal considerara que el interés público de Civio por acceder al código fuente de BOSCO superaba con creces los problemas de seguridad pública.

Curiosamente, el Tribunal señaló además que incluso si el acceso al código fuente de BOSCO pudiera aumentar potencialmente ciertos riesgos de seguridad, la transparencia en sí misma puede contribuir a contrarrestar este riesgo, ya que:

  1. alentar a la administración a tomar precauciones de seguridad en el diseño y control del software; y
  2. permitir que el escrutinio de actores independientes revele vulnerabilidades previamente inadvertidas.

La transparencia es Fundamental para los Derechos Sociales

Al llegar a las conclusiones anteriores, el Tribunal reconoció además que el derecho de acceso a la información pública adquiere especial relevancia a la luz de cómo se ejercen las tecnologías digitales en el uso de los poderes públicos y la prestación de servicios públicos. Tal utilización de sistemas informatizados y automatizados de toma de decisiones en la administración pública, especialmente cuando su finalidad es el reconocimiento de derechos sociales, debe conllevar necesariamente la transparencia de los procesos informáticos seguidos en tales actuaciones.

Este tipo de transparencia, que el Tribunal reconoció que incluía la posibilidad de acceder al código fuente, tiene el efecto de proporcionar a los ciudadanos la información necesaria para su comprensión y conocimiento de su funcionamiento, a fin de permitir verificar la conformidad de dichos sistemas con las disposiciones reglamentarias aplicables.

De hecho, el Tribunal reconoció que tales principios fundamentales de transparencia y acceso a la información pública en el uso público de la tecnología digital no son solo exclusivos de la jurisdicción española, sino que también son la extensión lógica del Artículo 42 de la Carta de los Derechos Fundamentales de la Unión Europea (el «CFR»):

«Artículo 42 – Derecho de acceso a los documentos

Todo ciudadano de la Unión y toda persona física o jurídica que resida o tenga su domicilio social en un Estado miembro tiene derecho a acceder a los documentos de las instituciones, órganos y organismos de la Unión, cualquiera que sea su soporte

 

La Importancia de la Libertad de Estudio para una Sociedad Digital Saludable

Las conclusiones del Tribunal Supremo español en el caso BOSCO exponen claramente la importancia de la transparencia del código fuente y los algoritmos en las administraciones públicas, y cómo son importantes para el buen funcionamiento de las sociedades que dependen de la tecnología digital. Es gratificante ver a un tribunal europeo exponer claramente lo importante que es tener acceso público al conocimiento sobre cómo funcionan el software y los algoritmos, especialmente cuando tienen un impacto significativo en la vida de las personas en general.

Sin embargo, aunque apreciamos el reconocimiento de la importancia de la transparencia en el código fuente administrado públicamente por parte del Tribunal Supremo español aquí, este caso solo establece este estándar limitado en España. Si bien se puede interpretar que el mencionado artículo 42 del CFR incluye la transparencia algorítmica y el acceso al código fuente utilizado por las administraciones públicas, la interpretación del Tribunal Supremo español aún no es una postura unificada que se vea en toda la UE.

Aún así, se pueden ver algunos pasos positivos en otras jurisdicciones europeas. Por ejemplo, en Francia, la Ley de la República Digital («Loi pour une République numérique») de 2016 codifica el código fuente como parte de la documentación gubernamental que debe publicarse en determinadas circunstancias. Por supuesto, esto no significa necesariamente que todo el código fuente administrado públicamente esté disponible de inmediato en la práctica en Francia, ya que en el pasado ha habido casos en los que los tribunales franceses bloquearon el acceso incluso después de que entrara en vigor la Ley de la República Digital.

También quedan otras jurisdicciones de la UE que se resisten al acceso público del código administrado por el Estado. Por ejemplo, en los Países Bajos, la aplicación Debat Direct, que permite al público ver transmisiones en vivo de los debates en la Cámara de Representantes holandesa (Tweede Kamer), solo está disponible en las tiendas de aplicaciones de Apple, Google y Microsoft y no está disponible bajo una licencia de Software Libre. Cuando el voluntario holandés de la FSFE, Jos van den Oever, no pudo ejecutar la aplicación en sus dispositivos y solicitó el código fuente de Debat Direct del Parlamento holandés, los procedimientos legales resultantes desafortunadamente finalizaron con la decisión de que el código no debería estar disponible para el público.

El Camino a Seguir para Garantizar las Cuatro Libertades

Además de la Libertad de Estudiar, una ciudadanía informada y empoderada también necesita otras libertades que vienen con el Software Libre, para disfrutar de una verdadera soberanía en nuestra sociedad actual que se define por su dependencia de la tecnología digital. Por lo tanto, pedimos que los tribunales europeos tomen nota del libro del Tribunal Supremo español al sopesar los verdaderos costos sociales de los algoritmos y programas administrados públicamente que no son libres, especialmente cuando se enfrentan a argumentos en aras de la mera protección de la propiedad intelectual.

De hecho, ¿es exactamente por eso que la campaña de la FSFE Dinero Público ¡Código Público! (PMPC) continúa trabajando para garantizar que esta filosofía de transparencia, colaboración e innovación en las administraciones públicas se mantenga en toda Europa. El software utilizado por las administraciones públicas tiene la capacidad de afectar de cerca la vida de los ciudadanos, independientemente de si estos ciudadanos son usuarios del software o no. El lanzamiento de dicho software como Software Libre devuelve el control de la administración pública a la gente, y es un paso crucial para garantizar la democracia digital.

🚺Para ellas: seriales radiofónicos,🎙

📝 8F | Aragón decide su modelo de país: privatizaciones o derechos públicos

🕸Google asesina el internet libre II💩

Google is killing the open web

En el capítulo anterior narramos🖌

Por qué es importante

C letter logo, png | PNGWinguando se lanzó la especificación XML en 1998, ganó fuerza muy rápidamente, a pesar de su mayor verbosidad, porque al perder parte de la flexibilidad de SGML (la especificación excesiva de la cual HTML era la encarnación más famosa:

«Hay quien dice que HTML no es realmente una aplicación de SGML; esto es discutible: TBL pretendía que fuera uno, e incluso si hubo algunas divergencias significativas en las primeras iteraciones, la especificación HTML 4, que era la definición estándar de HTML en el momento al que me refiero, en realidad lo definió como un lenguaje SGML compatible, incluso si los navegadores nunca lo adoptaron como tal».

favoreció la desambiguación y simplificó el análisis sintáctico de documentos de tipo arbitrario. Combinado con XSLT, permitió que documentos de cualquier tipo estuvieran «listos para Internet» y, lo que es más importante, listos para la World Wide Web, ayudando a impulsar la WWW hacia su objetivo diseñado de un «sistema universal de información vinculada».

Aunque los beneficios de XML y el poder transformador de XSLT llamaron principalmente la atención de profesionales en una gran variedad de campos, a principios de siglo su flexibilidad se extendió también a la más generalizada población de usuarios de la Web a través de la encarnación específica de los RSS y los canal web Atom, que permitían a los usuarios mantenerse informados sobre las noticias y actualizaciones en sus sitios web favoritos sin estar constantemente «entrando y saliendo».

RSS y otras tecnologías basadas en XML como los Pingbacks fueron la columna vertebral de los blogs, la red social distribuida que caracteriza la primera década del siglo XXI.

Con los blogs comunes y distribuidos en múltiples plataformas, la posibilidad de agregar información de fuentes dispares y aún verla presentada como una página web normal, en todos los navegadores, sin necesidad de secuencias de comandos, en una época en la que las implementaciones eran lentas y (gracias a Microsoft, intencionalmente) incompatibles entre sí, se consideró una clara victoria.

A pesar de los esfuerzos de Google para eliminarlo desde 2013, el formato RSS sigue siendo un componente esencial de una web abierta e independiente, todavía en uso generalizado tanto en el lado del servidor como del cliente: se estima que hay más de 500 millones de sitios web que usan WordPress, y todos cuentan con fuentes RSS, incluso cuando no se anuncian adecuadamente; la mayoría, si no todas, las plataformas fediversas también ofrecen fuentes RSS, y algunas (por ejemplo, Friendica) también pueden importarlas y, por lo tanto, funcionar como agregadores; y posiblemente lo más importante, los RSS son el componente fundamental de los podcastsno es un podcast si no es RSS»), un formato de distribución multimedia con cientos de millones, si no miles de millones, de usuarios en todo el mundo.

Como ya se ha dicho, se está experimentando un resurgimiento a medida que la gente comienza a darse cuenta de lo catastrófica que fue, es, ha sido y será para la web la centralización impulsada por los GAFAM durante la segunda década del siglo XXI (aunque demasiados aún no han aprendido la lección correcta, y simplemente han saltado de un chiringuito nazi al siguiente, o han caído en el disfraz de federación porque es más brillante que la federación real).

XSLT es un complemento esencial de RSS, ya que permite leer detenidamente el feed en el navegador (a menos, por supuesto, que el navegador haga un esfuerzo adicional para evitar que lo visualice, como lo hace Firefox). Esto permite que los sitios con cientos de feeds utilicen el feed en sí (diseñado con XSLT) como página de índice (ejemplo), lo que reduce los costos de alojamiento y ancho de banda. Y, por supuesto, también se puede utilizar para dar estilo a cualquier otro documento XML «estándar» que se pueda encontrar en un sitio: por ejemplo, lo he descubierto recientemente gracias a @[email protected], que WordPress proporciona una hoja de estilo XSLT predeterminada para sus mapas de sitio (aunque curiosamente, ¿parece que no para sus feeds web? Por supuesto, aún puedes enrollar el tuyo y conectarlo en el lugar correcto.)

Como señala @[email protected], XML se usa ampliamente en humanidades digitales (y muchos otros campos), y TEI ofrece un amplio conjunto de hojas de estilo XSLT para transformar marcas comunes de TEI en una variedad de formatos, entre los que se encuentra XHTML, lo que permitiría la visualización directa de los documentos XML.

Y esto es solo el comienzo: como he mostrado en este mismo sitio, es posible usar XSLT para trazar datos XML y, en general, para producir documentos ricos y complejos sin JavaScript, y nuevamente con reducciones potencialmente significativas en los costos de alojamiento y ancho de banda.

Puntos extra: parece que la horda de raspadores LLM que están causando problemas por todas partes tienen algunas dificultades con XML general, por lo que cambiar a XML + XSLT podría funcionar realmente para la autoprotección.

¿Recuerdas AMP? Si realmente quisieras seguir enviando las toneladas habituales de basura inútil al escritorio, pero no al móvil, podrías poner el contenido real en un archivo XML y luego proporcionar dos hojas de estilo XSLT triviales separadas, una para transformarla en la página de escritorio hinchada habitual y otra para transformarla en la abominación simplificada (y menos hinchada) que es AMP HTML, lo que habría sido útil cuando Google introdujo el requisito de que AMP y la página estándar tuvieran que presentar el mismo contenido. Pero, de nuevo, ¿por qué enviar esas toneladas de basura inútil en el escritorio en primer lugar?

Y para ser honesto, las plantillas HTML se ven muy poco impresionantes en comparación con XSLT. Peor aún, ¿por qué la gente reinventa las plantillas sin tan siquiera mencionar XSLT? Cualquier cosa que discuta la creación de plantillas para HTML sin una comparación directa y concreta con XSLT debería descalificarse automáticamente por no estar bien investigada.

Pero lo más importante, incluso si personalmente no te gustan XML y/o XSLT, ¿por qué dejamos que Google decida lo qué es aceptable y lo qué no (y lo más importante, nunca más) en la World Wide Web?

Seguiremos…

💩La fábrica del miedo usa a la infancia como moneda política en Cartes

🎓Revocan la prescripción del caso por las amenazas del policía infiltrado a un militante

HISTORIA SOCIAL DEL JAZZ PRIMITIVO. Capítulo 10

«Renacimiento Negro, Harlemania y Jungle Jazz»

 

🐃“Los hackers originales fueron los primeros en ver la belleza en la tecnología”🤔

WIRED

Steven Levy sobre los «héroes» de la revolución informática

Steven Levy, editor at large de WIRED y autor de Hackers, analiza las similitudes y diferencias entre los primeros hackers de los sesenta y los de 2025. ¿Sigue reflejada la «ética hacker» en las decisiones de los actuales líderes del sector tecnológico?

Download E, Letter, Font. Royalty-Free Stock Illustration Image - Pixabayn 1981, Steven Levy tenía 30 años de edad cuando recibió el encargo de la revista Rolling Stone de escribir un artículo sobre hackers. Hasta entonces, el joven periodista nunca había tocado un ordenador. Como muchos de su generación, desconfiaba de la tecnología, asociándola a la deshumanización y al control social en tiempos de la guerra de Vietnam. Sin embargo, su investigación lo llevó a Stanford (en California) y a la naciente contracultura del ordenador personal. Allí descubrió un movimiento que mezclaba creatividad y rebeldía, sazonado con un toque de anarquismo. La impresión fue tal que Levy escribió el libro que marcaría el inicio de su carrera como una de las voces más influyentes del periodismo tecnológico, Hackers: héroes de la revolución informática (O’Reilly, 1984).

Hackers: Heroes of the Computer Revolution - 25th Anniversary EditionDurante aquella investigación, remitían a Levy una y otra vez al Instituto Tecnológico de Massachusetts (MIT), donde a finales de los años cincuenta había nacido lo que él llamaría «la ética hacker»: una forma de pensar y crear que veía en el ordenador un instrumento de libertad, colaboración y conocimiento compartido. Aquellos pioneros trabajaban en comunidad, escribían código sin firmar sus programas, ni siquiera usaban contraseñas, convencidos de que «la información debe fluir libremente». Esta ética, sin embargo, no se mantuvo intacta con el paso de las décadas. La irrupción del negocio tecnológico, el ánimo de lucro y las patentes introdujeron tensiones que perduran hasta hoy.

No fue sencillo para Levy entrar en contacto con esos pioneros. Figuras como Bill Gosper o Richard Greenblatt nunca habían conversado en términos reflexivos con un periodista. El laboratorio de inteligencia artificial del MIT era un universo hermético, casi sagrado. «Yo simplemente no podía creer mi suerte como periodista», recuerda Levy. «Me topé con algo que no era solo interesante, sino también muy importante, sobre lo que nadie había escrito antes, y tuve la oportunidad de hablar extensamente con las personas involucradas y documentarlo».

El término «hacker» se transformó con los años. En los ochenta comenzó a asociarse con los delitos informáticos y el espionaje cibernético, una percepción que poco tenía que ver con los programadores y emprendedores que Levy retrató en su libro, como Lee Felsenstein, Steve Wozniak o Richard Stallman. «Un hacker era, simplemente, alguien obsesionado con dominar la máquina y mejorarla», resume. La percepción negativa no logró borrar del todo la otra cara: la de los innovadores que fundaron empresas como Apple o Microsoft. Sobra explicar la influencia global que alcanzaron.

Hoy, la tensión entre el espíritu hacker y el ánimo de lucro se refleja en luchas que van de Napster a WikiLeaks. El triunfo del código abierto, señala Levy, es quizá el legado más tangible de aquel ethos: gran parte de internet se sostiene sobre proyectos colaborativos (libres o abiertos) que remontan sus raíces al MIT de Greenblatt y Gosper. Incluso gigantes como IBM, que durante años combatieron la idea, terminaron por adoptarla (hasta cierto grado).

🗄Anna’s Archive: metabuscador gratuitoa través de Tor

🇲🇽Resistencia Digital

⛓️La servidumbre perfeccionada: 📱esclavos del algoritmo, prisioneros del clic📡

https://rebelion.org/wp-content/uploads/2016/08/rebelionheader.jpg

Pensábamos que la esclavitud era una página cerrada de la historia. Que las cadenas se habían oxidado, que los grilletes eran piezas de museo. Pero nos equivocamos. Hoy la esclavitud no se impone con látigos, sino con notificaciones. No se firma con sangre, sino con clics. No se perpetra en campos de algodón, sino en oficinas abiertas, en plataformas digitales, en discursos que nos venden libertad mientras nos atan con algoritmos.

the letter v is decorated with flowers and leavesivimos en una sociedad que ha perfeccionado el régimen de servidumbre. El individuo ya no es ciudadano: es usuario, cliente, dato. El desclasado, el apolítico, el ignorante, el emprendedor ingenuo… todos giran en torno a un sistema que nos devora mientras nos promete éxito, visibilidad, pertenencia. Pero lo que recibimos es ansiedad, precariedad, aislamiento. Somos piezas de una maquinaria que no entendemos, pero que se alimenta cada día con nuestro tiempo, nuestra atención, nuestro deseo. Y buena parte de ello nos llega por nuestro teléfono.

AlgoritmoEl algoritmo es el nuevo capataz. Decide qué ves, qué sientes, qué crees. Te premia si confrontas (¡dále al like!), te castiga si reflexionas (te censuro y no te viralizo). Te empuja a odiar al pobre, al migrante, al diferente, mientras oculta a los verdaderos amos del cortijo: los fondos de inversión, los complejos militares-industriales, las transnacionales que saquean el planeta. Todo realizado sigilosamente, como una gran maniobra de distracción. Una coreografía de espejismos. Nos enfrentan entre los de abajo para que no miremos hacia arriba.

La sociedad actual es un teatro de sombras. Las redes sociales simulan comunidad, pero son vitrinas de soledad. El trabajo simula dignidad, pero es una carrera sin meta. La política simula representación, pero es un juego de máscaras. Y el individuo, perdido en este laberinto, ya no sabe qué papel cumple. Cree que emprende, pero lo que hace es sobrevivir. Cree que opina, pero lo que hace es repetir. Cree que elige, pero lo que hace es aceptar.

Wilhelm Reich lo vio venir. En Psicología de masas del fascismo, denunció cómo la represión emocional y la estructura autoritaria del carácter hacían posible el ascenso del totalitarismo. Hoy, esa estructura se ha digitalizado. La obediencia se ha convertido en scroll. La represión, en productividad. El miedo a la libertad, en miedo al algoritmo. Y la izquierda, si quiere ser transformadora, debe dejar de jugar en este tablero amañado. Debe enseñar a leer entre líneas, a desconectar, a organizar, a resistir. Porque esta esclavitud no se rompe con clics. Se rompe con conciencia. Con cuerpo. Con calle. Con comunidad.

En Psicología de masas del fascismo (1933), Wilhelm Reich se preguntaba por qué las masas obreras, que deberían luchar por su emancipación, terminaban apoyando regímenes autoritarios que las oprimían. Su respuesta no se limitaba a lo económico: Reich introdujo la dimensión emocional, sexual y cultural como clave para entender el fascismo. La represión del deseo, la obediencia inculcada en la familia patriarcal, el miedo a la libertad y la necesidad de pertenencia eran, para él, los ingredientes psicológicos que explicaban la sumisión de las masas.

En el Estado español, partidos como Vox y el PP han construido su discurso sobre el miedo y la confrontación. Promueven la idea de que el «otro» —el extranjero, el feminismo, el independentismo, la diversidad sexual— amenaza la unidad, la seguridad y la identidad nacional.

Mientras esto ocurre, ¿quiénes se benefician realmente? Muy sencillo:

  1. las grandes eléctricas, la banca y los fondos buitre, que siguen acumulando beneficios récord mientras millones de personas sufren pobreza energética, tienen empleos precarios y no pueden acceder a una vivienda digna.
  2. Las multinacionales que controlan sectores estratégicos como la alimentación, las medicinas, la sanidad privada o la educación concertada.
  3. El complejo militar-industrial que se refuerza con presupuestos crecientes, mientras se recortan servicios públicos.
  4. Las corporaciones tecnológicas que, por medio de los algoritmos de las redes sociales, amplifican el discurso del odio y la polarización, generando una falsa sensación de participación mientras manipulan emocionalmente a los usuarios.

Todo esto encaja con lo que Reich denunció: el fascismo no se impone solo desde arriba, sino que se alimenta de estructuras emocionales profundamente arraigadas. La ultraderecha ofrece orden, pertenencia, identidad. Pero lo hace a costa de la libertad, la empatía y la conciencia crítica.

ALGORITMO Y LOGICA DE PROGRAMACION - YouTubeHoy, esa estructura emocional sigue vigente. La ultraderecha contemporánea no ha inventado nada nuevo: ha perfeccionado el manual. Fija enemigos externos para desviar la atención de los verdaderos beneficiarios del sistema. Así que necesitamos de forma urgente argumentos para luchar contra este sistema de servidumbre perfeccionada porque el enemigo no es el otro, es el sistema que nos enfrenta entre nosotros los explotados.

La ultraderecha señala al migrante, al pobre, al disidente, al queer. Pero el verdadero enemigo está en los consejos de administración, en los algoritmos que moldean el pensamiento, en los tratados comerciales que blindan el expolio. La izquierda debe dejar de jugar a la reacción y volver a la raíz: señalar al poder económico, al extractivismo, a la financiarización de la vida.

La tecnología no es neutral, es ideología codificada. Los algoritmos no solo censuran: moldean deseos, emociones, creencias. La izquierda debe entender que la batalla digital no es estética, sino estructural. No basta con tener presencia en redes: hay que construir soberanía tecnológica, medios digitales propios, plataformas descentralizadas.

La democracia representativa está agotada. Los parlamentos se han convertido en escenarios de marketing político. Las decisiones reales se toman en despachos opacos, en consejos de administración, en cumbres blindadas, en lobbies transnacionales. La izquierda debe apostar por formas de democracia directa, deliberativa, comunitaria. Hay que volver a la asamblea, al barrio, al contacto personal.

Y es que hay propuestas reales y prácticas para un nuevo rumbo basadas en pedagogía crítica digital, como pueden ser la creación de escuelas populares de alfabetización algorítmica, enseñar cómo funcionan las redes, cómo manipulan y cómo resistir a este marea de fakes que nos inunda, formando militantes en comunicación no dependientes de plataformas corporativas.

Hay que crear, y esto es urgente, infraestructuras propias, impulsar medios alternativos, cooperativas tecnológicas, redes federadas (como Mastodon o Peertube) y recuperar el control sobre los canales de comunicación.

Hay que repolitizar el deseo. La izquierda debe hablar de placer, de cuerpo, de afectos. Reich lo dijo: «sin liberar el deseo, no hay revolución».

Hay que crear espacios donde la política no sea solo discurso, sino experiencia compartida, vínculo, comunidad.

Hay que impulsar redes de ayuda mutua. Frente al «sálvese quien pueda», construir redes de cuidados, bancos de tiempo, cooperativas de consumo, espacios de resistencia cotidiana, porque la solidaridad no es un valor abstracto: es una práctica concreta que puede desmontar el individualismo neoliberal.

Opinião - O algoritmo é que sabe! por Eduardo Figueiredo — Mais RibatejoLa desobediencia institucional debiera ser otro pilar fundamental del tránsito hacia una más sociedad más justa, sin esperar a que un gobierno nos salve de la catástrofe. La izquierda debe desobedecer cuando las leyes protegen el expolio.

Si queremos transformar esta sociedad, este sistema, hay que apoyar la insumisión, la ocupación, la autogestión. Crear flotillas de libertad que naveguen fuera del mapa oficial.

Vivimos en un mundo en el que el algoritmo es el nuevo inquisidor: decide qué es verdad, y que merece ser visto. El clic es el nuevo voto sin poder: se contabiliza, pero no transforma. La red social es el nuevo confesionario donde se expone la intimidad, pero no se recibe consuelo. La izquierda institucional es un barco varado, necesita astilleros nuevos, velas nuevas, rutas nuevas.

🤌🏽Acciones para resistir el tecnofeudalismo

🎙«Creo firmemente en que las personas cambian el futuro»

👁Mobile Fortify,📲

el Programa de Reconocimiento Facial Portátil de ICE. Las Organizaciones de Derechos Exigen detenerlo.

This image shows a person's face with layers of pixelation throughout.

Download M, Letter, Font. Royalty-Free Stock Illustration Image - Pixabayobile Fortify, la nueva aplicación utilizada por el Servicio de Inmigración y Control de Aduanas (ICE)(USA) que utiliza la tecnología de reconocimiento facial (FRT) para identificar a las personas durante los encuentros callejeros, es una afrenta a los derechos y la dignidad de los migrantes y ciudadanos estadounidenses por igual. Es por eso que una coalición de organizaciones de privacidad, libertades civiles y derechos civiles exige que el Departamento de Seguridad Nacional (DHS) cierre el uso de Mobile Fortify, publique los análisis de privacidad de la aplicación de la agencia y aclare la política de la agencia sobre reconocimiento facial.

Mientras las organizaciones, incluida EFF, Asian Americans Advancing Justice y Project on Government Oversight, escriben en una carta enviada por EPIC:

Las prácticas imprudentes de ICE agravan el daño causado por el uso del reconocimiento facial. ICE no permite que las personas opten por no ser escaneadas, y aparentemente los agentes de ICE tienen la discreción de usar una coincidencia de reconocimiento facial como una determinación definitiva del estatus migratorio de una persona, incluso ante evidencia contraria. Usar la identificación facial como una determinación definitiva del estatus migratorio es inmensamente perturbador, y el uso arrogante del reconocimiento facial por parte de ICE indudablemente conducirá a detenciones injustas, deportaciones o algo peor. De hecho, ya hay al menos un incidente reportado de ICE que determinó erróneamente que un ciudadano estadounidense «podría ser deportado en función de la confirmación biométrica de su identidad.”

Como si este uso peligroso del reconocimiento facial no consensuado no fuera lo suficientemente malo, Mobile Fortify también consulta una amplia variedad de bases de datos gubernamentales. Ya ha habido informes de que los oficiales federales pueden estar usando este FRT para atacar a los manifestantes que participan en actividades protegidas por la Primera Enmienda. Sin embargo, ICE concluyó que no necesitaba realizar una nueva Evaluación del Impacto en la Privacidad, que es una práctica estándar para las tecnologías gubernamentales propuestas que recopilan datos de las personas.

Si bien Mobile Fortify es la última versión del FRT móvil de ICE, la EFF ha estado rastreando este tipo de tecnología durante más de una década. En 2013, identificamos cómo una agencia de San Diego había distribuido teléfonos equipados con reconocimiento facial a las agencias policiales de toda la región, incluidos los funcionarios federales de inmigración. En 2019, la EFF ayudó a aprobar una ley que prohibía temporalmente la recopilación de datos biométricos con dispositivos móviles, lo que provocó el cese del programa.

Entonces luchamos contra los reconocimientos faciales de mano y lo haremos de nuevo.

Día Internacional de la Seguridad Informática

7️⃣ preguntas que debemos hacernos antes de compartir una noticia en redes sociales

💩Empresas de spyware recibieron fondos de la UE🇪🇺

La Comisión Europea ha confirmado que fondos de la UE pagan a empresas de software espía. La financiación fue revelada por periodistas en septiembre.

The Berlaymont building with EU flags

a Comisión Europea ha confirmado que las empresas de software espía se beneficiaron de los subsidios de la UE. Sin embargo, periodistas de investigación han criticado la respuesta de la Comisión, calificándola de incompleta.

La Comisión emitió una respuesta↗️ por escrito a una carta de los eurodiputados, explicando que los fondos de varias fuentes, incluido el Fondo Europeo de Defensa y la iniciativa de investigación de la UE conocida como Horizonte 2020, fueron a compañías de software espía. Las empresas de vigilancia también recibieron fondos del programa Europa Digital.

La admisión se produce después de que la revista en línea Follow the Money publicara una investigación↗️ en septiembre que revelaba que los fondos públicos se habían destinado a apoyar a las empresas de software espía. En algunos casos, la financiación ascendió a millones de euros, aunque no está claro si el dinero se utilizó específicamente para el desarrollo de software espía.

Europarlamentarios expresan críticas

Después de que se publicara la investigación, 39 miembros del Parlamento Europeo de cuatro partidos enviaron una carta a la Comisión Europea manifestando su preocupación por las revelaciones de que↗️:

«los subsidios de la Unión Europea, junto con los fondos de los contribuyentes nacionales, han financiado directamente a empresas implicadas en el desarrollo, despliegue y exportación de software espía

Henna Virkkunen, Vicepresidenta Ejecutiva de Soberanía Tecnológica, Seguridad y Democracia de la Comisión Europea, respondió a las preguntas de los legisladores en un documento publicado antes de una audiencia del 6 de noviembre. La respuesta de Virkunnen se produce como parte del proceso presupuestario conocido como el «Procedimiento de aprobación de la gestión», que permite al Parlamento Europeo supervisar la ejecución del presupuesto de la UE por parte de la Comisión. Varias audiencias más están programadas en Bruselas en relación con el proceso.

En su carta, los eurodiputados preguntaron qué programas o instrumentos financieros de la UE habían contribuido con fondos a empresas como Cy4Gate, Cognyte y miembros de Intellexa Alliance.

Compañias controvertidas

Según la investigación Follow the Money, la empresa francesa Nexa Technologies recibió unos 60.000 € de la Comisión Europea en 2015. En ese momento, la empresa formaba parte de Intellexa Alliance. Estados Unidos impuso sanciones al Consorcio Intellexa en 2023 y 2024 por su papel en el desarrollo y comercialización de software espía Predator. Predator está en el centro de un escándalo de software espía griego y, según los informes, también se ha exportado a otros países.

La investigación de septiembre reveló que hay otras empresas han recibido financiación. Algunas de las las cuales son muy controvertidas. En su carta, los eurodiputados dicen que las tecnologías desarrolladas por estas empresas:

«se han relacionado con la vigilancia ilegal de periodistas, defensores de los derechos humanos y actores políticos en la UE, así como en terceros países con terribles antecedentes en materia de derechos humanos.»

Follow The Money informó esta semana↗️ que la Comisión «no enumera todos los programas de la UE de los que se han beneficiado las empresas de vigilancia.» La Comisión afirma que se puede acceder a dicha información a través de su Sistema de Transparencia Financiera, pero como señala Follow the Money, la respuesta de la Comisión no menciona al Fondo Social Europeo, que otorgó una subvención al Área de empresas italianas en 2022.

En 2014, Area tuvo que pagar una multa de 100.000 dólares en Estados Unidos por vender un sistema de vigilancia al régimen de Assad en Siria.

Sin contabilidad completa

Follow the Money también informó que la Comisión «omite mencionar los fondos recientes que el Fondo Europeo de Inversiones (FEI) otorgó a la firma israelí de software espía Paragon Solutions.» El sitio de noticias belga Apache informó por primera vez sobre el respaldo del FEI a Paragon. No está claro cuánto dinero se invirtió específicamente en Paragon.

La herramienta de software espía Graphite de la compañía está en el centro de un escándalo de escuchas telefónicas en Italia, donde activistas y miembros de la prensa fueron objeto de vigilancia. Las autoridades italianas fueron responsables del espionaje de activistas↗️, pero no está claro quién atacó a los periodistas.

En su carta, los eurodiputados hicieron preguntas adicionales. Querían saber, por ejemplo, cómo verifica la Comisión la «integridad, las estructuras de propiedad y el cumplimiento de los derechos humanos de las empresas que reciben fondos de la UE.» También preguntaron si la Comisión había recibido alguna advertencia antes de otorgar fondos a las compañías de software espía.

«Referencias vagas»

Respondiendo ampliamente a la carta de los eurodiputados, la Comisión afirma que todos los contratos deben cumplir con la legislación de la UE y que se debe evitar la mala aplicación de los fondos de la UE. Todas las solicitudes de financiación «se someten a una rigurosa valoración y evaluación». La Comisión señala además que «los productos y software de vigilancia pueden tener fines legítimos» –, pero agrega que «tomará medidas de inmediato» si se entera, por ejemplo, de cualquier «violación de los valores de la UE».

Aljosa Ajanovic Andelic, de European Digital Rights (EDRi), un grupo de defensa, dijo a Follow the Money que la Comisión Europea

«se esconde detrás de vagas referencias a los ‘valores de la UE’, al tiempo que admite abiertamente que los fondos europeos han financiado empresas cuyas tecnologías se utilizan para espiar a periodistas y defensores de los derechos humanos». Agregó que las recientes revelaciones indican «una ausencia total de mecanismos de control.

La eurodiputada Hannah Neumann (Verdes/ALE), firmante de la carta enviada el mes pasado, dijo a Follow the Money que, si bien la Comisión afirma seguir las recomendaciones del comité PEGA, que se estableció para investigar Pegasus y otras formas de software espía, ha tomado pocas medidas en los últimos dos años.

Legisladores y expertos en ciberseguridad han criticado repetidamente a la Comisión por no tomar medidas concretas para promulgar las recomendaciones formuladas por el comité PEGA. El comité concluyó su trabajo en 2023 y recomendó regulaciones estrictas sobre la venta y el uso de software espía. El Comité también recomendó↗️ implementar «mecanismos de control más rigurosos» para garantizar que los fondos de investigación de la UE no financien programas espía.

Ya en junio los programas espías fueron tema de debate en el europarlamento↗️ y sus miembros volvieron a hacer un llamamiento a la Comisión y a los estados miembros para que actuaran en consecuencia.

💂🏽‍♀️El golpe de Estado de las plataformas digitales

🤌🏽El expolio del patrimonio que la democracia heredó aún se mantiene

🫵🏼Unas 20 asociaciones piden a los diputados🖋

que aceleren la aprobación de la Ley de Servicios Digitales

Pedimos #DSAya

16 de noviembre de 2025

Estimados grupos parlamentarios del Congreso de los Diputados,

oy hace tres años que entró oficialmente en vigor el Reglamento de Servicios Digitales (2022/2065), más conocido por su nombre en inglés, la Digital Services Act (DSA). Se trata de una regulación innovadora y fundamental para salvaguardar los derechos de los ciudadanos europeos en Internet y para asegurar que las plataformas digitales y buscadores más grandes, que juegan un papel decisivo en muchas áreas de la vida pública, jueguen según unas reglas y tengan la obligación de identificar y reducir los riesgos que sus servicios suponen a veces para los menores de edad, la salud, las elecciones o la desinformación.

En la aplicación de esa regulación tienen un papel muy relevante los Coordinadores de Servicios Digitales de cada estado miembro, que son las autoridades independientes responsables de buena parte de su ejecución. Sin embargo, aunque España ya ha designado a la Comisión Nacional de Mercados y Competencia como la entidad que debe cumplir ese papel, las Cortes Generales no han hecho aún las reformas necesarias para dotar a la CNMC de las competencias y recursos que necesita para implementar de forma efectiva la DSA.

La Comisión Europea ya decidió hace cinco meses llevar a España y otros cinco estados miembros ante el Tribunal de Justicia de la UE por incumplir la DSA. Sin embargo, a pesar de que hay propuestas en trámite parlamentario que abordan la cuestión, España sigue incumpliendo sus obligaciones tres años después de la entrada en vigor de la ley. Por tanto, los españoles gozan de menos garantías y de una protección menor de la que tienen otros millones de ciudadanos europeos, mientras nuestros investigadores y estudiosos no cuentan con la intermediación de la CNMC para acceder a datos clave de las grandes plataformas para estudiar los riesgos derivados de su diseño.

Es por esto que las organizaciones firmantes pedimos a su grupo parlamentario que trabaje en la medida de sus posibilidades para cumplir con el Reglamento de Servicios Digitales y dotar a la Comisión Nacional de Mercados y Competencia de las facultades legales y otros recursos necesarios para cumplir sus tareas como Coordinador de Servicios Digitales en España, pudiendo así poner en marcha un despliegue completo de la DSA en nuestro país que puede beneficiar enormemente a la ciudadanía frente a las estafas, el contenido ilegal y otros tipos de desinformación en Internet.

Atentamente,

Contacto: [email protected]

💩«Huele a podrido el IAC», sobre el despojo de tierras a los Mapuche -Tehuelche

🤌🏽La diplomacia del blázer: De yihadista a invitado de honor

💩La tragedia del prodigio de la informática🤌🏽

Aaron Swartz fundó Demand Progress, que lanzó la campaña contra los proyectos de ley de censura de Internet (SOPA/PIPA). También fue Editor colaborador de The Baffler y del Council of Advisors to The Rules.

ace el 8 de noviembre de 1986 en Highland Park, a 40 kilómetros de Chicago, Illinois. Desde pequeño, dejó claro que tenía grandes habilidades para la programación. Mucho tuvo que ver su padre, Robert Swartz, fundador de la empresa de software Mark Williams Company. Terminó secundaria a los 9 años y se matriculó en el Lake Forest College.

Creó Reddit, uno de los foros más importantes de internet, tras la fusión de la empresa de software Infogami, fundada por Aaron Swartz, y otra startup. La popularidad del sitio creció de manera meteórica, en paralelo a su valor de mercado. En octubre 2006, cuando Swartz tenía solo 19 años, la editorial Condé Nast (propietaria de revistas como Wired, Vogue y The New Yorker) compró Reddit.

Aaron Swartz se suicidó en 2013. Foto: Reuters

En un principio, se mudó a San Francisco para continuar trabajando en Reddit. Pero nunca logró adaptarse a la vida de oficina y a los objetivos comerciales de la compañía. En enero de 2007, se le pidió que renunciara. Gracias al dinero que había recibido por la venta, se dedicó al activismo digital y a la creación de proyectos que tuvieran como objetivo la difusión libre de la información.

El caso JSTOR: un extenso juicio contra Aaron Swartz

Swartz comenzó a progresar en sus intentos por democratizar el acceso a la información. Uno de los episodios más importantes fue la descarga masiva de artículos científicos del repositorio JSTOR, que cobraba hasta 40 dólares por acceder a publicaciones académicas.

Entre finales de 2010 y principios de 2011, utilizó una credencial que tenía por ser investigador afiliado a la Universidad de Harvard para conseguir 4,8 millones de archivos. Swartz consideraba que la difusión de esos textos debía ser libre.

El 6 de enero de 2011 arrestaron a Swartz  cerca del campus de Harvard. Posteriormente lo acusaron de infringir la Ley de Fraude y Abuso Informático, además de violaciones al copyright. Los cargos implicaban la posibilidad de más de 35 años de cárcel y multas económicas.

El final de Aaron Swartz

Aaron Swartz afrontó un extenso proceso judicial, dado que los fiscales federales no querían llegar a un acuerdo que evitara la cárcel. Mientras la causa avanzaba, el programador atravesó episodios depresivos.

El 11 de enero de 2013,con 26 años, Swartz apareció sin vida en su apartamento de Brooklyn. Las autoridades confirmaron que se había suicidado. En concreto, una portavoz de la oficina forense de Nueva York informó que se había ahorcado.

Tim Berners-Lee repudió la muerte de Aaron Swartz. Foto: AFP

Foto: AFP
Tim Berners-Lee, creador de la World Wide Web, consideró que la acusación contra Swartz había sido desmedida. Señalando que el Gobierno de Estados Unidos había «perdido todo sentido de la proporción» en el caso.