Categoría: tecnología

🤖Los «robots asesinos» amenazan los derechos humanos en tiempos de guerra y de paz💀

Human Rights Watch

Es urgente un tratado sobre sistemas de armas autónomas

Free L Letter Vector Art - Download 1,544+ L Letter Icons & Graphics ...os sistemas de armas autónomas representan graves riesgos para los derechos humanos tanto en tiempos de guerra como en tiempos de paz, señaló Human Rights Watch en un informe que publicó en abril del año pasado. Los gobiernos deben abordar las preocupaciones que plantean estos sistemas de armas, conocidos como “robots asesinos”, mediante la negociación de un tratado multilateral que haga frente a estos peligros.

Corea del Sur desarrolla robots asesinos con inteligencia artificalEl informe de 61 páginas, titulado “Una amenaza para los derechos humanos: sistemas de armas autónomas y procesos de toma de decisiones digitales”, concluye que las armas autónomas –que seleccionan y aplican la fuerza contra objetivos en función de sensores en lugar de insumos humanos— contravendrían los derechos a la vida, a la reunión pacífica, a la privacidad y a un recurso efectivo, así como los principios de dignidad humana y no discriminación. Los avances tecnológicos y las inversiones militares están impulsando el rápido desarrollo de sistemas de armas autónomas que operarían sin un control humano significativo.

«El uso de sistemas de armas autónomas no se limitará a los conflictos armados, sino que se extenderá a operaciones de seguridad, control fronterizo y otras circunstancias, lo que genera serias preocupaciones en virtud del derecho internacional de los derechos humanos. Para evitar un futuro de asesinatos automatizados, los gobiernos deben aprovechar cada oportunidad para avanzar hacia la adopción de un tratado mundial sobre sistemas de armas autónomas».

declara Bonnie Docherty, asesora principal sobre armamento en Human Rights Watch, profesora de Derecho en la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard y autora principal del informe.

El informe, elaborado junto con la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard, se publicó antes de la primera reunión de la Asamblea General de las Naciones Unidas sobre sistemas de armas autónomas, que se celebró en Nueva York los días 12 y 13 de mayo de 2025.

Los sistemas de armas con distintos grados de autonomía existen desde hace años, pero se han limitado los tipos de objetivos, la duración de las operaciones, el alcance geográfico y el entorno en el que operan. Entre estos sistemas se incluyen los sistemas de defensa antimisiles, los drones armados y las municiones merodeadoras.

Robot killer, tutto quello che si nasconde nel primo stop | Wired ItaliaLos sistemas de armas autónomas que operan sin un control humano significativo, una vez activados, dependerían de software –que a menudo utiliza algoritmos— así como de insumos de sensores como cámaras, firmas de radar, formas térmicas y otros datos para identificar un objetivo. Una vez localizado el objetivo, dispararían o liberarían su carga sin necesidad de aprobación o revisión por parte de un operador humano. Esto significa que una máquina, y no una persona, determinaría dónde, cuándo y contra qué aplicar la fuerza.

Los sistemas de armas autónomas carecerían de la capacidad para interpretar situaciones complejas y para aproximarse con precisión al juicio y la sensibilidad humanos, elementos esenciales para el uso legítimo de la fuerza en el marco de los derechos a la vida y a la reunión pacífica.

En contra de los principios fundamentales de los derechos humanos, estos sistemas de armas serían incapaces de valorar la vida humana de la manera necesaria para respetar la dignidad de cada persona. Además, los sistemas que dependen de inteligencia artificial probablemente incurrirían en prácticas discriminatorias debido a los sesgos de quienes los desarrollan y a la falta inherente de transparencia del aprendizaje automático.

Los sistemas de armas autónomas también vulnerarían los derechos humanos a lo largo de todo su ciclo de vida, no solo en el momento de su uso. La vigilancia masiva necesaria para su desarrollo y entrenamiento socavaría el derecho a la privacidad. La ausencia de rendición de cuentas asociada a estos sistemas opacos (“cajas negras”) vulneraría el derecho a un recurso efectivo tras un ataque.

«Las personas, ya sean soldados o agentes de policía, a menudo cometen violaciones graves de los derechos humanos, pero sería aún peor sustituirlas por máquinas. Aunque las personas tienen la capacidad de respetar los derechos humanos, las máquinas no poseen la facultad de cumplirlos ni de comprender las consecuencias de sus actos». Opina Docherty.

Christof Heyns, exrelator especial de la ONU sobre ejecuciones extrajudiciales, fue el primer funcionario de Naciones Unidas en alertar sobre los sistemas de armas autónomas, en su informe de 2013 ante el Consejo de Derechos Humanos. «Una amenaza para los derechos humanos» traza cómo el secretario general de la ONU y numerosos organismos y personas expertas de Naciones Unidas han subrayado que el uso de sistemas de armas autónomas supondría amenazas al derecho internacional de los derechos humanos, y algunas voces han abogado para que estos sistemas sean prohibidos.

Más de 120 países se han pronunciado ya a favor de la adopción de un nuevo tratado internacional sobre sistemas de armas autónomas. El secretario general de la ONU, António Guterres, y Mirjana Spoljaric Egger, presidenta del Comité Internacional de la Cruz Roja, han instado a los Estados a «actuar ahora para preservar el control humano sobre el uso de la fuerza», mediante la negociación, antes de 2026, de un instrumento jurídicamente vinculante que establezca prohibiciones y normas sobre estos sistemas.

Los robots asesinos ya dejaron atrás el territorio de la ficción | PerfilLa mayoría de los Estados que apoyan este tratado han abogado por prohibir los sistemas de armas autónomas que, por su naturaleza, operan sin un control humano significativo, o que tienen como objetivo a personas, así como por establecer regulaciones que garanticen que ningún otro sistema de este tipo pueda ser utilizado sin un control humano significativo.

Los países han debatido sobre los sistemas de armas letales autónomas en el marco de la Convención sobre Ciertas Armas Convencionales (CCW, por sus siglas en inglés) en Ginebra desde mayo de 2014, pero sin resultados sustantivos. La principal razón de esta falta de avances en el marco de la CCW es que sus países miembros se rigen por un enfoque de toma de decisiones por consenso, lo que significa que un solo país puede bloquear una propuesta, incluso si todos los demás la apoyan. Un pequeño grupo de potencias militares que están invirtiendo en sistemas de armas autónomas ha explotado este mecanismo para bloquear repetidamente las propuestas de negociación de un instrumento jurídicamente vinculante.

«Las negociaciones de un tratado sobre sistemas de armas autónomas deberían celebrarse en un foro que se rija por un propósito común, adopte decisiones mediante votación, establezca plazos claros y ambiciosos, y esté comprometido con la inclusión», afirmó Docherty.

 

Petición para detener a los robots asesinos de Trump.

Human Rights Watch es cofundadora de la Campaña para la Prohibición de Robots Asesinos, que aboga por un nuevo tratado internacional para prohibir y regular los sistemas de armas autónomas. Esta coalición, compuesta por más de 270 organizaciones no gubernamentales en 70 países, apoya el desarrollo de normas jurídicas y de otro tipo que garanticen un control humano significativo sobre el uso de la fuerza, contrarresten la deshumanización digital y reduzcan los daños automatizados.

🧌La maquinaria bélica yanqui dirigida por trastornados y fanáticos religiosos

Logo Tortuga¿Qué hacen los cascos azules españoles desplegados en Líbano?

 

🐧🌍Comunes digitales y soberanía tecnológica: 📡las alternativas que ya funcionan📥💡

Inicio

Mientras el debate público sobre tecnología oscila entre el tecno-optimismo de Silicon Valley y el pesimismo ludita, hay una realidad que pasa desapercibida: existen infraestructuras tecnológicas construidas y gobernadas por comunidades, sin ánimo de lucro, que funcionan a escala planetaria y que, en muchos casos, superan en calidad y fiabilidad a sus equivalentes corporativos. No son experimentos marginales. Son los cimientos invisibles sobre los que se sostiene buena parte de la economía digital mundial.

Vintage typewriter alphabet Letter E 18796696 PNGste artículo examina cinco de esas experiencias —Linux, Wikipedia, guifi.net, Decidim y Som Energia— no como curiosidades, sino como pruebas empíricas de que otro modelo de desarrollo tecnológico es posible, viable y escalable. Y argumenta que, si queremos que esa posibilidad se convierta en transformación social, la clave está en la educación.

El oligopolio invisible 

Para entender por qué importan los comunes digitales, conviene primero dimensionar el problema que resuelven.

Cinco empresas —Alphabet (Google), Amazon, Apple, Meta y Microsoft— acumulan una capitalización bursátil combinada que supera los 12 billones de dólares (datos de 2024). Controlan las búsquedas en internet (Google: 91 % de cuota global), las redes sociales (Meta: 3.000 millones de usuarios activos mensuales solo en Facebook), el comercio electrónico (Amazon: 37 % de las ventas online en EE. UU.), los sistemas operativos de los teléfonos móviles (Android de Google + iOS de Apple: 99 % del mercado) y la infraestructura de computación en la nube (AWS de Amazon + Azure de Microsoft + Google Cloud: 66 % del mercado).

Esta concentración no es solo un problema económico. Es un problema político. Quien controla la infraestructura digital controla los flujos de información, los algoritmos que determinan qué vemos y qué no, los datos que generamos con cada clic y, en última instancia, las condiciones materiales de la participación democrática. Como señaló la politóloga Shoshana Zuboff en La era del capitalismo de la vigilancia, no somos los clientes de estas plataformas: somos la materia prima.

La pregunta no es si la tecnología transforma la sociedad —eso ya está ocurriendo—, sino quién la gobierna y en beneficio de quién.

Qué son los comunes digitales (y por qué importan)

El concepto de comunes —o commons en inglés— tiene una larga historia. Se refiere a recursos compartidos que una comunidad gestiona colectivamente, sin que sean propiedad privada de nadie ni estén controlados por el Estado. Los pastos comunales medievales, los sistemas de riego gestionados (la vega de Granada y sus sistema de riego, la huerta valenciana) por agricultores o los bancos de pesca regulados por comunidades costeras son ejemplos clásicos.

La economista Elinor Ostrom, primera mujer en recibir el Nobel de Economía (2009), demostró que las comunidades pueden gestionar recursos compartidos de forma sostenible y eficiente, sin necesidad de privatización ni de intervención estatal, siempre que se cumplan ciertos principios de diseño:

  • límites claros,
  • reglas adaptadas al contexto local,
  • participación de los usuarios en la toma de decisiones,
  • mecanismos de resolución de conflictos y
  • capacidad de autoorganización.

Los comunes digitales trasladan esta lógica al ámbito tecnológico. Son software, conocimiento, infraestructuras o plataformas creados y mantenidos colectivamente, con licencias que garantizan su acceso libre y su gobernanza comunitaria. A diferencia de los recursos naturales, los bienes digitales tienen una propiedad económica particular: son no rivales —el hecho de que yo use un programa de software libre no impide que tú lo uses— y su coste de reproducción es prácticamente cero. Esto los convierte en candidatos ideales para la gestión comunal.

El término soberanía tecnológica complementa esta idea. Se refiere a la capacidad de una comunidad —ya sea un barrio, una ciudad, un país o una red global de personas— para controlar las tecnologías de las que depende: entender cómo funcionan, modificarlas según sus necesidades, no depender de una corporación para acceder a ellas y participar en las decisiones sobre su desarrollo. No se trata de autarquía ni de reinventar la rueda, sino de que la dependencia tecnológica no se convierta en subordinación política. A continuación detallamos cinco comunes que funcionan.

1. Linux: el sistema operativo que sostiene internet 

Tux

Linux es un sistema operativo de código abierto —esto es, un programa cuyo código fuente es público y cualquier persona puede leer, modificar y redistribuir— creado en 1991 por Linus Torvalds, entonces un estudiante finlandés de 21 años. Lo que comenzó como un proyecto personal se convirtió en uno de los mayores esfuerzos colaborativos de la historia de la humanidad.

Los números son difíciles de asimilar. Más de 20.000 personas de 1.700 empresas distintas han contribuido al núcleo de Linux (kernel). El resultado es un sistema que, sin pertenecer a ninguna corporación, domina la infraestructura tecnológica global:

  • El 96 % de los servidores web del millón de sitios más visitados del mundo funcionan con Linux.
  • El 85 % de los teléfonos inteligentes usan Android, que está construido sobre Linux.
  • El 100 % de los 500 supercomputadores más potentes del mundo ejecutan Linux.
  • La Estación Espacial Internacional funciona con Linux. Los coches Tesla funcionan con Linux. La infraestructura de Amazon, Google, Facebook y Netflix funciona con Linux.

Dicho de otro modo: el software más importante del planeta no es propiedad de nadie. Es un bien común. Y no solo funciona, sino que es técnicamente superior a sus alternativas privativas en fiabilidad, seguridad y rendimiento para la inmensa mayoría de usos profesionales.

¿Cómo es posible? Porque la producción colaborativa entre iguales —lo que el profesor de Harvard Yochai Benkler denominó producción entre pares basada en el procomún (commons based peer production)— genera incentivos que el mercado no puede replicar: revisión constante del código por miles de ojos expertos, ausencia de obsolescencia programada, adaptabilidad a necesidades locales y una velocidad de innovación que ninguna empresa individual puede igualar.

GNU – Linux lleva 33 años demostrando que la cooperación a gran escala, sin jefes ni accionistas, produce resultados que superan al modelo corporativo.

2. Wikipedia: el conocimiento como bien común 

Wikipedia es la enciclopedia más grande jamás creada. Contiene más de 60 millones de artículos en más de 300 idiomas, escritos y editados por más de 300.000 personas voluntarias. Opera con un presupuesto anual de unos 150 millones de dólares —financiado íntegramente por donaciones— y un equipo técnico de apenas unos cientos de personas. Para ponerlo en perspectiva: la Enciclopedia Británica, con sus 4.000 articulistas profesionales y tres siglos de historia, publicó 120.000 artículos en su última edición impresa. Wikipedia tiene 500 veces más contenido.

Pero lo verdaderamente notable no es el volumen, sino la gobernanza. Wikipedia funciona con un sistema de autoorganización comunitaria que encaja punto por punto con los principios de Ostrom:

  • normas claras sobre qué constituye una fuente fiable,
  • mecanismos de resolución de disputas entre editores,
  • procesos democráticos para elegir administradores,
  • transparencia total (cada edición queda registrada y es reversible) y
  • sanciones graduales para quienes violan las normas.

¿Es perfecta? No. Tiene sesgos de género (solo el 15–20 % de editores activos son mujeres), sesgos lingüísticos (la Wikipedia en inglés es mucho más completa que la de lenguas minoritarias) y es vulnerable al vandalismo. Pero estas son limitaciones conocidas, documentadas por la propia comunidad, y objeto de esfuerzos activos de corrección. Lo relevante es que, con todos sus defectos, Wikipedia lleva 25 años demostrando que una comunidad global de voluntarios puede producir y mantener un recurso de conocimiento de referencia mundial, sin publicidad, sin muros de pago y sin control corporativo.

3. guifi.net: internet como infraestructura comunitaria 

Aquí la cosa se pone tangible. Porque si Linux y Wikipedia demuestran que el software y el conocimiento pueden ser comunes, guifi.net demuestra que la infraestructura física también puede serlo.

guifi.net es una red de telecomunicaciones comunitaria nacida en 2004 en Osona (Cataluña), en una zona rural donde las operadoras comerciales no ofrecían servicio de banda ancha porque no les resultaba rentable. La respuesta de la comunidad fue: «Si no nos dan internet, lo construimos nosotros».

Guifi.netHoy, guifi.net cuenta con más de 40.000 nodos operativos y más de 40.000 kilómetros de fibra óptica desplegada. Es la red comunitaria de telecomunicaciones más grande del mundo. Ofrece conectividad a hogares, empresas y administraciones públicas, y opera bajo el principio de procomún de red: la infraestructura es de titularidad colectiva, y cualquier persona u organización puede conectarse, usarla y ampliarla siempre que respete unas reglas básicas de interconexión abierta.

El modelo económico es ingenioso. guifi.net no es una empresa ni una ONG, sino una fundación que gestiona un bien común. Los operadores locales (pequeñas empresas, cooperativas, asociaciones) pueden ofrecer servicios comerciales sobre la infraestructura compartida, pero la red en sí no es propiedad de nadie. Es como una carretera pública sobre la que circulan distintos transportistas.

Lo que guifi.net demuestra es crucial: no solo el software inmaterial puede ser un común, sino también el hardware, los cables, las antenas, la infraestructura pesada. Y cuando una comunidad controla su propia conectividad, deja de depender de las decisiones de una corporación sobre dónde invertir y dónde no, qué velocidad ofrecer, a qué precio y con qué condiciones.

Nodos en el mundo guifi.net

Zone name Operatiu Planned Building Testing Inactive Total
Africa 8 62 1 4 1 78
America 20 215 5 13 1 258
Asia 11 22 2 0 0 35
Australia 0 1 0 0 0 1
Europe 37.590 22.140 469 659 8.161 69.627
Ukraine-test 0 1 0 0 0 1
37.629 22.441 477 676 8.163 70.000

4. Decidim: democracia participativa con código abierto 

Decidim (del catalán, “decidimos”) es una plataforma digital de participación democrática de código abierto, nacida en el Ayuntamiento de Barcelona en 2016. Permite a cualquier institución u organización crear procesos participativos: presupuestos participativos, consultas ciudadanas, debates públicos, recogida de propuestas, asambleas digitales y procesos de rendición de cuentas.

Lo que distingue a Decidim de otras plataformas de participación es su arquitectura política. No es solo una herramienta técnica: es un proyecto explícitamente comprometido con la democracia radical. Su código es libre (cualquiera puede auditarlo, modificarlo y usarlo), su gobernanza es comunitaria (las decisiones sobre el desarrollo del software se toman en asambleas abiertas llamadas Metadecidim) y su diseño incorpora deliberadamente salvaguardas contra la concentración de poder: transparencia, trazabilidad de todas las decisiones y resistencia a la manipulación.

Hoy, más de 400 instituciones en todo el mundo usan Decidim: desde el Ayuntamiento de Barcelona y el de Helsinki hasta la Comisión Europea, gobiernos regionales, universidades, cooperativas y movimientos sociales. En Barcelona, más de 70.000 personas han participado en procesos a través de la plataforma.

Decidim encarna un principio que el filósofo francés Bernard Stiegler llamó el carácter farmacológico de la tecnología —del griego phármakon, que significa simultáneamente remedio y veneno—:

la misma tecnología digital que permite la vigilancia masiva y la manipulación algorítmica puede, si se diseña y gobierna de otro modo, convertirse en herramienta de profundización democrática. La tecnología no es buena ni mala por naturaleza; lo que importa es quién la diseña, para qué y bajo qué reglas. 

5. Som Energia: energía renovable y cooperativa 

Som Energia (“Somos energía” en catalán) es una cooperativa de energía verde sin ánimo de lucro, fundada en 2010 en Girona. Sus más de 80.000 socias y socios —que son a la vez propietarios y usuarios— producen y comercializan electricidad 100 % renovable.

El modelo es sencillo y poderoso: cada socia aporta una cuota de capital (100 euros, recuperables si se da de baja), paga la electricidad que consume y participa en la gobernanza de la cooperativa según el principio de «una persona, un voto», independientemente del capital aportado. Los beneficios se reinvierten en nuevas instalaciones renovables: placas solares, parques eólicos, plantas de biogás.

Som Energia no es un caso aislado. Forma parte de un movimiento europeo de comunidades energéticas que está reconfigurando el sector eléctrico desde abajo. La Directiva Europea de Energías Renovables (2018/2001) reconoce explícitamente el derecho de la ciudadanía a producir, consumir, almacenar y vender su propia energía renovable. En Alemania, las cooperativas energéticas representan casi el 40 % de la capacidad renovable instalada. En Dinamarca, cooperativas ciudadanas fueron las pioneras de la energía eólica en los años 80.

Lo que Som Energia demuestra es que el modelo cooperativo funciona incluso en sectores intensivos en capital como la energía. Y que la transición energética no tiene por qué significar simplemente sustituir a Repsol por Tesla: puede significar que la energía sea un bien común, gestionado democráticamente por quienes la consumen.

El patrón: por qué funcionan 

Estos cinco casos son muy diferentes entre sí: software, conocimiento, telecomunicaciones, democracia digital, energía. Pero comparten una estructura común que explica su éxito:

1. Gobernanza comunitaria con reglas claras. Todos aplican, de forma más o menos explícita, los principios de Ostrom: normas de acceso y uso definidas colectivamente, mecanismos de resolución de conflictos, capacidad de los usuarios para participar en las decisiones y sanciones para quienes incumplen. 

2. Código abierto o infraestructura abierta. La transparencia técnica es condición necesaria para la soberanía tecnológica. Si no puedes ver cómo funciona un sistema, no puedes gobernarlo. Linux, Wikipedia, Decidim y guifi.net son radicalmente transparentes. Som Energia lo es en su gobernanza económica.

3. Federación, no centralización. Ninguno de estos proyectos funciona con una estructura jerárquica centralizada. Linux se desarrolla de forma distribuida entre miles de colaboradores. Wikipedia tiene ediciones independientes por idioma. guifi.net es una red de redes locales. Decidim se despliega como instancias autónomas. Som Energia es una cooperativa con grupos locales. Esta estructura federada es lo que les da resiliencia: no tienen un punto único de fallo.

4. Motivación no exclusivamente económica. Las personas que contribuyen a estos proyectos lo hacen por razones diversas: aprendizaje, reputación profesional, compromiso político, sentido de comunidad, satisfacción intrínseca. Esto no significa que sean «gratis» (todos necesitan financiación), sino que su motor principal no es la maximización del beneficio privado, y eso los hace más robustos ante las presiones del mercado.

5. Escala demostrada. No son prototipos ni utopías. Linux sostiene el 96 % de la web mundial. Wikipedia es la quinta web más visitada del planeta. guifi.net tiene más nodos que muchas operadoras comerciales regionales. Decidim lo usan más de 400 instituciones. Som Energia tiene 80.000 socios (y nacida Gerona tiene grupos locales de socios en Granada, Costa Granadina, Sevilla, Málaga). Funcionan a escala real, con usuarios reales, durante años o décadas.

Lo que falta: la brecha entre lo posible y lo real 

Si estas alternativas existen, funcionan y son escalables, ¿por qué no son hegemónicas? ¿Por qué la mayoría de la población sigue usando Windows, buscando en Google, comunicándose por WhatsApp y comprando electricidad a Iberdrola?

La respuesta no es técnica. Es política y cultural.

Primero, hay un problema de poder económico. Las grandes corporaciones tecnológicas invierten miles de millones en crear ecosistemas cerrados que generan dependencia (lock-in): si usas Gmail, es más fácil usar Google Drive, que te lleva a Google Docs, que te lleva a Android, que te lleva a Google Play. Migrar de un ecosistema corporativo a alternativas libres tiene costes de transición reales, aunque sean temporales.

Segundo, hay un problema de desconocimiento. La inmensa mayoría de la población no sabe que Linux existe, no sabe que guifi.net es posible, no sabe que puede ser socia de una cooperativa energética. Y no lo sabe porque el sistema educativo no se lo ha enseñado.

Y aquí llegamos al argumento central de este artículo.

La educación como infraestructura de transformación 

Si los comunes digitales demuestran que otro modelo tecnológico es posible, la pregunta inmediata es cómo hacer que esa posibilidad se convierta en realidad amplia. Y la respuesta, aunque no sea la más espectacular, es probablemente la más sólida: educación.

No hablo de educación como eslogan vacío. Hablo de cambios concretos en lo que enseñamos, cómo lo enseñamos y para qué lo enseñamos.

Primero: alfabetización tecnológica real, no instrumental. En la mayoría de los colegios e institutos, la «competencia digital» se reduce a saber usar procesadores de texto, hojas de cálculo y presentaciones —es decir, a saber usar los productos de Microsoft o Google—. Esto no es alfabetización tecnológica; es adiestramiento como consumidores. Una alfabetización tecnológica real incluiría entender qué es el software libre y por qué importa, saber qué hace una aplicación con tus datos, conocer alternativas a las plataformas corporativas y tener nociones básicas de cómo funciona internet (no para ser ingenieros, sino para ser ciudadanos informados, igual que enseñamos biología sin pretender que todos sean médicos).

Segundo: enseñar cooperación, no solo competición. Nuestro sistema educativo sigue estructurado, en gran medida, alrededor de la evaluación individual y la competencia entre estudiantes. Pero los cinco ejemplos que hemos visto —Linux, Wikipedia, guifi.net, Decidim, Som Energia— son logros colectivos. Nadie construyó Linux solo. Nadie escribió Wikipedia solo. Si queremos que las personas sean capaces de construir y sostener comunes, necesitamos que desde la escuela practiquen la colaboración, la deliberación, la toma de decisiones colectiva y la gestión de conflictos. No como contenido teórico, sino como método pedagógico.

Tercero: enseñar gobernanza de lo común. Los principios de Ostrom —cómo se gestiona un recurso compartido sin que se destruya ni se privatice— deberían ser parte de la formación básica de cualquier ciudadana, igual que lo son las nociones de democracia representativa. Si una comunidad de adolescentes puede gestionar un huerto escolar con reglas acordadas colectivamente, está aprendiendo los mismos principios que permiten que funcione guifi.net o Wikipedia. No hace falta esperar a la universidad para entender qué es un bien común y cómo se cuida.

Cuarto: hacer visibles las alternativas. Uno de los efectos más perversos del oligopolio tecnológico es la invisibilización de las alternativas. Cuando un niño de 12 años cree que «internet» es sinónimo de Google y que «comunicarse» es sinónimo de WhatsApp, el problema no es tecnológico: es de imaginación política. Las escuelas podrían usar software libre en sus aulas. Podrían contribuir a Wikipedia como ejercicio educativo. Podrían tener sus propias instancias de Decidim para tomar decisiones escolares. No como gesto testimonial, sino como práctica que demuestra que otro modo de hacer es real.

Reflexión final: la fuerza social necesaria 

Los cinco ejemplos que hemos recorrido en este artículo son la prueba de algo que a menudo se descarta como ingenuo: que la cooperación voluntaria entre personas libres, organizada con reglas claras y tecnología abierta, puede producir resultados que igualan o superan a los del capital concentrado y a los de la burocracia estatal.

Linux no necesitó un oligopolio para convertirse en el sistema operativo dominante del planeta. Wikipedia no necesitó un consejo de administración para reunir todo el conocimiento humano. guifi.net no necesitó a Telefónica para llevar internet a zonas rurales. Decidim no necesitó a Facebook para crear espacios de deliberación democrática. Som Energia no necesitó a Iberdrola para generar electricidad limpia.

Si se ha podido con el software, con el conocimiento, con las telecomunicaciones, con la democracia digital y con la energía, ¿por qué no con la alimentación, la vivienda, la salud, el transporte, la educación?

La respuesta honesta es: se puede, pero no se podrá sin una masa crítica de personas que sepan que es posible, que entiendan cómo funciona y que estén dispuestas a sostenerlo. Y esa masa crítica no surge espontáneamente. Se construye. Se construye con educación, desde las etapas más tempranas, que enseñe a cooperar y no solo a competir; que muestre alternativas y no solo productos; que forme ciudadanas y no solo consumidores.

No estamos hablando de una revolución violenta. Estamos hablando de algo más profundo y más lento: una transformación cultural que cambie las condiciones de posibilidad. Los comunes digitales ya han demostrado que funciona. Lo que necesitan ahora no es más tecnología, sino más personas que sepan construirlos, usarlos y defenderlos.

El filósofo anarquista Piotr Kropotkin escribió en 1902, en El apoyo mutuo, que la cooperación —no la competencia— es el factor decisivo en la evolución de las especies más exitosas. Más de un siglo después, Linux, Wikipedia, guifi.net, Decidim y Som Energia le dan la razón con datos, código y fibra óptica.

La pregunta ya no es si las alternativas son posibles. La pregunta es si seremos capaces de educar a las generaciones que las conviertan en norma.

El artículo y el autor

Este artículo se basa en el paper académico «Peaceful Anarcho-Accelerationism: Decentralized Full Automation for a Society of Universal Care» (Garrido-Merchán, 2026), disponible en acceso abierto.

Eduardo C. Garrido-Merchán es investigador en Inteligencia Artificial y profesor en la Universidad Pontificia Comillas (ICAI). Su investigación explora la intersección entre tecnología, ética y transformación social.

☮️Contra la guerra del Capital, ahora también en Irán

🖌La batalla decisiva para la fase final de la Guerra Total ha comenzado:  Objetivo Irán 

 

🕹Los controles de IA🤖llegan a Firefox🦊

tylized Firefox AI controls interface highlighting the option to block AI enhancements with dropdown controls for AI features.

Free L Letter Vector Art - Download 1,544+ L Letter Icons & Graphics ...a IA está cambiando la web y la gente quiere cosas muy diferentes de ella. 👍🏼Hemos escuchado de muchos que no quieren tener nada que ver con la IA👏🏽. También hemos escuchado a otros que quieren herramientas de IA que sean realmente útiles. Escuchar a nuestra comunidad, junto con nuestro compromiso continuo de ofrecer opciones, nos llevó a crear controles de IA.

Comenzando con Firefox 148, que se lanzará en febrero. 24, encontrarás una nueva sección de controles de IA dentro de la configuración del navegador de escritorio. Proporciona un lugar único para bloquear las funciones generativas de IA actuales y futuras en Firefox. También puedes revisar y administrar funciones de IA individuales si decides usarlas. Esto te permite usar Firefox sin IA mientras continuamos creando funciones de IA para aquellos que las desean.

Un lugar para administrar sus preferencias de IA

Firefox ofrece funciones de IA para mejorar la navegación diaria. Estas funciones son opcionales y son fáciles de activar o desactivar.

En el lanzamiento, los controles de IA permiten administrar estas funciones individualmente:

  • Traducciones, que ayudan a navegar por la web en la lengua de confianza.
  • Texto alternativo en archivos PDF, que agrega descripciones de accesibilidad a las imágenes en páginas PDF.
  • Agrupación de pestañas mejorada con IA, que sugiere pestañas relacionadas y nombres de grupos.
  • Vistas previas de enlaces, que muestran los puntos clave antes de abrir un enlace.
  • Chatbot AI en la barra lateral, que le permite usar el chatbot elegido mientras se navega, incluidas opciones como Anthropic Claude, ChatGPT, Microsoft Copilot, Google Gemini y Le Chat Mistral.

Puedes optar por utilizar algunos de estos y no otros. Si no deseas utilizar las funciones de IA de Firefox en absoluto, puedes activar la opción Bloquear mejoras de IA. Cuando esté activado, no verá ventanas emergentes ni recordatorios para usar las funciones de IA existentes o futuras.

Una vez que configures tus preferencias de IA en Firefox, permanecerán vigentes en todas las actualizaciones. También puedes cambiarlos cuando quieras.

 

🤖Inteligencia artificial, sistemas militares y derechos humanos✊🏽

Pere Brunet, Centro Delàs de Estudios para la Paz

Free L Letter Vector Art - Download 1,544+ L Letter Icons & Graphics ...os sistemas de inteligencia artificial (IA en lo que sigue) han experimentado un auge espectacular en los últimos años, con aplicaciones que van desde el diagnóstico precoz en medicina hasta la robótica moderna, pasando por campos tan diversos como el de la traducción automática, los juegos por ordenador o la previsión del impacto del cambio climático. Los vemos también en la mejora automática de las fotos que realizamos en nuestros móviles, en los sistemas publicitarios que nos sugieren otras posibles compras, en los anuncios que nos proponen viajes y hoteles y en sistemas de combate. Pero, aunque cubiertas de un manto de panacea, no son lo que parecen.

La inteligencia artificial: luces y sombras

La hablar de IA nos referimos a aplicaciones informáticas diseñadas con el fin de actuar de manera similar a las personas humanas en ámbitos específicos. Observemos que se trata de actuar, no de pensar o razonar, y de hacerlo en ámbitos muy concretos. Una IA diseñada para mejorar fotos no sirve en traducción, ni viceversa. Es por tanto mucho más limitada que la inteligencia humana, y es dudoso que la “I” sea un término adecuado a lo que nos está llegando.

Tras un auge inicial de los algoritmos de IA basados en conocimiento y reglas, durante las últimas décadas la inteligencia artificial se ha ido materializando básicamente en nuevos sistemas denominados de aprendizaje profundo o IA basada en datos, que son los que trataremos en adelante. En otras palabras, hemos pasado de algoritmos y reglas que alguien programaba y entendía, a sistemas automáticos de IA que se auto configuran en base a un volumen ingente de datos, el llamado “Big Data”. Esta IA basada en datos trabaja en dos fases: la primera de aprendizaje o entrenamiento y la segunda, de uso (en algunos casos, ambas fases interaccionan de manera que los sistemas continúan aprendiendo durante su uso). La primera es altamente costosa y laboriosa y requiere gran potencia de cálculo, mientras que la segunda puede ejecutarse en ordenadores personales o teléfonos móviles y es eficiente y rápida. La fase de aprendizaje es invisible, lenta y desconocida, mientras que la de uso parece casi trivial si olvidamos el volumen de trabajo preparatorio de entrenamiento. Podríamos compararlas al proceso de aprendizaje de los bebés y al momento en que empiezan ya a hablar.

Uno de los desarrollos sorprendentes de la IA basada en datos, que le dieron el empuje definitivo, nos llegó de la mano de los traductores automáticos. El investigador Franz Josef Och fue pionero en diseñar los primeros algoritmos en 2003, y luego Google los incorporó entre los años 2005 y 2007. Estos nuevos traductores funcionan tras aprender de ingentes cantidades de datos y funcionan razonablemente bien.

En este momento vemos una fuerte ola de entusiasmo con la IA en muchas áreas de la actividad humana. Pero estos sistemas carecen de conocimientos de sentido común y los sensores que puedan tener ni «perciben» la realidad ni pueden interactuar con ella. No pueden gestionar situaciones imprevistas ni aprender a partir de la experiencia. Durante los primeros años de vida, el cerebro de los niños va madurando en base a la interacción constante con el entorno y las personas. Los sistemas de IA, en cambio, se nutren de información congelada en el tiempo, fría y descontextualizada. Los niños observan por ejemplo que los pájaros cantan a la salida del sol. Un sistema de IA puede perfectamente «deducir», en cambio, que el canto de los pájaros es el que desencadena la salida del sol.

Por otra parte,

  • El aprendizaje en los sistemas de IA es imperfecto y sesgado, ya que es imposible disponer de conjuntos de datos totalmente imparciales.
  • Los sistemas de IA se equivocan. El porcentaje de error depende del tipo de problema, de la calidad de los datos de aprendizaje, de la estructura de la red neuronal y de la calidad del proceso de entrenamiento, pero nunca es nulo.
  • Los resultados de la IA no son explicables, ni por parte de los expertos. Al no serlo, la rendición de cuentas se hace casi imposible.
  • El entrenamiento de los sistemas de IA es muy costoso en términos ecológicos y de energía, como veremos.

Encontramos IA en los sistemas generativos que crean texto e imagen, en el diagnóstico médico, en informaciones falsas que nos llegan, en mensajes electorales hechos a medida, en sistemas de control social, en sistemas de armamento e incluso en armas autónomas que pueden matar sin intervención humana. En algunos de estos casos, sus posibles errores son poco preocupantes y fáciles de corregir. En otros pueden afectar a personas concretas en situaciones críticas con efectos graves o letales y sin rendición alguna de cuentas.

¿Derechos humanos o negocio?

Como hemos visto, los sistemas de IA actuales no son realmente inteligentes, sino que simplemente nos pueden ayudar en la realización de tareas muy concretas. Por otra parte, sus errores son inevitables: son sistemas que se equivocan y que por tanto requieren que comprobemos y supervisemos sus resultados. Sus fallos (también llamados alucinaciones) pueden ser disparatados y en todo caso imposibles de explicar incluso por parte de los expertos. Y, finalmente, su entrenamiento requiere cantidades ingentes de datos y de energía.

En este contexto, ¿tiene sentido usar aplicaciones basadas en IA? ¿en qué casos deberíamos denunciarlas? ¿son compatibles la IA y los derechos humanos? ¿la IA nos va a controlar?

No debemos olvidar que los sistemas de IA son herramientas, que deberíamos poder decidir si usamos o no y en qué casos las utilizamos. De la misma manera que no vamos por la calle con las tijeras de la cocina colgadas del cuello, debemos defender nuestro derecho a utilizar únicamente la IA cuándo queramos y la consideremos necesaria. Deberíamos usar internet, los móviles y la IA de la misma manera que utilizamos el abrelatas o el peine.

En algunos casos, como el de la traducción automática o el de la mejora de fotos, la IA puede sernos ciertamente útil. Pero tenemos derecho a ser informados de que estamos usando una aplicación basada en IA (así lo indica por ejemplo la ley europea de regulación de la inteligencia artificial) y nunca debemos pasar por alto la supervisión de sus resultados. El hábito de revisar los resultados de las traducciones deberíamos extenderlo a todos los ámbitos que incorporan sistemas de aprendizaje máquina.

Y el uso cotidiano de la IA, cada vez más inevitable, no debe detener la denuncia. Porque la IA es un gran negocio, basado en el uso ilícito de cantidades ingentes de datos de la nube y redes sociales, que ignora los derechos de privacidad de las personas utilizando su información sin darles ni tan solo una modesta compensación económica. Porque los sistemas de aprendizaje y los centros de datos suponen un dispendio enorme de energía y agua, en una espiral que requeriría una reflexión urgente a nivel global para ver cómo pasamos de la actual IA ecocida a nuevos esquemas más humanos y ecológicos. ¿Tiene algún sentido mantener el crecimiento imparable de la IA actual, cuando vemos su escandalosa ineficiencia? ¿Sería posible diseñar otra IA, más eficiente, respetuosa y humana? ¿Cómo es que los servicios de las aplicaciones basadas en esta IA ecocida son gratuitos? ¿No será que nos están comprando a nosotros?

Los expertos en IA reconocen y estudian sus logros, pero también advierten de sus limitaciones (sesgos, errores, falta de explicabilidad) y entienden que estamos en una fase histórica inicial que será superada con la llegada de nuevos paradigmas que la hagan más “I” y menos “A”. Con nuevos sistemas que dejen atrás los actuales métodos de fuerza bruta, acercándose más a nuestra estructura cerebral. Porque nuestro cerebro es eficiente energética y ecológicamente, aprende con un monto mucho más reducido de datos y va moldeándose plásticamente en base a la información de los sentidos y a nuestra interacción con el entorno. Y es que, a pesar de lo que nos dicen y de la fascinación social, la IA se encuentra en la edad de piedra.

El problema, en todo caso, es que estas opiniones matizadas de los expertos no llegan a la sociedad. Y es que no interesan. La IA actual no incluye los derechos humanos como objetivo porque se basa en el negocio y no en las personas. Las empresas dominan y los gobiernos se doblegan a los intereses del mercado. La regulación europea de la IA que aprobó el Parlamento Europeo, fue recortada convenientemente por la influencia de los lobbies empresariales hasta llegar a la versión final que aprobó el Consejo. Y las voces que nos llegan son las de los tecnotraficantes, que, desconocedores tanto de la tecnología como de las limitaciones tecnológicas de la IA, nos venden cuentos de hadas sobre sus virtudes. La regulación y los derechos humanos no interesan porque limitarían el negocio.

La inteligencia artificial en sistemas militares y de combate

Hasta ahora, en los conflictos bélicos, se suponía que existía una deliberación en relación a los objetivos, por parte de personas responsables, antes de iniciar cualquier ataque. Pero con la entrada de los sistemas de IA, aparecen dos nuevos escenarios. O bien vemos sistemas automáticos que escogen los objetivo a atacar, objetivos que determinadas personas deberán aprobar antes de que se proceda al ataque, o bien nos encontramos con sistemas autónomos de combate que escogen objetivos a atacar y proceden a atacarlos sin intervención humana alguna. Los dos casos son objetables, aunque en distinto grado. En el primer caso debido al sesgo de automatización, que es la tendencia humana a dar por bueno aquello que nos proponen las máquinas. En el segundo, porque implica que las decisiones letales las toman entes no humanos, en este caso basados en IA.

Los sistemas de IA aprenden, captan y actúan. Pero pueden ser imprevisibles y no siempre lo hacen de la manera esperada. En este sentido, la escalada hacia los sistemas armados autónomos con IA es ética y jurídicamente inaceptable, porque delegar en una máquina las decisiones de matar va en contra de la dignidad humana y de los derechos de las personas. Se pretende argumentar diciendo que estos sistemas tienen la capacidad de reducir el número de tropas combatientes, que reducen las bajas propias, que permiten hacer guerras de bajo coste. Pero todo ello nos lleva a cuestionar si evitar el riesgo para la vida de los combatientes está por encima de la vida de las victimas civiles. En definitiva, si hay vidas que tienen más valor que otras.

Los sistemas de combate basados en IA desconocen emociones tan singulares como la empatía, la piedad o la culpa. Lo mismo podemos decir sobre la capacidad para distinguir y evaluar entre ordenes lícitas o ilícitas o la capacidad para interpretar un contexto y evaluarlo en cálculos basados en valores. Sus errores, inevitables, son vidas humanas. La supervisión humana es baja o inexistente, y tanto su operación como los daños generados quedan bajo secreto militar. No existe explicación posible de los desastres que producen sus errores, y la rendición de cuentas es inexistente.

Por todo ello, tanto la campaña Stop Killer Robots como el mismo Secretario General de Naciones Unidas defienden que atentan contra la dignidad de las personas y que deben ser prohibidos por la legislación internacional.

De la dominación a la vida

La futura IA no será como los primitivos sistemas actuales, pero siempre será diferente de la humana. Porque el desarrollo mental humano se nutre de las interacciones con el entorno. Una corporeidad perceptiva y motora y una intencionalidad que no existe en las inteligencias artificiales no corpóreas.

El gran debate pendiente en el campo de la IA incluye la huella ecológica, sus objetivos concretos y todos los aspectos éticos asociados. ¿Seremos capaces, desde la ciudadanía, de exigir una nueva IA ética que deje atrás la dominación y el control, que surja de las necesidades y derechos concretos de las personas y que a la vez sea ecológicamente respetuosa? ¿Llegaremos a hablar de una IA feminista, postcapitalista y ecologista?

Debemos tener en cuenta que quien nos puede dominar son personas, no máquinas. Y que el futuro requiere grandes dosis de regulación global, ética, educación y conciencia crítica.

Bibliografía

  • Pere Brunet, Tica Font y Joaquín Rodríguez (2021), “Robots Asesinos: 18 preguntas y respuestas”, Centro Delàs de Estudios para la Paz:
  • Ramón López de Mántaras y Pere Brunet (2024), “Qué es la inteligencia artificial”, Revista Papeles, núm. 164 (págs. 1-9).
  • Pere Brunet (2024), “Regulación de la inteligencia artificial” Revista Papeles, núm. 164 (págs. 45-54):

Este artículo se publicó en Libre Pensamiento nº 118. Verano 2024.

✊🏽Por la defensa del Escudo Social Básico🛡

🇨🇱Gabriela Mistral y Sandino📚

🤖Inseguridad artificial: cómo las herramientas de IA comprometen la confidencialidad👁

Green background with bitmap elements depicting artificial intelligence icons and words.

En la primera de nuestra serie de blogs de tres partes sobre las dudosas prácticas de seguridad digital que subyacen a las herramientas avanzadas de inteligencia artificial (IA), analizamos cómo los modelos de lenguaje extenso (LLM) pueden poner en peligro la confidencialidad de los datos de las personas.

Graphic Design I Paper & Party Supplies etna.com.pendependientemente de lo que se piense sobre las promesas o los peligros de la IA, cada vez es más difícil ignorar que estas herramientas están plagadas de evidentes vulnerabilidades de seguridad. Desde exponer los datos de los usuarios hasta facilitar ataques informáticos, desde socavar la integridad de la información hasta crear vulnerabilidades en la cadena de suministro, las herramientas de IA están respaldadas y socavadas por prácticas de seguridad poco fiables. Como vamos a explorar en esta serie, esto tiene graves consecuencias para la confidencialidad de nuestros datos, para la integridad de la información, y para el acceso y la disponibilidad de los sistemas, todos los problemas que los derechos humanos, el respeto de enfoque puede ayudar a resolver.

¿Por qué necesitamos hablar de IA y seguridad digital?

Es importante tener en cuenta que en estos días cuando hablamos de ‘IA avanzada’ herramientas tales como los chatbots, la imagen de los generadores, y ‘AI agentes,’ lo que estamos hablando en realidad son de sistemas construidos en Modelo extenso de lenguaje (LLMs). Los LLM son un tipo de modelo de aprendizaje automático entrenado en enormes cantidades de datos, incluidos texto, imágenes y video, que pueden generar contenido en respuesta a solicitudes y realizar tareas complejas con diversos grados de confiabilidad.

Para analizar los riesgos de seguridad específicos asociados con los LLM, es útil utilizar la tríada confidencialidad-integridad-disponibilidad (CIA) , un modelo ampliamente utilizado que guía la forma en que las organizaciones manejan la seguridad de los datos. Cuando se aplica a los LLM, este marco nos ayuda a comprender sus riesgos para la seguridad, además de mostrar por qué las salvaguardas de los derechos humanos son esenciales para mitigar esos riesgos. Por ejemplo, como veremos a continuación, la tríada de la CIA es una forma de comprender cómo las LLM pueden poner en peligro la seguridad individual de las personas y sus derechos digitales, porque ¿qué sucede con la confidencialidad de los datos que ingresa en un chatbot cuando hay una violación de datos? Pero también nos permite examinar cómo los LLM ponen en peligro la seguridad digital de manera más amplia y sistémica; como discutiremos en las partes dos y tres de esta serie, esto incluye comprometer la integridad de la información a través de la «pérdida de inteligencia artificial» o concentrar el poder del mercado de tal manera que se socave la disponibilidad de dichos sistemas.

¿Cómo puede comprometer la IA la confidencialidad?

Según el Instituto Nacional de Estándares y Tecnología de EE. UU. (NIST), confidencialidad significa «[p]reservar restricciones autorizadas sobre el acceso y la divulgación de la información, incluidos los medios para proteger la privacidad personal y la información patentada.» En otras palabras, ninguna persona no autorizada debería poder acceder a tu información. Esto es especialmente importante dado que las personas están utilizando herramientas basadas en LLM para todo, desde terapia y asesoramiento médico hasta acompañamiento, mientras que las empresas, los gobiernos y las organizaciones sin fines de lucro están integrando estas herramientas en flujos de trabajo que tratan con datos confidenciales.

Las fallas de seguridad que afectan a las herramientas basadas en LLM suelen ser bastante básicas. Por ejemplo, aunque compañías encallecidas como Microsoft y Google ofrecen autenticación multifactor( MFA), muchas aplicaciones populares de IA tienen una protección de cuenta nativa limitada, lo que significa que las cuentas las pueden secuestrar fácilmente los atacantes. Las violaciones de datos, ya sean accidentales o intencionadas, también suceden con regularidad. En enero de 2025, Wiz Research descubrió una base de datos de acceso público perteneciente a la empresa china DeepSeek, que contenía el historial de chat de personas, claves secretas, detalles del backend y otra información altamente confidencial. Y hace apenas tres meses, un atacante utilizó un proveedor de análisis externo para piratear OpenAI, filtrando información privada que incluía nombres, direcciones de correo electrónico, datos de ubicación, sistema operativo e información del navegador.

Incluso las herramientas que prometen aumentar la seguridad pueden, de hecho, socavarla. Investigadores de seguridad de Koi descubrieron recientemente cómo una serie de Urban Cyber Security Inc. Las extensiones del navegador de la red privada virtual (VPN), muchas de las cuales prometían «protección de IA» para datos confidenciales, en realidad estaban recopilando datos sobre todas las solicitudes ingresadas en LLM, las respuestas recibidas y las marcas de tiempo, metadatos e información sobre las herramientas de IA utilizadas por ocho millones de personas. Según Koi, Urban Cyber Security Inc. luego estaba compartiendo esta información con corredores de datos.

¿Cuáles son los riesgos de privacidad más amplios asociados con la IA?

El New York Times actualmente está demandando a Open AI por infracción de derechos de autor, alegando que las personas están usando ChatGPT para eludir su muro de pago en línea. Para probar esto, el medio de comunicación quiere acceso a más de 20 millones de conversaciones privadas de ChatGPT. Cualesquiera que sean los méritos del caso, otorgar acceso a estas conversaciones sería una gran violación de la privacidad; sin embargo, ni siquiera es un caso aislado, ya que las solicitudes de que los registros de chat de IA estén disponibles en los procedimientos legales son cada vez más frecuentes.

Uno de los principales factores de riesgo aquí es que el cifrado de extremo a extremo (E2EE) no es una característica estándar, ni siquiera necesariamente disponible, para chatbots como ChatGPT o Gemini, lo que significa que los historiales de chat de las personas enfrentan exposición. La E2EE es fundamental para proteger los derechos humanos, incluida la privacidad. Además del problema de que las plataformas de chatbot no cifran los historiales de chat, los «agentes» o asistentes de IA basados en LLM, a nivel del sistema operativo o de la aplicación, están socavando la promesa de seguridad de E2EE.

En abril de 2024, Meta lanzó su chatbot de IA, Meta AI, para WhatsApp, que usa E2EE, y no hay opción para eliminarlo. Esto significa que, a solicitud de otro usuario y sin su consentimiento, Meta AI puede acceder y resumir los mensajes entre usted y ese usuario, y los resúmenes pasan a través de los servidores de Meta. Como explica la Fundación de la Frontera Electrónica (Electronic Frontier Foundation), cuando la persona con la que está chateando le hace una pregunta a Meta AI, «esa parte de la conversación, que ambos pueden ver, no está encriptada de extremo a extremo y se puede utilizar para el entrenamiento de IA.» Este es un gran paso en la dirección equivocada. Si bien siempre ha existido un ligero riesgo para que su correspondencia de WhatsApp permanezca privada (por ejemplo, la persona con la que está chateando podría hacer una captura de pantalla o copiar el contenido cifrado, o denunciar sus mensajes a WhatsApp por supuestas violaciones de las pautas), Meta AI elimina la expectativa de privacidad por defecto.

WhatsApp afirma que, si no deseas que Meta AI resuma tus conversaciones compartidas, todo lo que hay que hacer es activar la función avanzada de privacidad de chat. Pero trasladar la responsabilidad a las personas no está muy bien, especialmente porque esta función debe activarse de forma manual e individual por chat; no hay una forma fácil y sencilla de aplicarla automáticamente en todas las conversaciones. Integrar Meta AI de forma predeterminada, diluyendo las promesas de privacidad y seguridad de WhatApp en el proceso, es parte de una tendencia más amplia de que las herramientas basadas en LLM sean obligatorias para las personas con o sin su consentimiento.

¿Cuáles son los peligros de los agentes (dobles) de la IA?

Junto con la integración de las nuevas funciones de IA en las aplicaciones existentes, el software de ‘IA agentica’ que funciona a nivel de sistema operativo también está creando nuevos riesgos. Los entusiastas de la IA elogian la integración de LLM en todas las facetas de nuestras vidas, defendiendo la adopción generalizada de agentes de IA capaces de ejecutar comandos en nuestro nombre, ya sea reservando vuelos, enviando mensajes a posibles parejas románticas o jugando en el mercado de valores.

Esto es lo que Meredith Whittaker, presidenta de Signal Foundation, llama el «problema del permiso de root», por el cual otorgar a los agentes de IA acceso total a nuestros sistemas y datos, incluidos los «recuerdos» de nuestras interacciones, abre una gran cantidad de oportunidades de ataque e incluso puede socavar las plataformas E2EE. Simon Willison ha enmarcado este problema como una trifecta letal en la que los agentes de IA tienen acceso a datos privados, obtienen exposición a contenido que no es de confianza y pueden comunicarse externamente para transmitir sus datos. Por ejemplo, los agentes de IA son susceptibles a ataques de inyección inmediata, en los que los atacantes engañan al agente de IA para que haga algo que no pretendías que se hiciera, como exponer los detalles de tu tarjeta de crédito. Estos riesgos se están desarrollando actualmente en tiempo real gracias a OpenClaw, un software asistente de IA de código abierto y autohospedado que, según resultó, permitió a miles de personas configurar agentes de IA con configuraciones de seguridad abismales.

¿Qué soluciones de seguridad se han sugerido?

Hasta la fecha, las medidas de seguridad implementadas para las herramientas basadas en LLM no han seguido el ritmo de los crecientes riesgos. En su respuesta a la solicitud de historiales de chat del The New York Times, Open AI indicó que está trabajando en «cifrado del lado del cliente para sus mensajes con ChatGPT»—, pero incluso aquí la compañía insinúa implementar «sistemas totalmente automatizados para detectar problemas de seguridad en nuestros productos», lo que suena muy parecido al escaneo del lado del cliente (CSS). CSS, que implica escanear el contenido en el dispositivo de un individuo en busca de algún tipo de material objetable, antes de enviarlo a través de una plataforma de mensajería cifrada, es una propuesta de perder-perder que socava el cifrado, aumenta el riesgo de ataque y abre la puerta a la fluencia de la misión.

Por el contrario, la comunidad de código abierto ha logrado avances positivos al priorizar la confidencialidad. MapleAI de OpenSecret admite un chatbot de IA cifrado de extremo a extremo y multidispositivo, mientras que Moxie Marlinspike, coautor del protocolo E2EE de Signal, ha lanzado ‘Confer’, un asistente de IA de código abierto que protege todas las solicitudes, respuestas y datos relacionados de los usuarios. Pero al menos por ahora, tales soluciones respetuosas de los derechos siguen siendo la excepción y no la norma.

La adopción desenfrenada de la IA combinada con las deprimentes prácticas de seguridad requiere una acción urgente. Los problemas de seguridad asociados con las  avanzadas herramientas de IA son las consecuencias de que deliberadamente priorizen el lucro y la competitividad sobre la seguridad y la protección de comunidades en riesgo, y ellos no los van a resolver. Si bien nos encantaría ver a las empresas corregirse a sí mismas, los gobiernos no deberían rehuir exigir que estas empresas prioricen la seguridad y los derechos humanos, especialmente cuando se gasta dinero público para adquirir y construir herramientas de IA de «interés público». Mientras tanto, todos podemos optar por apoyar alternativas abiertas y responsables que respeten los derechos a los modelos y herramientas de renombre siempre que sea posible. (🤔o no usarlas💡).

🖌El pensamiento ético y político de Kropotkin🏴

💩¿Por qué #UGT es el peor sindicato y el más amarillo de España?🤢

🕸Google asesina el internet libre II💩

Google is killing the open web

En el capítulo anterior narramos🖌

Por qué es importante

C letter logo, png | PNGWinguando se lanzó la especificación XML en 1998, ganó fuerza muy rápidamente, a pesar de su mayor verbosidad, porque al perder parte de la flexibilidad de SGML (la especificación excesiva de la cual HTML era la encarnación más famosa:

«Hay quien dice que HTML no es realmente una aplicación de SGML; esto es discutible: TBL pretendía que fuera uno, e incluso si hubo algunas divergencias significativas en las primeras iteraciones, la especificación HTML 4, que era la definición estándar de HTML en el momento al que me refiero, en realidad lo definió como un lenguaje SGML compatible, incluso si los navegadores nunca lo adoptaron como tal».

favoreció la desambiguación y simplificó el análisis sintáctico de documentos de tipo arbitrario. Combinado con XSLT, permitió que documentos de cualquier tipo estuvieran «listos para Internet» y, lo que es más importante, listos para la World Wide Web, ayudando a impulsar la WWW hacia su objetivo diseñado de un «sistema universal de información vinculada».

Aunque los beneficios de XML y el poder transformador de XSLT llamaron principalmente la atención de profesionales en una gran variedad de campos, a principios de siglo su flexibilidad se extendió también a la más generalizada población de usuarios de la Web a través de la encarnación específica de los RSS y los canal web Atom, que permitían a los usuarios mantenerse informados sobre las noticias y actualizaciones en sus sitios web favoritos sin estar constantemente «entrando y saliendo».

RSS y otras tecnologías basadas en XML como los Pingbacks fueron la columna vertebral de los blogs, la red social distribuida que caracteriza la primera década del siglo XXI.

Con los blogs comunes y distribuidos en múltiples plataformas, la posibilidad de agregar información de fuentes dispares y aún verla presentada como una página web normal, en todos los navegadores, sin necesidad de secuencias de comandos, en una época en la que las implementaciones eran lentas y (gracias a Microsoft, intencionalmente) incompatibles entre sí, se consideró una clara victoria.

A pesar de los esfuerzos de Google para eliminarlo desde 2013, el formato RSS sigue siendo un componente esencial de una web abierta e independiente, todavía en uso generalizado tanto en el lado del servidor como del cliente: se estima que hay más de 500 millones de sitios web que usan WordPress, y todos cuentan con fuentes RSS, incluso cuando no se anuncian adecuadamente; la mayoría, si no todas, las plataformas fediversas también ofrecen fuentes RSS, y algunas (por ejemplo, Friendica) también pueden importarlas y, por lo tanto, funcionar como agregadores; y posiblemente lo más importante, los RSS son el componente fundamental de los podcastsno es un podcast si no es RSS»), un formato de distribución multimedia con cientos de millones, si no miles de millones, de usuarios en todo el mundo.

Como ya se ha dicho, se está experimentando un resurgimiento a medida que la gente comienza a darse cuenta de lo catastrófica que fue, es, ha sido y será para la web la centralización impulsada por los GAFAM durante la segunda década del siglo XXI (aunque demasiados aún no han aprendido la lección correcta, y simplemente han saltado de un chiringuito nazi al siguiente, o han caído en el disfraz de federación porque es más brillante que la federación real).

XSLT es un complemento esencial de RSS, ya que permite leer detenidamente el feed en el navegador (a menos, por supuesto, que el navegador haga un esfuerzo adicional para evitar que lo visualice, como lo hace Firefox). Esto permite que los sitios con cientos de feeds utilicen el feed en sí (diseñado con XSLT) como página de índice (ejemplo), lo que reduce los costos de alojamiento y ancho de banda. Y, por supuesto, también se puede utilizar para dar estilo a cualquier otro documento XML «estándar» que se pueda encontrar en un sitio: por ejemplo, lo he descubierto recientemente gracias a @[email protected], que WordPress proporciona una hoja de estilo XSLT predeterminada para sus mapas de sitio (aunque curiosamente, ¿parece que no para sus feeds web? Por supuesto, aún puedes enrollar el tuyo y conectarlo en el lugar correcto.)

Como señala @[email protected], XML se usa ampliamente en humanidades digitales (y muchos otros campos), y TEI ofrece un amplio conjunto de hojas de estilo XSLT para transformar marcas comunes de TEI en una variedad de formatos, entre los que se encuentra XHTML, lo que permitiría la visualización directa de los documentos XML.

Y esto es solo el comienzo: como he mostrado en este mismo sitio, es posible usar XSLT para trazar datos XML y, en general, para producir documentos ricos y complejos sin JavaScript, y nuevamente con reducciones potencialmente significativas en los costos de alojamiento y ancho de banda.

Puntos extra: parece que la horda de raspadores LLM que están causando problemas por todas partes tienen algunas dificultades con XML general, por lo que cambiar a XML + XSLT podría funcionar realmente para la autoprotección.

¿Recuerdas AMP? Si realmente quisieras seguir enviando las toneladas habituales de basura inútil al escritorio, pero no al móvil, podrías poner el contenido real en un archivo XML y luego proporcionar dos hojas de estilo XSLT triviales separadas, una para transformarla en la página de escritorio hinchada habitual y otra para transformarla en la abominación simplificada (y menos hinchada) que es AMP HTML, lo que habría sido útil cuando Google introdujo el requisito de que AMP y la página estándar tuvieran que presentar el mismo contenido. Pero, de nuevo, ¿por qué enviar esas toneladas de basura inútil en el escritorio en primer lugar?

Y para ser honesto, las plantillas HTML se ven muy poco impresionantes en comparación con XSLT. Peor aún, ¿por qué la gente reinventa las plantillas sin tan siquiera mencionar XSLT? Cualquier cosa que discuta la creación de plantillas para HTML sin una comparación directa y concreta con XSLT debería descalificarse automáticamente por no estar bien investigada.

Pero lo más importante, incluso si personalmente no te gustan XML y/o XSLT, ¿por qué dejamos que Google decida lo qué es aceptable y lo qué no (y lo más importante, nunca más) en la World Wide Web?

Seguiremos…

💩La fábrica del miedo usa a la infancia como moneda política en Cartes

🎓Revocan la prescripción del caso por las amenazas del policía infiltrado a un militante

HISTORIA SOCIAL DEL JAZZ PRIMITIVO. Capítulo 10

«Renacimiento Negro, Harlemania y Jungle Jazz»

 

✊🏼Recuperemos Internet⛵️

📖«Asalto a las plataformas» es el libro de Kenobit, lanzado hace dos semanas para Agenzia X 📚
Alphabet Letter E Crafts positivo encontrarse con experimentos como estos y resulta agradable leer el testimonio directo de un artista que ha crecido en las redes sociales y hoy comparte una visión mundial de una «salida».
O como dice en su newsleteer:
Habla de la relación tóxica que tenemos con las plataformas comerciales, analiza los mecanismos que nos roban el tiempo, cuenta el gran engaño de la creación de contenidos y propone un camino concreto para dejar de apoyar el capitalismo digital y reivindicar una dimensión online que no contamine el mundo y nuestras vidas. Es el resultado de dos años de experimentación (que comenzó aquí mismo, en la Semana Subversiva), tecnológica y humana, y explica de la manera más sencilla posible las alternativas y prácticas que pueden liberarnos.
Si quieres, el libro también se puede «escuchar» por capítulos por el propio Castópodo de Kenobit.

💵💷Inversiones en centros de datos:

💴 malos negocios 💩💶

KUALA LUMPUR – La oposición a los centros de datos (CD) se ha extendido rápidamente a nivel mundial debido a su creciente demanda de recursos. Los CD han proliferado rápidamente, impulsados por la popularidad de la inteligencia artificial (IA).

¿Para quién son los centros de datos?

El auge de la IA ya ha superado a otros usos de la «nube» e impulsa el rápido crecimiento de los CD, lo que impone una demanda de recursos en rápida expansión. Esto ha provocado una reacción pública bipartidista en Estados Unidos debido al mayor consumo de energía, agua y uso de la tierra, así como al aumento de los precios.

En octubre de 2024, McKinsey, una consultora internacional de estrategia global, proyectó que la demanda energética mundial de los centros de datos aumentaría entre 19 % y 22 % anual hasta 2030, alcanzando una demanda anual de entre 171 y 219 gigavatios (GW).

Jomo Kwame Sundaram
Jomo Kwame Sundaram

Esto supera con creces la demanda actual de 60 GW. «Para evitar un déficit [de suministro], habría que construir al menos el doble de la capacidad (de centros de datos) construida desde 2000 en menos de una cuarta parte del tiempo», planteó la consultora.

Dado que las empresas tecnológicas no pagan por la capacidad adicional de generación de energía, son los consumidores y los gobiernos anfitriones quienes lo hacen, independientemente de si se benefician de la IA o no.

A medida que los centros de datos se enfrentaban a una creciente oposición en el norte, los promotores se han volcado en los países en desarrollo, externalizando los problemas a naciones más pobres con recursos limitados.

Es necesario comprender estas instalaciones que consumen mucha energía y agua para proteger mejor las economías, las sociedades, las comunidades y sus entornos.

Necesidades energéticas

Con la creciente demanda de IA por parte de las empresas y los consumidores, el crecimiento de los centros de datos continuará e incluso se acelerará en ocasiones.

El aumento del uso de la IA incrementará significativamente el consumo de energía y agua, acelerando el calentamiento del planeta tanto directa como indirectamente.

A medida que aumenta la demanda de IA y centros de datos, los ordenadores que los soportan necesitarán mucha más electricidad.

Esto generará calor, lo que requerirá el uso de agua y energía para la refrigeración. Gran parte de la energía que consumen los centros de datos, entre 38 % y 50 %, se destina a la refrigeración.

La generación de electricidad, ya sea a partir de combustibles fósiles o de fisión nuclear, requiere más refrigeración que las fuentes de energía renovables, como los paneles solares fotovoltaicos o las turbinas eólicas.

Un centro de datos a pequeña escala con entre 500 y 2000 servidores consume entre uno y cinco megavatios (MW). En el caso de los gigantes tecnológicos, un centro de datos «hiperescalable», que aloja decenas de miles de servidores, consume entre 20 y más de 100 MW, ¡como una pequeña ciudad!

Los centros de datos no son fríos

Dado que la atención popular se centra en las enormes necesidades energéticas de los centros de datos, sus enormes necesidades de agua para refrigerar los equipos tienden a ser ignoradas, subestimadas y pasadas por alto.

La ubicación de nuevos centros de datos en países en desarrollo calentará aún más los microclimas locales y la atmósfera planetaria. Peor aún, el calor es más amenazante para el medio ambiente en los trópicos, donde las temperaturas ambientales son más altas.

K Kuhaneetha Bai

El establecimiento de más centros de datos inevitablemente desplazará los usos existentes y otros posibles usos de los suministros de agua dulce, además de reducir los acuíferos subterráneos locales.

Como era de esperar, los inversores en centros de datos rara vez advierten a los gobiernos anfitriones sobre la cantidad de energía y agua que se necesita suministrar a nivel local.

Los centros de datos requieren mucha agua dulce para refrigerar los servidores y los routers. En 2023, solo Google utilizó casi 23 000 millones de litros para refrigerar sus centros de datos. En los sistemas de refrigeración que utilizan la evaporación, se utiliza agua fría para absorber el calor intenso, liberando vapor a la atmósfera.

Los sistemas de refrigeración de circuito cerrado absorben el calor utilizando agua canalizada, mientras que los enfriadores refrigerados por aire enfrían el agua caliente. El agua enfriada que se recircula para la refrigeración requiere menos agua, pero más energía para enfriar el agua caliente.

Los inversores esperan subvenciones

Al igual que otros posibles inversores, los centros de datos se han trasladado a zonas donde los gobiernos anfitriones han sido más generosos y menos exigentes.

Liderados por los poderosos «hermanos tecnológicos» del presidente estadounidense Donald Trump, muchos inversores extranjeros se han beneficiado de la energía subvencionada, la tierra y el agua baratas y otros incentivos especiales.

Los posibles gobiernos anfitriones compiten por ofrecer incentivos fiscales y de otro tipo, como energía y agua subvencionadas, para atraer la inversión extranjera directa en los centros de datos.

Estados Unidos presionó a Malasia y Tailandia para que impidieran a las empresas chinas utilizarlos como «puerta trasera de control de las exportaciones» para sus chips de IA. Washington alega que los centros de datos fuera de China compran chips para entrenar su IA con fines militares. Hasta ahora, solo Malasia ha cumplido.

Esto limita el acceso de las empresas chinas a dichos chips. Washington afirma que los sustitutos chinos de los chips fabricados en Estados Unidos son inferiores y busca proteger la tecnología estadounidense de China.

¿Empleos de alta tecnología en los centros de datos?

Los centros de datos están surgiendo en todas partes, pero no se crearán muchos puestos de trabajo. Sus defensores afirman que los centros de datos proporcionarán empleos de alta tecnología.

Los centros de datos funcionan en gran medida de forma autónoma y requieren una intervención humana mínima, salvo para el mantenimiento, que determinan de forma independiente. Por lo tanto, la creación de empleo se reduce al mínimo.

Los trabajos de construcción e instalación serán temporales, y la mayoría de las funciones de gestión se realizarán de forma remota desde la sede central. Un informe de la estadounidense Universidad de Georgetown estima que solo 27 % de los puestos de trabajo en los centros de datos son «técnicos».

Si bien el discurso sobre los centros de datos se centra principalmente en las inversiones extranjeras, se habla poco del creciente deseo nacional de soberanía de datos.

Acceder a tantas solicitudes extranjeras bloqueará inevitablemente las ambiciones nacionales de desarrollar capacidades de centros de datos de extremo a extremo y no solo de alojarlos.

Hasta ahora, hay un interés limitado en la «vida posterior» de los centros de datos, como lo que ocurre después de que hayan cumplido su propósito o la eliminación de los materiales de desecho.

Los mayores costes de energía y agua, las subvenciones, los incentivos fiscales y otros problemas causados por los centros de datos apenas se ven compensados por su modesto empleo y otros beneficios.

🎓El Supremo desvela el mayor secreto de los pinchazos telefónicos en España.

💩El poder judicial cierra filas con los policías infiltrados y archiva la cuarta querella contra estas prácticas

👁Mobile Fortify,📲

el Programa de Reconocimiento Facial Portátil de ICE. Las Organizaciones de Derechos Exigen detenerlo.

This image shows a person's face with layers of pixelation throughout.

Download M, Letter, Font. Royalty-Free Stock Illustration Image - Pixabayobile Fortify, la nueva aplicación utilizada por el Servicio de Inmigración y Control de Aduanas (ICE)(USA) que utiliza la tecnología de reconocimiento facial (FRT) para identificar a las personas durante los encuentros callejeros, es una afrenta a los derechos y la dignidad de los migrantes y ciudadanos estadounidenses por igual. Es por eso que una coalición de organizaciones de privacidad, libertades civiles y derechos civiles exige que el Departamento de Seguridad Nacional (DHS) cierre el uso de Mobile Fortify, publique los análisis de privacidad de la aplicación de la agencia y aclare la política de la agencia sobre reconocimiento facial.

Mientras las organizaciones, incluida EFF, Asian Americans Advancing Justice y Project on Government Oversight, escriben en una carta enviada por EPIC:

Las prácticas imprudentes de ICE agravan el daño causado por el uso del reconocimiento facial. ICE no permite que las personas opten por no ser escaneadas, y aparentemente los agentes de ICE tienen la discreción de usar una coincidencia de reconocimiento facial como una determinación definitiva del estatus migratorio de una persona, incluso ante evidencia contraria. Usar la identificación facial como una determinación definitiva del estatus migratorio es inmensamente perturbador, y el uso arrogante del reconocimiento facial por parte de ICE indudablemente conducirá a detenciones injustas, deportaciones o algo peor. De hecho, ya hay al menos un incidente reportado de ICE que determinó erróneamente que un ciudadano estadounidense «podría ser deportado en función de la confirmación biométrica de su identidad.”

Como si este uso peligroso del reconocimiento facial no consensuado no fuera lo suficientemente malo, Mobile Fortify también consulta una amplia variedad de bases de datos gubernamentales. Ya ha habido informes de que los oficiales federales pueden estar usando este FRT para atacar a los manifestantes que participan en actividades protegidas por la Primera Enmienda. Sin embargo, ICE concluyó que no necesitaba realizar una nueva Evaluación del Impacto en la Privacidad, que es una práctica estándar para las tecnologías gubernamentales propuestas que recopilan datos de las personas.

Si bien Mobile Fortify es la última versión del FRT móvil de ICE, la EFF ha estado rastreando este tipo de tecnología durante más de una década. En 2013, identificamos cómo una agencia de San Diego había distribuido teléfonos equipados con reconocimiento facial a las agencias policiales de toda la región, incluidos los funcionarios federales de inmigración. En 2019, la EFF ayudó a aprobar una ley que prohibía temporalmente la recopilación de datos biométricos con dispositivos móviles, lo que provocó el cese del programa.

Entonces luchamos contra los reconocimientos faciales de mano y lo haremos de nuevo.

Día Internacional de la Seguridad Informática

7️⃣ preguntas que debemos hacernos antes de compartir una noticia en redes sociales

🧅La reinterpretación artesanal de un protocolo de Internet: WebTunnel👁

https://medios.centroculturadigital.mx/ccd/contenidos/webtunnel.png

Jacobo Nájera

En tiempos de hipervigilancia, el anonimato también es una forma de resistencia. En este texto, el autor expone uno de múltiples proyectos que buscan crear, desde saberes artesanales, otro tipo de arquitectura de red que haga frente a bloqueos de internet intencionados por entes gubernamentales y corporativos.  

La web alrededor del mundo presenta obstáculos de acceso. Uno de ellos son los bloqueos de internet a nivel capa de red, mismos que consisten en medidas técnicas deliberadas e intencionadas que gobiernos y empresas de telecomunicaciones colocan para imposibilitar la conexión a internet desde diferentes regiones y geografías. 

Sin embargo, hay comunidades que reinterpretan los protocolos de internet —aquellos acuerdos sobre cómo se maneja el flujo de nuestros datos— para ofrecer alternativas de acceso y, así, hacer frente a estas medidas. Así nace WebTunnel, una reinterpretación de uno de los acuerdos de intercambio de datos más extendidos en internet: la web (HTTP). Esta tecnología, localizada en el ecosistema del proyecto Tor, ha recibido contribuciones desde Latinoamérica, entre ellas varias provenientes de Acuarela Taller, un espacio dedicado al desarrollo de tecnologías computacionales y electrónicas artesanales para el ejercicio de los derechos a la comunicación, fundado en Guanajuato, México, en 2019.

Anonimato, enrutamiento y reinterpretación

Tor permite brindar alternativas de acceso con privacidad y anonimato. Esta red de computadoras es operada por personas voluntarias alrededor del mundo. Una de las maneras más conocidas de utilizarla es por medio del Tor Browser, disponible para dispositivos móviles y computadoras.

Su software es desarrollado por la organización Tor Project, que, en sus palabras, tiene como misión: 

Promover los derechos humanos y las libertades mediante la creación y el desarrollo de tecnologías de anonimato y privacidad libres y de código abierto, apoyando su disponibilidad y uso sin restricciones, y fomentando su comprensión tanto científica como general. 

Además, su comunidad está compuesta por diseñadoras, desarrolladoras y activistas. Se trata, pues, de un conjunto de personas que acuerdan tener una arquitectura de red llamada ‘enrutamiento cebolla’, que aporta alternativas de acceso para sortear bloqueos regionales y locales, con capas de privacidad y anonimato al estar utilizando internet. No obstante, esta red tampoco está exenta de bloqueos. Para eludirlos, se requieren los llamados ‘puentes conectables’. Así, dentro del ecosistema Tor nace WebTunnel en diciembre de 2022, con el objetivo de ofrecer una nueva alternativa para que las personas puedan conectarse a la red Tor cuando ésta es bloqueada.

El diseño de este transporte conectable se basó en el artículo “HTTPT: A Probe-Resistant Proxy”, escrito por Sergey Frolov y Eric Wustrow en 2020. Su característica principal es que actúa como un puente de acceso que hace que el tráfico parezca navegación web común y corriente. Ante los ojos de quienes intentan vigilar o bloquear la conexión, parece un simple tráfico cifrado HTTPS, por lo que no lo identifican como parte de la red Tor.

En 2023, Acuarela Taller decidió acompañar el proceso de desarrollo e implementación de esta tecnología mediante el proyecto Arrecife, enfocado en arquitecturas de red centradas en el derecho a la comunicación. El taller colabora en el estudio, desarrollo y despliegue de redes de enrutamiento de tráfico de internet distribuidas en Latinoamérica.

Accesibilidad, documentación y automatización 

Cuando iniciaron las primeras pruebas de WebTunnel, se identificaron algunas necesidades para su implementación y operación. El primer paso, en ese sentido, fue la  elaboración de un manual en castellano e inglés para asegurar un lenguaje común durante las pruebas, tanto dentro como fuera del taller. La documentación, además, permite llevar un registro de la evolución y los cambios que la tecnología experimenta con el tiempo, así como de los obstáculos, decisiones, ideas y necesidades que la influyen y determinan. 

Gracias al manual y a un análisis de la arquitectura de esta tecnología,  se comprendieron cada uno de sus componentes y las funciones que debían cumplir para lograr su propósito. Se identificaron cuáles son las configuraciones más adecuadas, los posibles usos  sociales de la tecnología y los retos para su implementación. En concreto, WebTunnel se presenta como una tecnología valiosa para hacer frente a bloqueos de internet al imitar el tráfico web común y corriente, con potencial de ser más efectiva en escenarios y contextos con medidas de este tipo. 

Sin embargo, también se observó que trabajar con los diferentes componentes de software para implementar los puentes podría dificultar su implementación, debido a la cantidad de estos y a las complejidades de mantenimiento y operación. Por lo tanto, se consideraron dos líneas de exploración en el taller. La primera consistió en reducir la cantidad de componentes de software, donde logramos que pasaran de cuatro a tres, y, la segunda, en automatizar su despliegue a fin de facilitarlo.

Esto resultó en la construcción y publicación de un segundo manual y una herramienta de automatización que, por un lado, explica los pasos del proceso de instalación y, por otro, permite que otras personas voluntarias puedan contribuir a la red Tor instalando puentes WebTunnel con mayor confianza. 

La herramienta de automatización y  los manuales fueron el resultado del aprendizaje y estudio de la instalación de puentes en el sistema de ruteo Arrecife, también parte de Acuarela Taller, compuesto por las regiones Pacífico, Atlántico, Caribe y Golfo de México, nomenclaturas utilizadas para distinguir la ubicación de la infraestructura instalada en Latinoamérica.

Si bien las instancias de WebTunnel fueron habilitadas en Latinoamérica, la intención de este tipo de tecnologías es que estén disponibles alrededor del mundo como opciones de conexión para las personas, en espacios donde hay restricciones o algún tipo de bloqueo de acceso en Internet. Estas limitaciones pueden incluir la imposibilidad de acceder a redes sociales, dificultades para ingresar a sitios web de noticias o interrupciones completas del servicio durante contextos de tensión política o manifestaciones.  

Confiabilidad y publicación de herramientas

Durante varios meses de pruebas y monitoreo, se verificó que la implementación fuera confiable en términos de estabilidad y seguridad, y que fuera de las condiciones del taller pudiera funcionar, desde la instalación del software y su configuración, hasta la actualización y administración. Tras ello, se publicó la herramienta de despliegue  automatizado, que permite instalar, configurar y operar puentes WebTunnel de la red Tor.

Lanzamiento oficial 

Finalmente,  el 12 de marzo de 2024, el Tor Project anunció oficialmente los puentes WebTunnel. Tras este anuncio, se superó el umbral de mil personas usuarias. Las instancias de WebTunnel hospedadas en Arrecife recibieron conexiones de personas usuarias georreferenciadas desde veinte países. En el top diez se encuentran Rusia, Irán, Turkmenistán, China, Estados Unidos, Reino Unido, Alemania, India, Países Bajos y la República de Bielorrusia, algunos de ellos con antecedentes de restricciones, bloqueos o políticas de vigilancia. 

El promedio de personas usuarias que manejaron el total de regiones de Arrecife fue de setecientos y un máximo de mil ochocientos, con velocidades máximas de tráfico de red ascendentes y descendentes de 160 Mbps. El máximo de datos transferidos en diciembre de 2024 fue de cuarenta terabytes. A continuación, desglosamos los porcentajes de uso.

Código  País  Porcentaje 
ru Rusia  44.44%
ir Irán 15.11%
tm Turkmenistán  12.44%
cn China 9.78%
us Estados Unidos  4.89% 
gb Reino Unido  3.56%
de Alemania  2.22%
in India  1.78%
nl Países Bajos  1.78%
by Bielorrusia  0.89%
fr Francia  0.89%
tr Turquía  0.89%
ae Emiratos Árabes Unidos  0.44% 
at Austria  0.44%
au Australia  0.44%
az Azerbaiyán  0.44%
bg Bulgaria  0.44%
br Brasil  0.44%
ca Canadá  0.44%
ch Suiza  0.44%

La red Tor cuenta ahora con más de trescientos puentes WebTunnel, operados por una comunidad que ha contribuido voluntariamente a su implementación y mantenimiento. Estos puentes han registrado un máximo de 5 mil personas usuarias diarias hacia mediados de 2025.

F2FLa identidad visual fue hecha por @kalogatias. Esta imagen está bajo la licencia de producción de pares feminista (F2F-BY)

💩¿El mundo digital y la inteligencia artificial hacia dónde nos llevan?

🤝Se presenta la publicación ¿Las cooperativas construyen un mundo mejor?

⛓️‍💥Por qué liberé la W.W.W.🏄🏽‍♀️

Mi visión se basaba en compartir, no en explotar – y he aquí por qué vale la pena luchar por ello.

Tim Berners-Lee

Tenía 34 años cuando tuve la idea de la World Wide Web por primera vez. Aproveché todas las oportunidades para hablar de ello: presentándolo en reuniones, dibujándolo en una pizarra para cualquiera que estuviera interesado, incluso dibujando la telaraña en la nieve con un bastón de esquí para un amigo en lo que estaba destinado a ser un día tranquilo.

Me puse muy pesado con los jefes de la Organización Europea para la Investigación Nuclear (Cern), donde trabajaba en ese momento, quienes inicialmente encontraron la idea «un poco excéntrica», pero finalmente cedieron y me dejaron trabajar en ella. Me cautivó la idea de combinar dos tecnologías informáticas preexistentes: Internet e hipertexto, que toma un documento ordinario y le da vida agregando «enlaces».

Creía que ofrecer a los usuarios una forma tan sencilla de navegar por Internet desbloquearía la creatividad y la colaboración a escala global. Si pudieras ponerle algo, luego de un tiempo, tendría todo.

Pero para que la web tuviera todo en ella, todos tenían que poder usarla y querer hacerlo. Esto ya era pedir mucho. Tampoco podría pedirles que pagaran por cada búsqueda o carga que realizasen. Por lo tanto, para tener éxito, tendría que ser libre. Es por eso que, en 1993, convencí a mis gerentes del Cern de donar la propiedad intelectual de la World Wide Web, poniéndola en el dominio público. Regalamos la web a todo el mundo.

Hoy, miro mi invento y me veo obligado a preguntar si sigue siendo libre hoy en día. No, para nada. Vemos un puñado de grandes plataformas recolectando datos privados de los usuarios para compartirlos con corredores comerciales o incluso gobiernos represivos. Vemos algoritmos omnipresentes que son adictivos por diseño y dañinos para la salud mental de nuestros adolescentes. El intercambio de datos personales para su uso ciertamente no encaja con mi visión de una web libre.

En muchas plataformas, ya no somos los clientes, sino que nos hemos convertido en el producto. Nuestros datos, incluso si son anónimos, se venden a actores a los que nunca pretendimos que llegaran, quienes luego pueden dirigirnos contenido y publicidad. Esto incluye contenido deliberadamente dañino que conduce a la violencia en el mundo real, difunde información errónea, causa estragos en nuestro bienestar psicológico y busca socavar la cohesión social.

Tenemos la capacidad técnica para devolver ese poder al individuo. Solid es un estándar interoperable de código abierto que mi equipo y yo desarrollamos en el MIT hace más de una década. Las aplicaciones que se ejecutan en Solid no poseen implícitamente sus datos – tienen que solicitárselos y usted elige si acepta o no. En lugar de estar en innumerables lugares separados en Internet en manos de quienquiera que haya sido revendido, sus datos están en un solo lugar, controlados por usted.

Almacenar su información de una manera inteligente también puede liberarla. ¿Por qué su reloj inteligente escribe sus datos biológicos en un silo en un formato? ¿Por qué su tarjeta de crédito escribe sus datos financieros en un segundo silo en un formato diferente? ¿Por qué sus comentarios de YouTube, publicaciones de Reddit, actualizaciones de Facebook y tweets se almacenan en diferentes lugares? ¿Por qué es la expectativa predeterminada de que se supone que no debes poder ver nada de esto? Generas todos estos datos: tus acciones – tus elecciones, tu cuerpo, tus preferencias, tus decisiones. Deberías poseerlo. Deberías estar empoderado para ello.

En algún lugar entre mi visión original de la web 1.0 y el auge de las redes sociales como parte de la web 2.0, tomamos el camino equivocado. Ahora nos encontramos en una nueva encrucijada, una en la que debemos decidir si la IA se utilizará para mejorar o en detrimento de la sociedad. ¿Cómo podemos aprender de los errores del pasado? En primer lugar, debemos asegurarnos de que los responsables políticos no terminen jugando el mismo juego de ponerse al día de una década que han hecho en las redes sociales. El momento de decidir el modelo de gobernanza de la IA fue ayer, por lo que debemos actuar con urgencia.

En 2017, escribí un experimento mental sobre una IA que funciona para ti. Lo llamé Charlie. Charlie trabaja para usted como su médico o su abogado, sujeto a la ley, las regulaciones y los códigos de conducta. ¿Por qué no se pueden adoptar los mismos marcos para la IA? Hemos aprendido de las redes sociales que el poder recae en los monopolios que controlan y recopilan los datos personales. No podemos permitir que suceda lo mismo con la IA.

Entonces, ¿cómo avanzamos? Parte de la frustración con la democracia en el siglo XXI es que los gobiernos han sido demasiado lentos para satisfacer las demandas de los ciudadanos digitales. El panorama de la industria de la IA es ferozmente competitivo, y el desarrollo y la gobernanza los dictan las empresas. La lección de las redes sociales es que esto no creará valor para el individuo.

Codifiqué la world wide web en una sola computadora en una habitación pequeña. Pero esa pequeña habitación no me pertenecía, estaba en el Cern. El Cern fue creado tras la segunda guerra mundial por las Naciones Unidas y los gobiernos europeos que identificaron un punto de inflexión histórico y científico que requería colaboración internacional. Es difícil imaginar que una gran empresa de tecnología acepte compartir la World wide web sin una recompensa comercial como me permitió el Cern. Es por eso que necesitamos un organismo sin fines de lucro similar al Cern que impulse la investigación internacional de IA.

Regalé la world Wide web de forma libre porque pensé que solo funcionaría si funcionaba para todos. Hoy, creo que eso es más cierto que nunca. La regulación y la gobernanza global son técnicamente factibles, pero dependen de la fuerza de voluntad política. Si somos capaces de reunirlo, tenemos la oportunidad de restaurar la web como una herramienta de colaboración, creatividad y compasión a través de las fronteras culturales. Podemos volver a empoderar a las personas y recuperar la web. No es demasiado tarde.

✍🏼No a la implantación de Chat Control 📲Hoy lanzamos la campaña #TerritorioMóvil, una serie en 5 entregas en la que miramos críticamente el dispositivo más utilizado en la era digital

👁Pegasus para todos👥🫂

La propuesta de monitorización automatizada de las conversaciones íntimas de la ciudadanía europea avanza.

Por Simona Levi y Sergio Salgado, Xnet – Instituto para la Digitalización Democrática.

El 12 de diciembre de 2024, tras una intensa campaña que sostuvimos la sociedad civil europea, conseguimos bloquear el proyecto de ley europeo de monitorización automatizada de las conversaciones íntimas de la ciudadanía europea, conocido como #ChatControl. Se consiguió una coalición de gobiernos que impidió alcanzar una mayoría cualificada.

🇪🇺The EU weakens the rules that safeguard people and the environment💩

España no era uno de ellos ya que se significó desde el principio con una de las posturas más extremas a favor. Un documento que se filtró en 2023 sacó a la luz las siguientes declaraciones del Ministerio del Interior:

Idealmente, en nuestra opinión, sería deseable prevenir legislativamente que los proveedores de servicios con sede en la UE implementen cifrado de extremo a extremo. (…) La detección automática de contenido en las comunicaciones interpersonales es clave.” 

Lejos de querer evitar otro Pegasus, ahora es Pegasus para todos.

La presidencia danesa de la UE está impulsando el retorno de esta pesadilla, con una versión incluso más radical y contraviniendo el mandato del Parlamento Europeo.

Esta propuesta incluye el escaneo masivo y obligatorio de las comunicaciones privadas y pretende romper el cifrado seguro obligando a introducir el escaneo en el lado del cliente dentro de tus aplicaciones de mensajería. Y, ATENCIÓN: las cuentas gubernamentales y militares quedarían exentas de este escaneo intrusivo. Privacidad para los poderosos, vigilancia masiva para la ciudadanía. El propósito de esta regulación no podría estar más claro. Incluso un memorando filtrado del gobierno alemán confirma que el Servicio Jurídico del Consejo considera que este plan, igual que el intento de 2024, sigue violando los derechos fundamentales.

Chat Control es el nombre con el que popularmente se conoce al

“Reglamento por el que se establecen normas para prevenir y combatir el abuso sexual de menores” (“Regulation to Prevent and Combat Child Sexual Abuse”, Child Sexual Abuse Regulation).

Contrariamente a lo que su título indica, no hay ni una línea en esta legislación sobre cómo prevenir y combatir el abuso sexual a menores. Ni una palabra. No es una ley contra el abuso sexual de menores que perjudica a internet. Es solo una ley contra internet, que olvida el abuso sexual a menores salvo para justificar su propaganda contra un Internet democrático.

Los abusos a menores son horrendos. Es una vergüenza malgastar esfuerzos utilizándolos como simple excusa para otros fines. La brutal influencia de lobbies conservadores, tecnófobos y con una visión de internet como un espacio que han de controlar y que tiene que ser monopolizado solo por grandes actores dominantes, es evidente.

Lo que se busca y se conseguiría si #ChatControl es aprobado recuerda a las épocas más oscuras de la historia, además de rezumar incompetencia:

Establece la vigilancia masiva y anula la inviolabilidad de las comunicaciones.

Propone una tecnología que es en sí una brecha de seguridad.

Ataca los sistemas distribuidos y las startups y PyMEs tecnológicas en favor de los monopolios.
Es lo contrario de una solución.

Sobre los abusos sexuales a menores las estadísticas como las de la OMS indican que la mayoría es cometida por personas conocidas por el niño o la niña, como familiares, amigos o vecinos. Una regulación que atacara de verdad los abusos sexuales a menores y el material generado con ello sería realmente urgente para dotar de medios, herramientas y marco legal a profesores, pediatras, psicopedagogos, trabajadores sociales, policías especializados y otros trabajadores en primera línea para identificar y actuar en este tipo de casos. 
No hay nada sobre esto en #ChatControl. Que esta pesadilla llegue bajo la apariencia de «proteger a la infancia» -un argumento usado por dictaduras de todo el mundo-, es indignante.

Conocer esta información es importante, puesto que el día 12 de septiembre debía quedar fijada nuevamente la posición de los países miembros de la UE. Quienes la rechazaron fueron Austria, Bélgica, República Checa, Finlandia, Países Bajos, Polonia, Luxemburgo, Eslovaquia. En último momento Alemania mostró ciertas dudas que hicieron detener el proyecto, pero sólo hasta el 13 o 14 de octubre. Es cuando los ministros de Justicia e Interior de los Estados miembros tienen previsto reunirse. La presidencia danesa del Consejo ha anunciado que incluirá la propuesta en esta reunión. Mientras buscará obtener todo el apoyo que necesita (55% de los Estados (15/27) que representen el 65% de la población). Debemos poner todos nuestros esfuerzos para que no lo consiga.

España, pese a los esfuerzos de la sociedad civil, sigue como gran defensora del proyecto. Quizás envidia a Rusia que ya utiliza Max, una app del estado instalada en los dispositivos de todo el mundo que controla por ejemplo que nadie busque la palabra LGTB online.

🛳Continúan las provocaciones de Estados Unidos en el Mar Caribe y el Cono Sur

💡Sabotaje contra el complejo militar-industrial más importante de Alemania