Episodio 249: La jaula de hierro algorítmica

08/01/2026 40 min
Episodio 249: La jaula de hierro algorítmica

Escuchar "Episodio 249: La jaula de hierro algorítmica"

Síntesis del Episodio


















Tras un largo silencio que parece haber suspendido el tiempo mismo, regresamos para constatar que, aunque nosotros nos detuvimos, la inercia del mundo y sus automatismos no lo hicieron. ¿Es posible que estemos habitando ya el interior de una estructura invisible que prioriza la eficiencia sobre la libertad? ¿Hemos cruzado ya el punto de no retorno donde los algoritmos no solo nos asisten, sino que nos gobiernan sin darnos una explicación? Conexiones imposibles y un poco de filosofIA para esta vuelta a los escenarios que tanta ilusión nos hacía.











Recordemos que todo acaba y todo empieza en el Episodio 248: El punto de no retorno algorítmico: El antecedente directo donde se plantea el umbral en el que perdemos el control sobre sistemas esenciales.











Estos son los contenidos para seguir conectando puntos:







Bulletin of the Atomic Scientists – Doomsday Clock: El Reloj del Apocalipsis no es una mera herramienta simbólica; es un recordatorio que hemos pasado por alto durante demasiado tiempo. Desde 1947, científicos de primer nivel evalúan anualmente cuán cerca estamos de la medianoche, esa destrucción catastrófica que representaba inicialmente solo amenazas nucleares. Lo que nos fascina del episodio es cómo este reloj ha evolucionado para incluir amenazas que los abuelos de estos científicos jamás contemplaron: inteligencia artificial, cambios climáticos, biología disruptiva. En 2025, por primera vez en 78 años, el reloj se posicionó a 89 segundos de la medianoche. Un único segundo de diferencia respecto a 2024, pero un gesto que dice todo: la IA no es una amenaza futura, está aquí, ahora, acelerando riesgos que ya parecían irremontables.







AESIA – Agencia Española de Supervisión de la Inteligencia Artificial: España ha impulsado un organismo dedicado exclusivamente a supervisar la IA. La AESIA es una institución con poder real para exigir explicabilidad, para inspeccionar sistemas de riesgo alto, para establecer que los algoritmos no pueden ser cajas negras perpetuas. Comenzó operaciones en 2025 cuando Europa aprobaba su directiva sobre IA. Lo que el episodio subraya es algo crucial: la regulación llega tarde. Mientras AESIA inspecciona sistemas nuevos, más de mil algoritmos médicos antiguos siguen operando sin cumplir esos requisitos de transparencia.







Civio – Sentencia BOSCO y Transparencia Algorítmica: Una organización de vigilancia ciudadana llevó al Tribunal Supremo español un caso que iba a cambiar algo fundamental: el acceso al código fuente de BOSCO, el algoritmo que decide quién recibe ayuda eléctrica y quién no. Durante años, el Gobierno argumentó seguridad nacional, propiedad intelectual, secretos comerciales. El Supremo ha dicho que no. La sentencia de 2025 estableció jurisprudencia: la transparencia algorítmica es un derecho democrático. Los algoritmos que condicionan derechos sociales no pueden ser opacos. Por primera vez, un tribunal de alto nivel reconoce que vivimos en una «democracia digital» donde los ciudadanos tienen derecho a fiscalizar, a conocer, a entender cómo funciona la máquina que decide sobre sus vidas. BOSCO era apenas un ejemplo. La sentencia abre la puerta a exigencias de transparencia sobre cualquier sistema que use la administración pública para decisiones automatizadas. Es pequeño, increíblemente importante, y probablemente insuficiente.







Reshuffle: Who Wins When AI Restacks the Knowledge Economy – Sangeet Paul Choudary: Este libro es exactamente lo que necesitábamos leer antes de grabar este episodio. Choudary no habla de cómo la IA automatiza tareas; habla de cómo la IA remodela el orden completo de cómo trabajamos, cómo nos coordinamos, cómo creamos valor. «Reshuffle» no es un catálogo de miedos; es un análisis de cómo nuevas formas de coordinación sin control centralizado están emergiendo. El libro conecta con lo que discutimos sobre la opacidad: no es solo que los algoritmos sean opacos, es que están reorganizando estructuras organizacionales enteras. Choudary habla de empresas que ya no saben quién es responsable de qué porque las máquinas coordinan sin necesidad de consenso humano. Es Max Weber acelerado a velocidad de red neuronal.







The Thinking Game – Documental sobre Demis Hassabis y DeepMind: Un documental que filma la persecución de una obsesión: Demis Hassabis pasó su vida entera buscando resolver la inteligencia. The Thinking Game, producido por el equipo que creó AlphaGo, muestra cinco años dentro de DeepMind, los momentos cruciales en que la IA saltó de juegos a resolver problemas biológicos reales con AlphaFold. Lo que duele ver aquí es que Hassabis resolvió un problema de 50 años en biología y lo open-sourceó. La pregunta incómoda es: ¿cuántos otros Hassabis están dentro de laboratorios corporativos con incentivos inversos, guardando secretos? The Thinking Game es un retrato de lo que podría ser si el impulso científico ganara sobre el extractivo. Recomendamos verlo antes de cualquier conversación sobre dónde está realmente el avance en IA.







Las horas del caos: La DANA. Crónica de una tragedia: Sergi Pitarch reconstruye hora a hora el 29 de octubre de 2024, el día en que la DANA arrasó Valencia. Lo que hace diferente a este libro es que no solo cuenta lo que sucedió; documenta lo que no se hizo, quién fue responsable de silenciar advertencias, qué decisiones fueron tomadas en salas oscuras mientras miles quedaban atrapados. Es una crónica periodística larga en el estilo norteamericano de investigación profunda. Lo conectamos al episodio porque la tragedia de Valencia es un espejo: sistemas con algoritmos que debían predecir, equipos de emergencia que debían comunicar, protocolos que debían activarse. Pero hubo silencios, opacidades, dilución de responsabilidad. Exactamente lo que sucede cuando los algoritmos fallan sin que nadie sepa quién paga el precio. Pitarch escribe para que las víctimas no caigan en el olvido y para que la siguiente tragedia no se repita con la misma negligencia.







Anatomía de un instante: Serie basada en el libro de Javier Cercas, que examina el 23-F español, el golpe militar de 1981, pero lo hace como psicólogo de la historia: ¿qué es lo que convierte a un hombre en héroe en un instante crucial? Lo traemos aquí porque el libro trata sobre cómo nuestros sistemas, nuestras instituciones, nuestras estructuras de poder están sostenidas por momentos impredecibles, por acciones individuales que los algoritmos no pueden modelar. La IA promete predecibilidad, certeza, orden. Cercas nos recuerda que la historia es una disciplina de lo impredecible, que los instantes que nos definen no salen de una ecuación.











Una nota final: Gracias por estar aquí. Un año después, sin Delorean, sin viaje temporal, pero con la certeza de que mientras buscábamos retroceder, el mundo siguió avanzando. Eso era el verdadero experimento: comprobar si podíamos volver a conectar puntos después de doce meses de que los algoritmos siguieran escribiendo el guión. La respuesta es sí. Pero la pregunta más incómoda permanece: ¿sabemos realmente dónde estamos en esa jaula de hierro? ¿O solo acabamos de darnos cuenta de que hay paredes?







Para contactar con nosotros, podéis utilizar nuestra cuenta de twitter (@conectantes), Instagram (conectandopuntos) o el formulario de contacto de nuestra web conectandopuntos.es. Nos podéis escuchar en iVoox, en iTunes o en Spotify (busca por nuestro nombre, es fácil).







Créditos del programa




Intro: Stefan Kanterberg ‘By by baby‘ (licencia CC Atribución).



Cierre: Stefan Kanterberg ‘Guitalele’s Happy Place‘ (licencia CC Atribución).



Foto: Creada con IA








¿Quieres patrocinar este podcast?



Puedes hacerlo a través de este enlace








La entrada Episodio 249: La jaula de hierro algorítmica se publicó primero en Conectando Puntos.