Escuchar "#M10 - La caja negra de los algoritmos"
Síntesis del Episodio
La primera temporada de Cuidado con las macros ocultas se despide poniendo el foco en la ética y el sesgo algorítmico. El primer caso discriminatorio se detectó en los años 80 en la Escuela de Medicina del Hospital St. George de Londres. El investigador en justicia algorítmica y ética de datos, Manuel Portela, nos acerca a este caso para saber qué hemos aprendido 40 años después. ¿Las organizaciones evalúan suficientemente los riesgos que puede provocar la automatización de decisiones con sistemas de aprendizaje automático? La CEO de Eticas, Gemma Galdón, nos ayuda a entender qué es una auditoría de algoritmos y por qué se deberían realizar. Y la presidenta de OdiseIA, Idoia Salazar, nos explica cómo las empresas pueden anticiparse y ajustarse a la legislación que está por venir en ética e inteligencia artificial. Para más información visita www.cuidadoconlasmacrosocultas.com See omnystudio.com/listener for privacy information.
Más episodios del podcast Cuidado con las macros ocultas
#M42 - Salud mental 404
14/10/2025
#M41 - ¿Cuántos "yo" tengo en internet?
23/09/2025
#M39 - Tecnología entre costuras
13/05/2025
#M37 - Los espías del cibercrimen
11/03/2025
#M36 - PropTech: del plano al algoritmo
11/02/2025
#M34 - IA: del wow a la práctica
03/12/2024
ZARZA Somos ZARZA, la firma de prestigio que esta detras de los grandes proyectos en tecnología de la información.