Escuchar "La caja negra de ChatGPT explicada"
Síntesis del Episodio
Descubre la ingeniería detrás de la "magia" de la Inteligencia Artificial que impulsa herramientas como ChatGPT, Gemini y Claude. Este podcast desglosa los Grandes Modelos de Lenguaje (LLMs) paso a paso, revelando cómo funcionan estos predictores de contexto capaces de generar texto al estilo humano.Profundizaremos en los componentes esenciales de la IA moderna:• Los Tokens y el Contexto: Entenderás que un LLM no lee palabras, sino tokens—la unidad básica de texto, que pueden ser palabras, subpalabras o puntuación—, y cómo son convertidos en vectores (embeddings) que capturan el significado y la posición en la secuencia. Los tokens son también la base para la estimación de costos en los servicios de LLM.• La Arquitectura Transformer: Exploraremos el mecanismo de self-attention (autoatención), el corazón del Transformer, que permite que cada token evalúe la relevancia de otros tokens en la secuencia para comprender el contexto y generar respuestas coherentes.• Entrenamiento Avanzado y Razonamiento: Analizaremos las etapas cruciales de desarrollo, desde el preentrenamiento no supervisado (predicción de la siguiente palabra) hasta el ajuste fino (fine-tuning) y el Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF). También abordaremos cómo la detección de "rastros de pensamiento" (como los de R1) revela si los modelos han sido entrenados con patrones similares, lo que puede influir en sus "tokens críticos" de razonamiento, como "espera".• Estrategias de Optimización: Conoce cómo las empresas y desarrolladores pueden reducir los gastos operativos en hasta un 80%. Cubriremos técnicas de Ingeniería de Prompts para eliminar redundancia, el uso de caché de contexto para contenido estático, la selección estratégica de modelos (de Haiku a GPT-4/Opus) y cómo el monitoreo de tokens es clave para la eficiencia económica.Si eres programador, científico de datos, o simplemente sientes curiosidad por el futuro de la IA generativa, este podcast te proporcionará las herramientas conceptuales para apreciar la complejidad de estos sistemas y entender la abismal diferencia entre un modelo pequeño y colosos de billones de parámetros como GPT-4 y Llama 3.1
Más episodios del podcast KetherTalks
La IA Alucina Y Refleja Nuestros Sesgos
20/12/2025
De Montacargas a Piloto de la IA
17/12/2025
Clonación de voz por IA el fraude perfecto
16/12/2025
Descifra los Permisos Peligrosos de tus Apps
15/12/2025
El peligro no es el juego es el lugar
15/12/2025
ZARZA Somos ZARZA, la firma de prestigio que esta detras de los grandes proyectos en tecnología de la información.