Escuchar "AI - Embeddings"
Síntesis del Episodio
¿Alguna vez te has preguntado cómo las máquinas entienden el lenguaje humano?
En este episodio desentrañamos el misterio de los embeddings, una técnica clave en el NLP.
Prepárate para:
Descubrir qué son los embeddings: Exploraremos cómo se transforman las palabras y frases en vectores numéricos que capturan su significado.
Comprender su utilidad: Analizaremos cómo los embeddings permiten a las máquinas realizar tareas como la búsqueda semántica, la traducción automática y el análisis de sentimientos.
Explorar casos de uso reales: Desde sistemas de recomendación hasta chatbots inteligentes, veremos cómo los embeddings están revolucionando la tecnología.
Adentrarnos en las diferentes aproximaciones para obtener embeddings: Desglosaremos métodos como One Hot Encoding, Co-Ocurrence Matrix y el poderoso Word2Vec.
Profundizar en Word2Vec: Descifraremos su funcionamiento y cómo logra capturar relaciones semánticas entre palabras.
#llms #genai #embeddings #word2vec
Síguenos:
https://twitter.com/jggomezt
https://twitter.com/DevHackCali
Referencias:
https://github.com/jggomez/word2vec-scratch
https://arxiv.org/pdf/1301.3781
https://developers.google.com/machine-learning/crash-course/embeddings
https://medium.com/@enozeren/word2vec-from-scratch-with-python-1bba88d9f221
https://huggingface.co/blog/matryoshka
En este episodio desentrañamos el misterio de los embeddings, una técnica clave en el NLP.
Prepárate para:
Descubrir qué son los embeddings: Exploraremos cómo se transforman las palabras y frases en vectores numéricos que capturan su significado.
Comprender su utilidad: Analizaremos cómo los embeddings permiten a las máquinas realizar tareas como la búsqueda semántica, la traducción automática y el análisis de sentimientos.
Explorar casos de uso reales: Desde sistemas de recomendación hasta chatbots inteligentes, veremos cómo los embeddings están revolucionando la tecnología.
Adentrarnos en las diferentes aproximaciones para obtener embeddings: Desglosaremos métodos como One Hot Encoding, Co-Ocurrence Matrix y el poderoso Word2Vec.
Profundizar en Word2Vec: Descifraremos su funcionamiento y cómo logra capturar relaciones semánticas entre palabras.
#llms #genai #embeddings #word2vec
Síguenos:
https://twitter.com/jggomezt
https://twitter.com/DevHackCali
Referencias:
https://github.com/jggomez/word2vec-scratch
https://arxiv.org/pdf/1301.3781
https://developers.google.com/machine-learning/crash-course/embeddings
https://medium.com/@enozeren/word2vec-from-scratch-with-python-1bba88d9f221
https://huggingface.co/blog/matryoshka
Más episodios del podcast Snippets Tech
IA Generativa de Imagenes
09/07/2025
Experiencias del Google Cloud Next 2025
16/04/2025
Grounding LLM
01/03/2025
RAG - Retrieval-Augmented Generation
18/01/2025
AI - LLM (Modelos Grande de Lenguajes)
25/11/2024
NLP - Natural Language Processing
30/10/2024
Deep Learning con Henry Ruiz
15/06/2024
Recap Google Next 24 - Con Henry Ruiz
20/04/2024