El nuevo modelo multimodal de OpenAI con voz, texto e imágenes en tiempo real

14/05/2024 3 min Temporada 2 Episodio 48

Escuchar "El nuevo modelo multimodal de OpenAI con voz, texto e imágenes en tiempo real"

Síntesis del Episodio

OpenAI ha lanzado GPT-4o, un nuevo modelo de inteligencia artificial multimodal que puede trabajar con voz, texto e imágenes simultáneamente. Este modelo, presentado como más "inteligente y rápido" que sus predecesores, ofrece una experiencia de conversación más natural con ChatGPT, permitiendo interactuar por voz, interrumpir al asistente y escuchar respuestas en diferentes tonos según el estado de ánimo detectado. Además, GPT-4o reduce significativamente la latencia de respuesta, brinda traducciones instantáneas en tiempo real y mejora las capacidades de análisis de imágenes. OpenAI ha comenzado a implementar gradualmente estas novedades para usuarios de ChatGPT y ChatGPT Plus.
Fuente de la noticia:
➡️ Xataka - OpenAI lanza GPT-4o: un nuevo modelo multimodal que trabaja con voz, texto e imagen al mismo tiempo (xataka.com)
Me pueden seguir en todas las redes cono @fran_villafanez o escribirme al correo [email protected]
📱 Telegram: https://t.me/notadevozpodcast
📱 Canal en WhatsApp: https://whatsapp.com/channel/0029VaAq3pt8fewmSh8h2r2a
Música: Happy Upbeat Rock de ihsandincer
Licencia adquirida en Envato Market Item
🎶ALL MUSIC FROM: ENVATO MARKETALL MUSIC FROM: ENVATO MARKET
https://elements.envato.com/es/audio/royalty-free-music
#Tecnología #Podcast #Actualidad #OpenAI #GPT4o

Más episodios del podcast Nota de voz