Auriculares con IA: permite escuchar muchas voces y suprimir ruidos molestos
Los auriculares con Inteligencia Artificial (IA) fueron desarrollados por la Universidad de Washington permiten escuchar voces y suprimir ruidos molestos.
09 de enero de 2026 - 10:45
Un equipo de la Universidad de Washington de la ciudad estadounidense de Seattle desarrolló unos auriculares con Inteligencia Artificial (IA) que permiten escuchar a muchas personas y a suprimir ruidos molestos.
Este desarrollo representa un paso importante para personas con dificultades auditivas y para cualquier usuario que busque claridad en entornos ruidosos, al ofrecer una solución automática y no invasiva que podría redefinir la tecnología auditiva y la interacción cotidiana.
Los auriculares con Inteligencia Artificial (IA) fueron desarrollados por la Universidad de Washington permiten escuchar muchas voces y suprimir ruidos molestos.
¿Qué funciones tienen los Auriculares con IA?
Los auriculares funcionan con una inteligencia artificial que detecta la cadencia de una conversación y otra que silencia las voces que no siguen ese patrón, junto con otros ruidos de fondo no deseados.
El actual prototipo de este nuevo sistema utiliza hardware estándar y puede identificar a los interlocutores del usuario a partir de tan solo entre dos y cuatro segundos de audio.
Los auriculares con Inteligencia Artificial (IA) fueron desarrollados por la Universidad de Washington permiten escuchar muchas voces y suprimir ruidos molestos.
Los dos modelos de sistemas de Auriculares con IA
El sistema utiliza dos modelos de inteligencia artificial: uno analiza los patrones temporales del diálogo para identificar a los interlocutores, mientras que el otro filtra los sonidos no relacionados. En un lapso de dos a cuatro segundos, los auriculares reconocen y aíslan las voces relevantes, eliminando la necesidad de que el usuario seleccione manualmente a quién escuchar o ajuste parámetros de distancia.
El funcionamiento técnico se basa en la observación de que, durante una conversación, las personas siguen un ritmo de turnos de palabra que puede predecirse y rastrearse solo a partir del audio. El sistema se activa cuando el usuario comienza a hablar; en ese momento, el primer modelo determina quién habló y cuándo, buscando una baja superposición entre los participantes.
Los auriculares con Inteligencia Artificial (IA) fueron desarrollados por la Universidad de Washington permiten escuchar muchas voces y suprimir ruidos molestos.
Posteriormente, el segundo modelo limpia la señal y devuelve en tiempo real el audio aislado al usuario. Esta aproximación contrasta con métodos anteriores, que dependían de la selección manual de interlocutores o incluso del uso de electrodos implantados en el cerebro para rastrear la atención.
El equipo de investigación y desarrollo presentó esta tecnología en un congreso reciente (“Conference on Empirical Methods in Natural Language Processing”), celebrado en la ciudad china de Suzhou, China. Su presentación se tituló “Proactive Hearing Assistants that Isolate Egocentric Conversations”.