Skip to main content
  1. Casa
  2. Casa inteligente

Sonos utiliza los superpoderes de la IA en sus barras de sonido

Sonos
The Verge / DTES

banda sonora.

La claridad ha sido un problema cada vez mayor para los televidentes, con un énfasis cada vez mayor en ese bajo contundente o banda sonora inmersiva, a veces los elementos hablados se pierden. Esa es una frustración particular para aquellos con algún tipo de pérdida auditiva, porque es posible que no pueda seguir la acción en absoluto, sino que recurra a los subtítulos, que a menudo son de calidad variable.

Recommended Videos

La nueva función de mejora del habla de Sonos tiene como objetivo abordar esto, y Sonos dice que la IA proporcionó un verdadero «avance», permitiendo que el habla se separe de otro audio en el canal central, para que se pueda enfatizar. No se trata solo de forzar el discurso más, se trata de dejarlo claro mientras se conserva el resto de la experiencia sonora.

En colaboración con el Real Instituto Nacional para Personas Sordas (una organización con sede en el Reino Unido que apoya a las personas sordas, con pérdida auditiva o tinnitus), la nueva función de mejora del habla de Sonos ofrece cuatro niveles para elegir, con el nivel superior diseñado específicamente para personas con pérdida auditiva.

Para acceder a la función, tendrás que usar la (asediada) aplicación Sonos. Así es como Sonos describe los cuatro niveles diferentes:

  • Bajo: un empujón sutil y artístico que enfatiza el diálogo mientras mantiene la experiencia original y la intención del creador.
  • Medio: una mejora media que proporciona una mejor claridad de diálogo y un equilibrio de buen gusto de los elementos de mezcla circundantes.
  • Alto: un ajuste más alto que hace que el diálogo sea obviamente prominente mientras reduce otros elementos de la mezcla.
  • Max: la configuración más pronunciada donde la claridad del diálogo tiene total prioridad, diseñada para personas con pérdida auditiva. A diferencia del enfoque más equilibrado de los niveles Bajo, Medio y Alto, el nivel Max controla aún más el rango dinámico de los elementos no verbales, colocando el diálogo firmemente a la vanguardia de la experiencia.

Las barras de sonido han ofrecido opciones de mejora del habla durante varios años, pero Sonos dice que estos modos «carecían de la efectividad y la calidad de sonido necesarias para resolver realmente el problema». La solución es la oferta impulsada por IA de Sonos, que se está implementando en Sonos Arc Ultra a partir de hoy.

Para que quede claro, no se trata de volumen, se trata de cambiar el énfasis en la banda sonora para que el oyente tenga más control sobre cómo se transmite el habla. Si descubres que te cuesta entender lo que la gente dice en las películas o programas de televisión, entonces esta podría ser la solución.

«Uno de cada tres adultos en el Reino Unido experimenta pérdida de audición, y se informa que poco menos de uno de cada cuatro adultos en los EE. UU. también la padece», dijo Lauren Ward, investigadora principal de RNID. «Esta herramienta tiene el potencial de impactar a un gran número de personas».

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Veo 3 de Google: mira los más impresionantes videos creados por la IA

Uno de los puntos quizás más destacados de la reciente presentación de Google I/O 2025, fue el estreno en sociedad de la plataforma de creación de videos de IA, Veo 3, y la funcionalidad realmente está encendiendo internet y las redes sociales.

Veo 3 está actualmente disponible para los suscriptores de Google AI Ultra en los EE. UU. a través de la aplicación Gemini o a través de la nueva herramienta de filmación impulsada por IA de la compañía llamada Flow. Es compatible con la generación de texto a vídeo, de imagen a vídeo y de avisos.

Leer más
Las gafas de IA de Apple están llegando, pero no de la forma que piensas
Gafas inteligentes

Según los informes, Apple está acelerando el desarrollo de su nuevo dispositivo portátil: gafas inteligentes impulsadas por IA diseñadas para competir directamente con las Ray-Ban de Meta. Según Bloomberg, la compañía con sede en Cupertino apunta a un lanzamiento a fines de 2026 y ha comenzado a preparar prototipos a gran escala para la producción.

Este nuevo informe aclara y actualiza la información que especulaba que Apple presentaría sus gafas inteligentes junto con chips personalizados basados en la arquitectura del Apple Watch. En ese momento, las fuentes sugirieron que la producción de chips comenzaría en el verano de 2026. Sin embargo, Bloomberg ahora confirma que Apple tiene como objetivo comenzar a producir cantidades significativas de las gafas inteligentes, no solo sus componentes, para fines de 2025, lo que indica un cronograma más agresivo de lo esperado anteriormente.

Leer más
Se presenta en sociedad el Honor 400 y 400 Pro, retomando la tradición de la cámara de 200MP
Honor 400 Pro

Este 22 de mayo se oficializó finalmente el lanzamiento de la serie Honor 400, que viene en su versión básica y en la 400 Pro, con la gran novedad de recuperar la cámara de 200MP que no tenía desde la serie Honor 90.

Veamos algunas de las características centrales:

Leer más