Exclusiva: Sonos lanza su primer modo de sonido basado en IA para mejorar el habla, desarrollado con una importante organización benéfica contra la pérdida de audición, y suena genial

The Sonos app, showing AI Speech Enhancement mode options, ranging from 'Off' to 'Max'
(Crédito de imagen: Sonos)

  • Sonos añade la opción AI Speech Enhancement al Arc Ultra
  • Es la primera función de Sonos de sonido con IA, con cuatro niveles de realce del habla
  • Se ha desarrollado en colaboración con una organización benéfica para ayudar a las personas con pérdida de audición.

¿Tienes una barra de sonido Sonos Arc Ultra? De ser así, esto podría interesarte, pues la compañía lanzó una nueva versión de sus herramientas de "Mejora de Voz" en dicho modelo.

Estas herramientas siguen estando disponibles en la pantalla de Reproducción Actual dentro de la app de Sonos, pero en lugar de solo tener un par de opciones, ahora contarás con cuatro nuevos modos (Bajo, Medio, Alto y Máximo), todos impulsados por el primer uso de una herramienta de procesamiento de sonido con inteligencia artificial de la compañía. Deberían estar disponibles a partir de hoy (12 de mayo) para todos los usuarios.

Estos modos fueron desarrollados durante una colaboración de un año con el Royal National Institute for the Deaf (RNID), la organización benéfica líder en el Reino Unido para personas con pérdida auditiva.

La actualización se lanza hoy exclusivamente para las barras de sonido Sonos Arc Ultra, y no estará disponible para otros modelos de Sonos, ya que requiere un nivel de poder de procesamiento más alto, que solo el chip dentro de la Arc Ultra puede proporcionar, a diferencia de las barras más antiguas.

El componente de inteligencia artificial se utiliza para analizar en tiempo real el sonido que pasa por la barra y separar los elementos de ‘voz’ del resto del audio, para que puedan hacerse más prominentes en la mezcla sin afectar demasiado el resto del sonido. Lo escuché en acción durante una demostración en las instalaciones de desarrollo de productos de Sonos en el Reino Unido, y es realmente impresionante.

Si has usado herramientas de mejora de voz antes, probablemente estés familiarizado con cómo el rango dinámico del sonido —especialmente los bajos— se reduce drásticamente para hacer que las voces se escuchen mejor.

Ese no es el caso con el nuevo modo de Sonos: los bajos potentes, el paisaje sonoro general y los elementos inmersivos de Dolby Atmos se mantienen mucho mejor. Esto se debe a dos razones: una es que las voces se mejoran por separado del resto de los sonidos, y la otra es que es un sistema dinámico que solo se activa cuando detecta que las voces podrían quedar opacadas por el ruido de fondo.

No se activará si el diálogo ocurre en un fondo silencioso, o si no hay diálogo en la escena. Además, es un sistema que trabaja en distintos niveles: aplica más procesamiento en escenas muy cargadas de sonido, y menos cuando el audio no es tan caótico.

A man holding a phone with Sonos' new AI Speech Enhancement features shown on the screen

(Image credit: Future)

¿Cómo suena?

En los dos modos más bajos, el diálogo se percibe con mayor claridad sin que el resto de la banda sonora se vea afectada, según mi demo.

En el modo Alto, el fondo se mantiene muy bien, pero la voz empieza a sonar un poco más procesada, y en el modo Máximo oigo que al fondo se le cortan un poco las alas y que la voz es un poco más artificial, pero la voz se oye muy bien, y este modo sólo está diseñado para personas con problemas de audición.

Mencioné que el modo se desarrolló con el RNID, lo que implicó que Sonos consultara con expertos en investigación de sonido del RNID, pero también que personas con diferentes tipos y niveles de pérdida auditiva probaran los modos en diferentes fases de desarrollo y aportaran sus comentarios.

Hablé largo y tendido con los arquitectos de audio e IA de Sonos que desarrollaron los nuevos modos, así como con el RNID, pero lo más importante es que la colaboración llevó a Sonos a poner más énfasis en conservar los efectos de sonido envolventes y añadir cuatro niveles de mejora en lugar de los tres previstos inicialmente.

A pesar de la participación del RNID, el nuevo modo no está diseñado exclusivamente para personas con problemas de audición. Sigue llamándose simplemente Mejora del habla, como hasta ahora, y no se oculta como una herramienta de accesibilidad: el sonido mejora para todos, y «todos» incluye ahora mejor a las personas con pérdida de audición de leve a moderada. Los modos Bajo y Medio también pueden funcionar para los que necesitamos un poco más de claridad en las escenas más movidas.

No es la primera vez que se utiliza la separación de voz con IA: lo he visto en televisores Samsung y en una divertida demostración de Philips TV, en la que se utilizó para desactivar los comentarios deportivos y conservar los sonidos del público.

Pero es interesante que este sea el primer uso que Sonos hace del procesamiento de sonido con IA, y el proceso de desarrollo de cuatro años, incluido un año de perfeccionamiento con el RNID, demuestra que Sonos ha adoptado un enfoque reflexivo sobre la mejor forma de utilizarlo que no siempre es evidente en otras aplicaciones de procesamiento de sonido con IA.

Es una pena que por ahora sea exclusivo del Sonos Arc Ultra, aunque estoy seguro de que las nuevas versiones del Sonos Ray y el Sonos Beam Gen 2 no tardarán en llegar con el mismo chip actualizado para admitir la función.

TOPICS
Antonio Quijano
Editor
Aportaciones de