Accesibilidad: ¿Controlar el iPhone con los ojos? Será posible en iOS 18

Apple rediseña la accesibilidad con funciones avanzadas como Eye Tracking y Music Haptics, permitiendo a los usuarios experimentar la tecnología de manera única.
Apple rediseña la accesibilidad con funciones avanzadas como Eye Tracking y Music Haptics, permitiendo a los usuarios experimentar la tecnología de manera única.

Apple ha anunciado una serie de nuevas funciones de accesibilidad que estarán disponibles a finales de este año, como parte de alguna actualización de iOS 18, marcando otro cambio en su compromiso de largo plazo con el diseño inclusivo. Entre las novedades se incluyen el Eye Tracking para navegar en iPhone y iPad solo con la mirada, Music Haptics para que personas sordas o con dificultades auditivas experimenten la música de manera táctil, y los Vocal Shortcuts para ejecutar tareas mediante sonidos personalizados.

Con nuevas funciones de accesibilidad, Apple facilita que los usuarios con discapacidades disfruten de la música y controlen sus dispositivos más intuitivamente.
Con nuevas funciones de accesibilidad, Apple facilita que los usuarios con discapacidades disfruten de la música y controlen sus dispositivos más intuitivamente.

Eye Tracking: Control con la mirada

Una de las características más destacadas es el Eye Tracking, que permite a los usuarios con discapacidades físicas controlar su iPad o iPhone únicamente con los ojos. Esta función utiliza la cámara frontal para configurarse y calibrarse en segundos, y gracias al aprendizaje automático en el dispositivo, todos los datos se mantienen seguros y privados.

Music Haptics: Sintiendo la música y mejorando la accesibilidad

Music Haptics es otra innovación significativa. Utiliza el Taptic Engine del iPhone para convertir la música en vibraciones y texturas táctiles, lo que permite a las personas sordas o con problemas de audición experimentar las canciones de manera diferente. Esta función será compatible con millones de canciones en el catálogo de Apple Music y estará disponible para los desarrolladores mediante una API.

Vocal Shortcuts y reconocimiento de voz atípico

Los Vocal Shortcuts permitirán a los usuarios de iPhone y iPad asignar sonidos personalizados para activar Siri y realizar tareas complejas. Además, la función Listen for Atypical Speech mejorará el reconocimiento de voz para personas con condiciones que afectan su habla, como la parálisis cerebral, la esclerosis lateral amiotrófica (ELA) o un accidente cerebrovascular.

Las innovadoras funciones de Apple transforman la accesibilidad, permitiendo a los usuarios interactuar con sus dispositivos usando solo la mirada o experimentando la música a través del tacto.
Las innovadoras funciones de Apple transforman la accesibilidad, permitiendo a los usuarios interactuar con sus dispositivos usando solo la mirada o experimentando la música a través del tacto.

Señales de movimiento en vehículos para reducir el mareo

La nueva función "Vehicle Motion Cues" ayudará a reducir el mareo por movimiento al usar dispositivos durante el traslado en un vehículo. Esta función utiliza sensores para detectar el movimiento del vehículo y mostrar puntos animados que ayudan a reducir el conflicto sensorial.

Nuevas funcionalidades en CarPlay y visionOS

CarPlay incluirá controles de voz mejorados y otras actualizaciones de accesibilidad como filtros de color y reconocimiento de sonidos. Por otro lado, visionOS incorporará subtítulos en vivo para ayudar a las personas sordas o con problemas de audición a seguir diálogos en tiempo real y audios de aplicaciones.

Con estas innovaciones, Apple continúa su tradición de casi cuatro décadas de integrar la accesibilidad en el diseño de sus productos, reforzando su visión de tecnología inclusiva que enriquece la vida de todos los usuarios.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *