Oggi, in occasione del Global
Accessibility Awareness Day, la giornata internazionale dedicata
alla sensibilizzazione sull'accessibilità e inclusività anche
digitale, Apple annuncia nuove funzioni per gli iPad e iPhone.
Nel corso dell'anno, arriverà "Eye Tracking", un modo per gli
utenti con disabilità fisiche di controllare i dispositivi con
gli occhi. Inoltre, Music Haptics offrirà a non udenti o
ipoudenti un nuovo modo di ascoltare la musica, utilizzando il
Taptic Engine dell'iPhone. Annunciate funzioni di accessibilità
anche su VisionOs, la piattaforma su cui gira il visore di
realtà mista, Vision Pro di Apple.
Il cosiddetto monitoraggio degli occhi sfrutta la fotocamera
frontale su iPhone o iPad (con processori A12 o successivi) per
navigare nell'interfaccia senza usare le dita o accessori
aggiuntivi. Con l'opzione abilitata, le persone potranno
guardare il proprio schermo per spostarsi tra elementi come app
e menu, soffermandosi dove vogliono per selezionarlo. Non una
novità assoluta nell'ecosistema di dispositivi Apple, visto che
qualcosa di simile è già presente su Mac attraverso Dwell
Control, con cui impostare un ritardo nelle azioni abilitate
dalla tastiera accessibile. Su iPhone e iPad, il vantaggio sarà,
come spiega una nota ufficiale di Apple, la presenza
dell'intelligenza artificiale, che dovrebbe aiutare a
comprendere meglio lo sguardo e dunque ad eseguire le varie
azioni. Oltre a ciò Apple sta lavorando per migliorare
l'accessibilità dei controlli vocali, anche in questo caso
tramite l'IA. L'obiettivo è consentire di creare azioni
personalizzate da eseguire con la voce. Per i non udenti o
ipoudenti, Apple estenderà il feedback tattile, che si avverte
sugli iPhone quando si preme un pulsante digitale, per dare alle
persone un nuovo modo di interagire con la musica, a partire da
milioni di brani supportati. Quando abilitata, la funzione
riprodurrà trame visive e vibrazioni in tandem con l'audio per
una nuova esperienza.
Riproduzione riservata © Copyright ANSA