Presto iPad e iPhone si potranno controllare con gli occhi. Funzioni di accessibilità rivoluzionarie per chi ha disabilità fisiche e neurologiche, annunciate in occasione della Giornata mondiale dell’Accessibilità.
Apple, in occasione della Giornata mondiale dell’Accessibilità celebrata settimana scorsa, ha annunciato l’arrivo di nuove funzioni in arrivo per iPad e iPhone, tra cui la tecnologia Eye Tracking che permette di controllare i dispositivi usando solo gli occhi. Queste funzioni, unite ad altre novità come Music Haptics e Vocal Shortcuts, dimostrano l’impegno continuo di Apple nel progettare prodotti inclusivi che siano alla portata di tutti.
“Crediamo fermamente nel potere trasformativo dell’innovazione per migliorare la vita delle persone”, ha dichiarato Tim Cook, CEO di Apple. “Ecco perché da circa 40 anni Apple promuove il design inclusivo integrando l’accessibilità fin dalle fondamenta del nostro hardware e software. Stiamo continuamente ridefinendo i confini di ciò che la tecnologia può fare, e queste nuove funzioni riflettono il nostro impegno costante nell’offrire la migliore esperienza possibile a tutti”.
Eye Tracking: il potere dello sguardo
La funzione Eye Tracking, basata sull’intelligenza artificiale, sarà integrata in iPad e iPhone e permetterà di controllare i dispositivi usando solo gli occhi. Progettata per chi ha disabilità fisiche, la tecnologia utilizza la fotocamera frontale per una configurazione e una calibrazione rapide e semplici. Inoltre, grazie al machine learning on-device, tutti i dati utilizzati per la configurazione e il controllo di questa funzione rimangono privati sul dispositivo e non vengono condivisi con Apple.
Eye Tracking è compatibile con le app iPadOS e iOS e non richiede alcun hardware o accessorio aggiuntivo. Consente agli utenti di navigare tra gli elementi di un’app e di utilizzare la funzione Controllo con ritardo per attivare ogni elemento, accedere a funzioni aggiuntive come pulsanti fisici, utilizzare lo scorrimento o altri gesti, e tutto questo usando solo gli occhi.
Music Haptics: sentire la musica in un modo completamente nuovo
Music Haptics offre alle persone sorde o ipoudenti un modo completamente nuovo di “sentire” la musica su iPhone. Quando questa funzione è attivata, il Taptic Engine di iPhone riproduce colpi, trame sonore e le vibrazioni sottili di una canzone. Compatibile con milioni di brani del catalogo Apple Music, Music Haptics sarà disponibile anche come API per consentire agli sviluppatori di rendere la musica più accessibile all’interno delle proprie app.
Nuove funzioni per una vasta gamma di voci
La funzione Vocal Shortcuts permette agli utenti di iPhone e iPad di assegnare frasi personalizzate ai comandi che Siri può comprendere per attivare scorciatoie e completare attività complesse. Un’altra novità è la funzione Listen for Atypical Speech, che offre agli utenti la possibilità di migliorare il riconoscimento vocale per un’ampia gamma di voci, utilizzando il machine learning on-device per riconoscere i modelli vocali.
Sviluppate pensando a persone con condizioni acquisite o progressive che compromettono la capacità di parlare, come paralisi cerebrale, SLA o ictus, queste funzioni offrono un nuovo livello di personalizzazione e controllo.
Vehicle Motion Cues: ridurre la chinetosi
Vehicle Motion Cues è una nuova esperienza per iPhone e iPad che può aiutare a ridurre la sensazione di malessere causata dal movimento del veicolo in cui si viaggia, noto anche come chinetosi.
Alcuni studi dimostrano che la chinetosi è generalmente causata da un conflitto sensoriale tra ciò che si vede e ciò che si sente, e questo disturbo può impedire ad alcune persone di utilizzare iPhone o iPad mentre si viaggiano in auto.
Quando si attiva la modalità Vehicle Motion Cues, compaiono dei punti animati ai bordi dello schermo che riproducono le variazioni di movimento del veicolo, al fine di ridurre il conflitto sensoriale senza interferire con il contenuto principale.
Controllo vocale su CarPlay e altri aggiornamenti per l’accessibilità
CarPlay ora include funzioni di accessibilità come Controllo vocale, Filtri colore e Riconoscimento suoni. Il Controllo vocale permette di utilizzare CarPlay e gestire le app usando solo la voce. Con Riconoscimento suoni, le persone sorde o ipoudenti che guidano o viaggiano in auto possono attivare notifiche per suoni come clacson e sirene. I Filtri colore aiutano le persone con daltonismo a visualizzare meglio l’interfaccia di CarPlay; sono disponibili anche altre funzioni di accessibilità visiva come Testo in grassetto e Testo grande.
Funzioni di accessibilità in arrivo su visionOS
Quest’anno, tra le funzioni di accessibilità che verranno aggiunte a visionOS ci saranno:
– Trascrizioni in tempo reale: questa funzione sarà disponibile a livello di sistema e aiuterà tutti gli utenti, comprese le persone sorde o ipoudenti, a seguire una conversazione dal vivo o i contenuti audio delle app.
– Sottotitoli per Apple Immersive Video: su Apple Vision Pro sarà possibile spostare i sottotitoli usando la barra della finestra e verrà aggiunto il supporto per gli apparecchi acustici Made for iPhone e i processori acustici degli impianti cocleari.
– Ridurre trasparenza, Inversione smart e Attenua luci lampeggianti: queste funzioni di accessibilità saranno aggiunte per migliorare l’esperienza di chi ha difficoltà visive o preferisce evitare luci intense e lampeggiamenti.
Queste funzioni si basano sulle decine di funzioni di accessibilità già disponibili su Apple Vision Pro, un dispositivo con un sistema di input flessibile e un’interfaccia intuitiva progettato per soddisfare le esigenze di un’ampia gamma di utenti. Funzioni come VoiceOver, Zoom e Filtri colore permetteranno inoltre alle persone cieche o ipovedenti di accedere all’esperienza dello spatial computing, mentre funzioni come Accesso guidato supporteranno chi ha disabilità cognitive.
Altri aggiornamenti annunciati da Apple
– VoiceOver: per migliorare l’esperienza degli utenti ciechi o ipovedenti, VoiceOver includerà nuovi timbri di voce, un rotore vocale flessibile, un controllo del volume personalizzabile e la possibilità di modificare le scorciatoie da tastiera di VoiceOver su Mac.
– Lente d’ingrandimento: offrirà una nuova modalità Lettura e permetterà di attivare la Modalità di rilevamento con il tasto Azione.
– Input Braille a schermo: un nuovo modo per attivare e utilizzare Input Braille a schermo, che velocizzerà il controllo e la modifica del testo, sarà disponibile anche in lingua giapponese. Inoltre, la funzione Dot Pad supporterà il braille multi-riga e permetterà di scegliere diverse tavole di input e output.
– Hover Typing: migliora l’esperienza di scrittura per gli utenti ipovedenti: quando si scrive in una casella di testo, i caratteri appaiono più grandi e nel colore e nel font scelti dall’utente.
– Voce personale: questa funzione, pensata per persone che rischiano di perdere la capacità di parlare, sarà ora disponibile anche in cinese (mandarino). Gli utenti che hanno difficoltà a leggere o a pronunciare frasi complete potranno creare una voce personale con frasi più brevi.
– Voce in tempo reale: per migliorare l’esperienza degli utenti totalmente afoni, Voce in tempo reale includerà nuove categorie e sarà compatibile con Trascrizioni in tempo reale.
– Trackpad virtuale di AssistiveTouch: permetterà agli utenti con disabilità fisiche di controllare il dispositivo usando una piccola area dello schermo come trackpad ridimensionabile.
– Controllo interruttori: includerà l’opzione di utilizzare le fotocamere su iPhone e iPad per riconoscere i tocchi come interruttori.
– Controllo vocale: supporterà dizionari personalizzati e parole complesse.
Con queste nuove funzioni e aggiornamenti, Apple continua a dimostrare il proprio impegno nel rendere la tecnologia accessibile a tutti. L’azienda offre una vasta gamma di funzioni di accessibilità che supportano persone con disabilità fisiche, neurologiche e cognitive, permettendo loro di utilizzare i prodotti Apple in modo indipendente e produttivo.