In attesa della conferenza per sviluppatori WWDC23, Apple ha presentato in anteprima un pacchetto di nuove funzioni software sviluppate appositamente per migliorare l'accessibilità nei suoi dispositivi da parte di utenti con disabilità cognitive, visive, uditive e motorie, oltre a nuovi strumenti che possono aiutare le persone che non parlano. Con l'obiettivo dell'azienda di Cupertino di rendere disponibili le nuove funzionalità entro la fine del 2023, su iPhone e iPad sono in arrivo Assistive Access, Live Speech, Personal Voice e la nuova modalità di rilevamento in Lente d’ingrandimento con Point and Speak.
Per garantire la privacy degli utenti, le nuove funzionalità per l'accessibilità anticipate da Apple comprendono il machine learning on-device, ciò significa che l'elaborazione dei dati avviene localmente sul dispositivo personale, senza trasferimenti di dati a server esterni attraverso internet.
Leggi anche:
Leggi anche:
Assistive Access semplifica le app e il loro utilizzo su iPhone e iPad
Assistive Access (letteralmente 'Accesso assistito') è una funzionalità per iPhone e iPad progettata per semplificare il più possibile le app e il loro utilizzo da parte delle persone con disabilità cognitive. Lo scopo di Apple è di rendere più accessibili fare cose su iPhone e iPad come contattare amici e familiari, ascoltare musica e scattare e guardare foto. Nelle immagini di esempio qui sotto è possibile vedere le app Foto, Fotocamera, Calls (la nuova app che combina Telefono e Facetime), Apple Music e Messaggi semplificate su iPhone 14 Pro Max. Tutte le app in versione semplificata presentano una interfaccia con pulsanti ben visibili e ad alto contrasto, con le parole scritte più grandi per essere più facilmente visibili. Ci sono poi delle personalizzazioni specifiche per le singole app, come Messaggi che si presenta con una tastiera solo con emoji e la possibilità di registrare un video da condividere in chat.

Live Speech, iPhone legge ad alta voce ciò che si digita
Per quanto concerne l'accessibilità vocale, per iPad, iPhone e MAC è stata presentata "Live Speech", una funzionalità progettata per permettere di digitare parole e frasi sul dispositivo che vengono poi lette ad alta voce da una voce virtuale creata dal dispositivo stesso. Live Speech, sviluppata per supportare le persone che non possono parlare o che stanno perdendo l'uso del linguaggio lentamente, può essere utilizzata durante una telefonata, su FaceTime e di persona. Inoltre, Live Speech permette anche di salvare le frasi più frequenti, così da non doverle digitare ogni volta che servono.
Leggi anche:
Leggi anche:

Personal Voice, iPhone ricrea il tono della propria voce
Restando nell'ambito dell'accessibilità vocale, le persone che riescono a parlare ma che hanno un problema per cui sanno che, nel tempo, perderanno sempre di più l'uso del linguaggio, arriva la nuova funzionalità chiamata "Personal Voice", progettata per creare una voce virtuale quanto più simile a quella propria. La configurazione iniziale della funzionalità, possibile su iPhone e iPad, chiede di leggere una serie di frasi per registrare 15 minuti della propria voce. A questo punto, la funzione impiega l’apprendimento automatico locale per elaborare un modello di voce simile a quella propria. Questo modello può essere utilizzato con la funzionalità Live Speech, dando così la possibilità di digitare frasi e parole che poi il dispositivo dirà ad alta voce usando una voce virtuale simile alla propria.

Point and Speak
Infine, Apple presenta "Point and Speak", una funzionalità per la modalità di rilevamento della Lente d’ingrandimento progettata per supportare le persone cieche o ipovedenti durante la loro interazione con oggetti fisici dotati di etichette di testo. Per esempio, inquadrando con il telefono la pulsantiera di un forno a microonde, è possibile puntare il dito su un pulsante del tastierino per far leggere al telefono il comando a cui fa riferimento quel pulsante (come 'cottura rapida 30 secondi'). Point and Speak (letteralmente 'indica e parla') funziona combinando gli input della Fotocamera, dell’apprendimento automatico sul dispositivo e dello scanner LiDAR. Proprio per quest'ultimo requisito, la disponibilità di "Point and Speak" viene limitata su iPhone e iPad dotati di scanner LiDAR. Inoltre, al debutto, la disponibilità di Point and Speak viene limitata al riconoscimento di testi scritti in inglese, francese, italiano, tedesco, spagnolo, portoghese, cinese, cantonese, coreano, giapponese e ucraino. Point and Speak è progettato per funzionare con VoiceOver e con le funzioni della Lente d’ingrandimento come Rilevamento persone, Rilevamento porte e Descrizioni immagini.
Leggi anche:
Apple ha poi presentato nuove funzionalità e miglioramenti di funzionalità esistenti. Per esempio, arriva per 'Controllo vocale' il supporto di suggerimenti fonetici per la modifica del testo; la 'Guida a Controllo vocale' offre consigli e trucchi su come utilizzare i comandi vocali al posto del tocco e della digitazione su iPhone, iPad e Mac; 'Controllo interruttori' permette alle persone con disabilità motorie di trasformare interruttori in un controller di gioco virtuale su iPhone e iPad; 'Dimensioni testo' è più facile da impostare per le persone ipovedenti su alcune app del Mac; le immagini con elementi in movimento, come le immagini animate in formato GIF, possono essere messe in pausa automaticamente nelle app Messaggi e Safari; è possibile rallentare (fino a 0.8x) o velocizzare (fino a 2x) la lettura di Siri tramite VoiceOver.
Queste novità per l'accessibilità sono state al momento solo anticipate, saranno disponibili nel corso dei prossimi mesi: come tempistica, Apple ha previsto entro la fine del 2023.