Apple ha rilasciato una serie di nuove funzionalità di accessibilità per iPhone, Apple Watch e Mac, tra cui uno strumento universale per i sottotitoli in tempo reale, modalità di rilevamento visivo e uditivo migliorate e l’accesso iOS alle app WatchOS. Le nuove funzionalità arriveranno “entro la fine dell’anno” man mano che gli aggiornamenti verranno implementati su varie piattaforme.
Lo strumento più ampiamente applicabile è probabilmente il live caption, già molto popolare con strumenti come Ava, che l’altro giorno ha raccolto 10 milioni di dollari per espandere il proprio repertorio.
Lo strumento di Apple svolgerà una funzione simile a quella di Ava, consentendo essenzialmente di sottotitolare in tempo reale qualsiasi contenuto parlato che un utente incontra, da video e podcast a FaceTime e altre chiamate. FaceTime in particolare riceverà un’interfaccia speciale con una trascrizione a scorrimento specifica per gli altoparlanti sopra le finestre video.
Le didascalie possono essere attivate tramite le consuete impostazioni di accessibilità, e rapidamente attivate e disattivate o dal riquadro in cui appaiono espanse o contratte. E tutto si verifica utilizzando l’hardware di accelerazione ML integrato nel dispositivo, quindi funziona quando hai una connettività irregolare o nulla e non ci sono domande sulla privacy.
Questa caratteristica può benissimo tarpare le ali dei fornitori indipendenti di servizi simili, come spesso accade quando le aziende implementano versioni proprietarie di strumenti tradizionalmente di terze parti, ma può anche aumentare la qualità e la concorrenza. Avere una scelta tra diversi provider non è una brutta cosa e gli utenti possono facilmente passare da uno all’altro se, come sembra probabile, la soluzione di Apple è la migliore per FaceTime mentre un altro, come Ava, potrebbe eccellere in altre situazioni. Ad esempio, Ava ti consente di salvare le trascrizioni delle chiamate per la revisione in un secondo momento, non un’opzione per i sottotitoli di Apple, ma sicuramente utile in situazioni di lavoro.

Crediti immagine: Mela
Le app di Apple Watch otterranno una migliore accessibilità su due fronti. Innanzitutto ci sono alcuni gesti delle mani aggiunti per le persone, ad esempio gli amputati, che hanno problemi con le interazioni più fini sul piccolo schermo. Un mucchio di nuove azioni disponibili tramite gesti come un “doppio pizzico”, che ti consente di mettere in pausa un allenamento, scattare una foto, rispondere a una telefonata e così via.
In secondo luogo, le app WatchOS possono ora essere rispecchiate sugli schermi degli iPhone, dove è possibile utilizzare altri strumenti di accessibilità. Ciò sarà utile anche per chiunque ami i casi d’uso specifici degli smartwatch dell’Apple Watch ma abbia difficoltà a interagire con il dispositivo alle sue condizioni.
Anche gli strumenti di assistenza esistenti Magnifier e Sound Recognition ottengono alcune nuove funzionalità. Magnifier riceverà una “modalità di rilevamento” entro la fine dell’anno che combina diversi strumenti di descrizione in un unico posto. Il rilevamento delle persone in Magnifier consente già all’utente di sapere se una persona o qualcosa di leggibile o descrivibile è proprio di fronte a loro: “persona, 5 piedi più avanti”. Ora ci sarà anche una modalità speciale di “rilevamento della porta” che fornisce i dettagli di quelle caratteristiche importantissime in un edificio. (Ho descritto in modo errato queste modalità dell’app in precedenza e questo paragrafo è stato aggiornato per la precisione.)

Crediti immagine: Mela
La modalità porta, che come le altre può essere attivata automaticamente o disattivata a piacimento, consente all’utente di sapere se la fotocamera del telefono può vedere una porta davanti, quanto è lontana, se è aperta o chiusa e tutte le informazioni pertinenti pubblicate su di essa, come un numero di stanza o un indirizzo, se il negozio è chiuso o se l’ingresso è accessibile. Queste due modalità di rilevamento e le descrizioni delle immagini entreranno tutte in una nuova modalità di rilevamento unificata in arrivo su Magnifier in seguito.
Il riconoscimento del suono è un’opzione utile per le persone con problemi di udito che desiderano essere avvisate quando, ad esempio, il campanello suona o il forno emette un segnale acustico. Sebbene la funzione in precedenza avesse una libreria di tipi di suono con cui funzionava, ora gli utenti possono addestrare il modello localmente per rilevare i rumori peculiari della loro famiglia. Data la varietà di allarmi, cicalini e altri rumori che tutti incontriamo regolarmente, questo dovrebbe essere abbastanza utile.
Infine c’è una funzione premurosa per i giochi chiamata Buddy Controller. Ciò consente a due controller di agire come uno solo in modo che una persona possa giocare con l’aiuto di un secondo, nel caso fosse difficile o stressante fare tutto da solo. Data la complessità di alcuni giochi anche su dispositivi mobili, questo potrebbe essere molto utile. A volte vorrei avere un partner di gioco con un controller dedicato solo per non dover fare i conti con la fotocamera traballante di alcuni giochi.
Ci sono una serie di altri aggiornamenti più piccoli, come la regolazione del tempo che Siri attende prima di rispondere a una domanda (ottimo per le persone che parlano lentamente) e opzioni di personalizzazione del testo extra in Apple Books. E VoiceOver arriverà presto anche in 20 nuove lingue e località. Sapremo di più sui tempi esatti e sulla disponibilità quando Apple farà annunci più specifici su tutta la linea.