Disabilità sensoriali

Rilevamento persone e non solo: ora l’iPhone racconta ai non vedenti tutto ciò che gli sta intorno

Con l’aggiornamento iOS 14.2 l’app Lente d’Ingrandimento si arricchisce di nuove funzionalità, grazie anche al sensore LiDAR sui modelli Pro. Arriva il Rilevamento Persone, ora il Voice Over racconta tutto ciò che ci sta intorno.

Tra le tante novità che il nuovo iPhone 12 ha portato ce n’è una che potrebbe farci scoprire – questa volta per davvero – le potenzialità della realtà aumentata. Il sensore LiDAR, installato sui modelli Pro e Pro Max, permette allo smartphone di«vedere» ciò che succede attorno a lui. Quali oggetti ci sono e a quale distanza si trovano da noi. Un sensore che dunque porterà a nuove scoperte nel campo dell’AR, facendo davvero interagire il digitale con il reale, ma non solo. Anche le fotocamere lo sfruttano per migliorare le nostre foto. Ancora, non è finita. Perché tra le tante (prime) applicazioni a cui Apple ha pensato per questo sensore ce n’è una che risulterà utile a tutti noi – in periodo di pandemia – e molto utile a chi è affetto da problemi di vista.
 

Il Rilevamento Persone
Apple ha fatto dell’accessibilità uno dei suoi cavalli di battaglia (potete trovare un approfondimento qui). Prima in ordine di tempo a pensare di rendere il nostro compagno di attività quotidiane – lo smartphone – anche uno strumento per aiutare chi soffre di disabilità. Ed ecco che il sensore LiDAR può migliorare ancora di più le funzionalità che già i non vedenti, in questo caso, hanno a disposizione. Conl’aggiornamento al sistema operativo iOS 14.2, Apple ha introdotto una novità all’interno della sua app Lente d’Ingrandimento. Chiamata “Rilevamento Persone”, è un’icona che si trova nella schermata una volta attivata l’app, in basso a destra. Cosa fa? Ci dice se ci sono delle persone vicine a noi, e quanto sono vicine a noi. Acronimo di Light Detection and Ranging, il sensore LiDAR viene utilizzato anche sulle auto a guida autonoma perché è in grado di mappare lo spazio circostante utilizzando un impulso laser. La distanza dell’oggetto viene data dal tempo trascorso fra l’emissione dell’impulso e la ricezione del segnale da parte del dispositivo. Ed ecco che si può sfruttare non solo per le auto o gli oggetti, ma anche per gli esseri umani. Utile, dicevamo, per chi ha problemi di vista che può così sapere chi ha intorno. Utile anche a tutti noi in questo periodo storico, per sapere se ci stiamo avvicinando troppo ad altre persone. Si può decidere di impostare un suono, un avviso vocale o un feedback aptico quando un altro uomo o donna entra nel raggio di una distanza pre-impostata. Due metri quella corretta secondo le disposizioni sanitarie internazionali. Se la provate su un animale domestico, l’iPhone 12 è in grado di distinguerlo e non viene inviato nessun avviso.
L’iPhone ora racconta tutto ciò che ci circonda
Tornando a chi, la Lente d’Ingrandimento, la usa per svolgere attività quotidiane, questa diventa davvero utile se si sfrutta in contemporanea un’altra funzionalità chiamata VoiceOver, che raccontava già tutto ciò che appare sullo schermo ma ora è in grado di dire anche ciò che viene ripreso dalla fotocamera. Per azionare la descrizione, è necessario inquadrare ciò che ci interessa con la fotocamera – con Lente d’Ingrandimento attivata – e poi premere sullo schermo. Abbiamo provato ad ascoltare le descrizioni fornite dall’iPhone: difficile per il dispositivo riconoscere una scena “estesa”. La televisione diventa una finestra, il pianoforte diventa un tavolo. Ma se utilizzato su oggetti ben definiti, VoiceOver ce li racconta in modo molto preciso. Per esempio una cesta di frutta è stata analizzata come: “Banane, cesta, delle mele”. Oppure questo computer dove stiamo scrivendo: “Computer portatile, un tavolo e una sedia”. E infine il nostro animale domestico, sdraiato sul letto, che il VoiceOver racconta così: “Gatto adulto, tessuto”.

Fonte: corriere.it

(ca/la)