Apple FaceTime, chiamate con contatto visivo da iOS 13

La funzione in sviluppo fa sembrare che gli utenti in una conversazione su Facebook guardano direttamente la fotocamera, non un altro punto sullo schermo.

Scritto da

Simone Ziggiotto

il

Apple ha aggiunto la funzionalità chiamata "FaceTime Attention Correction" nell’ultima versione beta di iOS 13 Developer, come riferito da Techcrunch e dimostrato via Twitter dall’utente @WSig. Risolverà il ‘problema’ del mancato contatto visivo tra le persone in contatto su Facetime.

Come intuibile dalla traduzione all’italiano del nome in ‘Correzione dell’attenzione su FaceTime’, la funzionalità fa sembrare che le persone in una chiamata Facetime guardano direttamente nella fotocamera anche se, nella realtà, stanno guardando un altro punto dello schermo.

standard

La funzionalità puo’ tornare utile a molte persone poichè gli utenti che partecipano ad una call in Facetime (o in generale ad una qualsiasi videochiamata, anche su Whatsapp ad esempio) sono soliti guardare lo schermo piuttosto che dritto nella fotocamera, senza essere in contatto visivo. E’ logico che questo avvenga, perchè l’attenzione viene rivolta all’altra persona con cui si è in contatto, che viene mostrata in un punto piu’ lontano rispetto al centro della selfiecamera.

"FaceTime Attention Correction" è destinata a rendere le conversazioni su FaceTime piu’ realistiche, ‘faccia-a-faccia’.

Come qualsiasi funzionalità che viene aggiunta in una versione beta di una piattaforma in sviluppo, non è detto che "FaceTime Attention Correction" verrà introdotta per tutti gli utenti di iPhone che aggiorneranno a iOS 13 questo autunno. Inoltre, c’è da precisare che la funzionalità in iOS 13 beta sta attualmente funzionano solo su iPhone XS e iPhone XS Max. Questo puo’ significare che la funzionalità richiede una elaborazione hardware elevata, possibile solo col processore di ultima generazione Apple A12 che si trova su iPhone XS e iPhone XS Max. Cio’ non esclude che, da una prossima build beta o direttamente dalla versione finale della piattaforma, la disponibilità possa essere estesa anche a modelli di iPhone di generazione precedente. Il ‘lavoro’ che, di fatto, viene richiesto al processore è si rilevare le pupille della persona inquadrata e direzionarle in modo da far sembrare che stanno guardando la direttamente la fotocamera, ma tutto cio’ deve avvenire in tempo reale.

Impostazioni privacy