Nell’ultimo periodo abbiamo parlato così tanto di LiDAR applicato ai nuovi dispositivi Apple che abbiamo forse dimenticato che la Realtà Aumentata mobile può funzionare anche in altri modi. Ad esempio con la tecnologia ToF che - impiegata sui dispositivi Samsung - ci permette di avere altissime prestazioni tecniche.
Ma ti sei mai chiesto cosa significhino davvero LiDAR e ToF? Ebbene, se sei curioso e vuoi scoprirne di più su questi strumenti, allora devi assolutamente dedicare un po' di tempo a capire cosa si nasconda dietro questi acronimi. Lo facciamo insieme, in questo articolo.
Indice dei contenuti
Cos'è ToF?
ToF è l'abbreviazione di Time of Flight (“Tempo di volo”): esso è uno strumento che ci permette di stimare, in tempo reale, qual è la distanza tra la telecamera e gli oggetti che vengono inquadrati. ToF misura il tempo che impiega un impulso luminoso per percorrere il “tempo di volo” ovvero il tragitto telecamera-oggetto-telecamera.
Cos'è LiDAR?
LiDAR è l'acronimo di Light Detection and Ranging ed è una tecnica di rilevamento che ci permette di determinare la distanza di un oggetto (oppure di una superficie) utilizzando un impulso laser.
Cos'è Lidar e come funziona?
Se stai pensando di acquistare un nuovo smartphone e vorresti il meglio per te, allora dovresti prendere in considerazione un dispositivo con LiDAR integrato.
Con una sola lettura LiDAR puoi misurare, ad esempio, la larghezza di una stanza. E non solo: molteplici letture LiDAR sono in grado di creare e delineare le "nuvole di punti" ovvero gruppi di dati di grandi dimensioni che vengono in genere utilizzati per creare modelli tridimensionali di oggetti o mappe topografiche di intere aree. Potrà sembrarti che LiDAR sia una tecnologia nuova che viene ora impiegata sui dispositivi mobili ma, in realtà, non è così: LiDAR viene usata da molto tempo, ad esempio nella mappatura di ambienti sottomarini oppure nel rilevamento di siti archeologici.
LiDAR e ToF: qual è la differenza?
Vi è una differenza funzionale tra LiDAR e ToF: LiDAR si avvale dell’utilizzo di laser per costruire la “nuvola di punti” di cui parlavamo prima.
Questa “nuvola di punti” viene utilizzata per costruire una mappa o un'immagine 3D. Le applicazioni ToF, invece, usano una telecamera RGB standard per creare "mappe di profondità": riescono a fare tutto ciò sfruttando il rilevamento della luce.
Rispetto a LiDAR (e questo, forse, è anche il vantaggio più grande), ToF si avvale di apparecchiature meno specializzate e può quindi essere usato con dispositivi più piccoli e più economici.
Usando LiDAR, invece, un computer riesce a leggere molto più facilmente la “nuvola di punti” rispetto ad una mappa di profondità. Facciamo un esempio per capirci meglio: l'API Depth di Google per i dispositivi Android, funziona molto bene su tutti quei dispositivi dotati di tecnologia ToF.
Il funzionamento di ToF e LiDAR con l'AR mobile
Le mappe di profondità e le nuvole di punti sono molto interessanti ma questi dati – nella maggior parte delle applicazioni AR – hanno bisogno di essere contestualizzati. Sia ToF che LiDAR effettuano questa contestualizzazione collaborando con altri sensori sui device mobili che, dal canto loro, devono codificare l'orientamento e il movimento del telefono. La mappatura e la localizzazione simultanee (“SLaM”) sono operazioni in grado di “dare un senso” alla posizione del dispositivo in un ambiente mappato.
Un altro elemento di entrambe le applicazioni basate su LiDAR e ToF sono le ancore ovvero punti digitali presenti nel mondo fisico a cui sono "attaccati" gli oggetti digitali.
Nelle applicazioni più famose come, ad esempio, Pokemon Go, l’ancoraggio viene effettuato con il "Geotagging", un processo del tutto autonomo e separato.
LiDAR è migliore di ToF?
LiDAR è più veloce e più preciso del tempo di volo ma questa sua caratteristica diventa più importante ed evidente con applicazioni tecnologicamente più avanzate. ToF e l'API Depth di Google non riescono a comprendere alla perfezione i piani grandi e di bassa consistenza (pensiamo, ad esempio, ai muri bianchi).
La citata caratteristica può essere d’ostacolo per tutte quelle applicazioni che utilizzano questo metodo e che non riescono a portare avanti alla perfezione il processo di posizionamento degli oggetti digitali su alcune superfici del mondo fisico. Spesso questa procedura non avviene in maniera del tutto precisa. Le applicazioni che utilizzano la tecnologia LiDAR possono sì incontrare questo tipo di problema ma hanno meno probabilità che ciò avvenga.
E’ però necessaria una precisazione: le applicazioni che operano in ambienti più grandi e strutturalmente “vari”, presentano questo problema molto raramente. Del resto, le applicazioni AR di consumo che si basano su device mobili utilizzano sovente un filtro AR posizionato sia sul corpo che sul viso dell’utente: in questo modo e con tali cautele, è davvero improbabile che le grandi superfici possano creare un consistente problema a queste applicazioni.
Perché Apple e Google utilizzano sensori di profondità diversi?
Nel momento in cui presentava sul mercato i suoi dispositivi compatibili con LiDAR, Apple affermava anche di aver dotato i dispositivi di sensori e hardware in grado di offrire prestazioni eccellenti.
In occasione di questo rilascio, Apple ha anche parlato del suo iPad Pro compatibile con LiDAR come "il miglior dispositivo al mondo per la realtà aumentata". Dal canto suo, Google non ha mai parlato agli utenti in questo modo e non ha mai spiegato esplicitamente la ragione per cui la loro API Depth e la nuova linea di dispositivi non utilizzano la tecnologia LiDAR. Strano, perché i vantaggi dell’utilizzo di LiDAR sono sotto gli occhi di tutti! Gli smartphone e table Android con questa tecnologia sarebbero sicuramente più leggeri, convenienti ed “accessibili”.
In che senso? Android è in grado di funzionare su un grandissimo numero di dispositivi mobile prodotti da aziende differenti e dislocate in tutto il Mondo: usare LiDAR vorrebbe dire favorire la vendita sul mercato dei modelli compatibili con questa tecnologia, a scapito di tutti gli altri che non la supportano.
Inoltre, l'API Depth di Google funziona indipendente dal dispositivo e questo ha un’importante ricaduta pratica. Perché? Gli sviluppatori che si avvalgono della piattaforma di creazione di esperienze AR di Google sono anche in grado di creare esperienze che funzionano su dispositivi Apple.
Conclusioni
Nel nostro articolo abbiamo parlato delle tecnologie LiDAR e ToF applicate esclusivamente alle esperienze AR su dispositivi mobili.
L’argomento è ricco di spunti, molto interessante e complesso: ecco perché richiede grandi approfondimenti e spiegazioni. Ma non bisogna dimenticare che LiDAR e ToF sono tecnologie su cui si basano numerosi strumenti che usiamo nel nostro quotidiano, senza nemmeno rendercene conto. Ed è proprio per le immense ricadute pratiche di ToF e LiDAR che speriamo che il nostro approfondimento ti aiuti a capire meglio queste tecnologie e ti avvicini ad esse con maggiore consapevolezza.