Come sarebbe il mondo visto attraverso gli “occhi” di un’auto a guida autonoma? Come percepiscono l’ambiente le auto a guida autonoma? E come vengono raffigurati gli utenti della strada come veicoli, ciclisti e pedoni? Le risposte arrivano dal progetto di moovel lab, affiliata di Daimler, “Who Wants to Be a Self-Driving Car”. Grazie a una vettura non convenzionale costruita ad hoc, tutte le informazioni provenienti da una telecamera 3D con rilevamento della profondità, da uno scanner Lidar e da vari sensori vengono raccolte e visualizzate all’interno di occhiali per la realtà virtuale. In questo modo, l’uomo vede come un’auto a guida autonoma.

Il progetto vuole essere una piattaforma per tutti coloro che desiderano sperimentare e condividere impressioni, sensazioni e pensieri sul futuro della guida autonoma. Grazie alle esperienze in prima persona, intendiamo ridurre la complessità di questo argomento, creare empatia e stimolare la discussione legata al futuro della mobilità.

Joey Lee, responsabile del progetto.

L’idea alla base di “Who Wants to Be a Self-Driving Car” era quella di creare un prototipo in cui la vista umana venisse sostituita da sensori come quelli impiegati sui veicoli a guida autonoma. Il prototipo, in realtà, è una vettura non a guida autonoma, in cui il computer – in qualità di soggetto che prende decisioni e unità di comando – viene sostituito dall’uomo. Il mezzo è composto da una piattaforma con motori sui mozzi ruota e sensori. Per sterzare, accelerare e frenare viene utilizzata una centralina.

L’esperienza di realtà virtuale è possibile grazie a due tipi di sensori. La visualizzazione principale mostra i dati di una telecamera 3D con rilevamento della profondità, per avere una rappresentazione del paesaggio in tempo reale. L’informazione visiva viene integrata con un riconoscimento automatico degli oggetti nella zona circostante e in questo modo il sistema fornisce a chi si trova al volante notizie sugli oggetti riconosciuti dal computer.

Un sensore Lidar (Light Detection and Ranging) regala infine una dimensione aggiuntiva grazie alla misurazione della distanza. In questo caso, il sensore invia impulsi di luce in direzione degli oggetti nelle vicinanze per determinarne la distanza. Tutti questi componenti sono combinati nel visore per realtà virtuale e forniscono al guidatore i dati necessari per manovrare l’auto.

Il progetto di moovel lab sarà presentato prima alla conferenza “Push UX” che si terrà il 20 e il 21 ottobre a Monaco di Baviera, e poi al “KiKK Festival”, evento simbolo europeo per quanto riguarda la cultura digitale e creativa in programma dal 2 al 4 novembre nella città belga di Namur.