guida driverless

Auto autonome, i cinque aspetti più stimolanti della guida driverless.

Dal veicolo empatico alla “visione periferica” fino agli iniziali fronti di sperimentazione, dalle consegne ai taxi, passando per il lusso del tempo impiegato nei mezzi ad autonomia totale, le strade dietro l’angolo.

|

Individuare il momento esatto del passaggio è impossibile e forse perfino inutile. Troppi i fattori e gli elementi in gioco: in ballo, d’altronde, non c’è il se ma il quando. Se la commissaria europea ai Trasporti, la slovena Violeta Bulc, ha spiegato che “le auto a guida completamente autonoma non circoleranno su strada prima del 2050”, la realtà ci parla di soluzioni che sono già ampiamente a disposizione e di tecnologie in fase di velocissimo sviluppo. Insomma, se l’Ue non immagina l’avvento dei veicoli senza conducente come imminente le case automobilistiche – e non solo loro, basti pensare a piattaforme come Uber – prevedono di essere in grado di offrirle già nel giro del prossimo decennio. E ne integrano alcuni elementi nei più avanzati modelli sul mercato. BlackRock ha per esempio cerchiato di rosso il 2025, pur sottolineando che ben prima di quell’anno di svolta – che condurrà al 75% di automazione entro il successivo decennio – il 98% dei veicoli sarà connesso. Accadrà infatti nel giro di tre anni.

Intanto anche in Italia è partita la sperimentazione su strada: il cosiddetto decreto Smart Road approvato all’inizio dello scorso marzo ha infatti dato il via libera in stretto collegamento ai progetti di ammodernamento digitale della rete stradale nazionale. Infrastrutture e autostrade dovranno insomma anzitutto farsi “smart” prima di poter accogliere le auto autonome. La data entro cui ultimare questo cambiamento di pelle collima, non a caso, con le stime degli analisti e degli esperti per le driverless car: entro il 2030 dovrà essere introdotta la connettività V2X che consentirà lo scambio di informazioni tra i veicoli e tra i veicoli e le infrastrutture, i pedoni e i dispositivi, costruendo una ragnatela tecnologica che farà da ecosistema ideale anche per i veicoli senza conducente. Costruttori, istituti universitari ed enti di ricerca potranno cominciare a sperimentare le auto senza conducente seguendo un lungo elenco di prescrizioni.

Ma quali saranno i fronti colpiti per primi dall’intelligenza artificiale applicata al mondo automotive? Dentro e fuori dai veicoli, quali ingredienti cambieranno rapidamente e diventerà elemento comune delle quattro ruote? Techopedia ha per esempio messo insieme alcuni di questi aspetti. I veicoli destinati alla consegna potrebbero per esempio incarnare l’avanguardia dell’epoca driverless insieme ai modelli di auto premium che già oggi propongono soluzioni di livello 3 di automazione, quello definito “condizionata”, nel quale cioè il veicolo può gestire la guida in condizioni ordinarie e il guidatore deve intervenire solo in situazioni problematiche o se egli stesso capisca che il contesto ambientale stia mutando. Come accade con l’AI traffic jam pilot sull’Audi A8, utilizzabile fino ai 60 Km/h: il sistema prende il controllo del veicolo gestendo da solo partenze, accelerazioni, sterzate e frenate, in situazioni come code o rallentamenti autostradali.

Veicoli commerciali elettrici (e autonomi) sono già in fase di sviluppo e interverranno nel sempre più caotico mondo delle consegne dei pacchi da un punto di smistamento alla destinazione tenendo in considerazione elementi come condizioni del traffico, parcheggi e atteggiamento dei pedoni. Come sempre occorrerà capire dove e in quali contesti si comincerà, ma il mondo delle spedizioni e delle consegne – lo testimonia anche l’impegno su robot e droni – sarà senza dubbio un palcoscenico di prova per l’automotive autonomo. Un palcoscenico al momento sottovalutato.

L’autonomia totale di livello 5 in cui il sistema gestisce ogni situazione e non ha bisogno di alcun intervento umano, è già in fase di sviluppo. Anche in questo caso, un altro fronte iniziale in cui potrebbe svilupparsi questo genere di automazione non è tanto quello della mobilità privata quanto dei taxi e delle auto a chiamata, magari messe a disposizione dalle aziende. Guardare un film, sbrigare il lavoro o ascoltare la musica dopo aver chiamato un’auto con un tap, proprio come si fa oggi con diverse piattaforme, ma senza nessuno alla guida sarà un passaggio epocale, non c’è che dire, e al momento ancora un po’ avveniristico. Nonostante i timori sotto profilo occupazionale molte soluzioni – come la piattaforma Drive Px di Nvidia – lo stanno già materializzando. E nel giro di poco tempo potremmo vedere i primi veicoli riprogettati anche sotto il profilo degli interni: pedali, sterzo e cambio serviranno sempre meno o potranno essere semplificati in comandi più essenziali. Non è neanche da escludere che la guida completamente autonoma possa trovare le sue sperimentazioni in contesti guidati e obbligati (come gli hub dei trasporti, dove in molte parti del mondo già su rotaia non serve più un conducente) oppure verso categorie specifiche con mezzi controllati dal servizio pubblico (anziani o non deambulanti).

La capacità di parcheggio “autonomo” o semiautonomo fa già parte dell’equipaggiamento di molti modelli da tempo. Tuttavia proprio questa fase di parking, la più complessa specialmente nelle metropoli fonte di enormi perdite di tempo, produttività e inquinamento, cambierà ancora. Proprio grazie ai più elevati livelli di autonomia – basti immaginare un veicolo che passi a prenderci sotto casa, ci porti in ufficio e vada a parcheggiarsi dove sa che troverà spazi liberi – e alla disponibilità di grandi moli di dati. Luoghi, spazi e tempi incrociati secondo tendenze e informazioni in tempo reale ribalteranno appunto la frustrante fase del parcheggio informando il cervello della vettura mentre è in marcia, sia che ci stia venendo a prendere o che stia “cercando posto”. Quei numeri, a proposito di connettività pressoché completa dietro l’angolo, saranno raccolti “di prima mano” dalle stesse vetture che li passeranno a cloud dedicati dai quali, a loro volta, i mezzi potranno attingere. Un ciclo virtuoso in grado di cambiare totalmente faccia ai quartieri più congestionati e di riconsegnarci la vera ricchezza contemporanea. Anzi, il vero lusso moderno: il tempo. Prima tramite un’esperienza più libera e personalizzata. Poi con un taglio effettivo di tempi e stress.

Gli aspetti più interessanti passeranno però dalle vere qualità che sfiorano “l’intelligenza”. Il pezzo mancante, fino a oggi, è infatti il buon senso umano. Cioè quell’infinita gamma di sfumature che a dirla tutta provoca un sacco di incidenti ma sulla quale ci mancano i dati opposti: quanti ne evita? Previsioni sui comportamenti altrui, variabili assortite, suoni e rumori, atteggiamenti impensabili dei pedoni e così via: è in quella babele di “umanità” che le auto autonome dovranno tuffarsi. E in parte ci stanno provando, per esempio con uno spinoff del Mit di Boston, la startup iSee, che lavora proprio su questo obiettivo: sfruttare big data e reti neurali in modo che i veicoli possano imparare davvero e “negoziare” in ogni condizione possibile di traffico. Non solo quelle ottimali. “La mente umana è ipersensibile a tracce e segnali di tipo fisico e sociale – ha spiegato Yibiao Zhao, cofondatore di iSee – e l’intelligenza attuale è relativamente debole in questi ambiti. Questo è il pezzo mancante”. Per dirla in altre parole, servono auto davvero empatiche.

Oltre all’empatia, cioè alla capacità di fare rete non solo con i dati, i dispositivi e gli altri veicoli ma anche di introdurre una ricca serie di sfumature e valutazioni, le auto autonome saranno anche “indovine”. Valutando distanza e velocità dei pedoni così come di oggetti o veicoli anche quando le camere tradizionali di cui sono equipaggiate non saranno in grado di farlo, lanciando un’occhiata (digitale) perfino oltre gli angoli ciechi. Ci sta lavorando sempre il Csail, il Computer Science and Artificial Intelligence Laboratory del Mit, col progetto CornerCameras che sfrutta la luce riflessa e le ombre per capire e valutare le “sorprese” che potrebbero spuntare da contesti non analizzabili perché preclusi alla “vista” delle camere. Chissà che alcuni dei casi più controversi degli ultimi tempi, avvenuti nel corso dei test negli Stati Uniti e non solo, non possano essere evitati tramite un sistema così raffinato. E sicuro.