Fino a oggi c’erano stati pochissimi incidenti, ma adesso la questione solleva qualche dubbio. Siamo di fronte al primo caso di omicidio da parte di un’intelligenza artificiale? Una donna che attraversava la strada è stata investita mortalmente a Tempe, in Arizona, da un’auto a guida autonoma di Uber in fase di test (una Volvo XC90). Per quel che è emerso al momento, il tester a bordo dell’auto non è riuscito a prendere in tempo il volante ed evitare la tragedia, che solleva ora grossi dubbi sull’attuale stato tecnologico delle vetture a guida autonoma.

L’incidente, avvenuto la notte scorsa, ha portato all’immediato stop dei test in tutte le città dov’era attivo (Tempe, Pittsburgh, San Francisco e Toronto), mentre Uber si è subito dichiarata pronta a collaborare con le autorità locali – che hanno già avviato le indagini – e il Ceo della compagnia, Dara Khosrowshahi, ha espresso le proprie condoglianze alla famiglia della donna con un tweet.

Centinaia i commenti al tweet, tutti accomunati dalla stessa accusa: la tecnologia non è sicura. Un incubo che prende vita per tutte le Case automobilistiche impegnate un po’ ovunque nel mondo nei test di guida autonoma: l’auto che si governa da sé è in grado di uccidere involontariamente. Forse si sta correndo troppo con la sperimentazione, cercando di concretizzare il prima possibile qualcosa che, invece, richiede ancora un grosso sviluppo tecnologico?

È una domanda lecita da porsi di fronte allo stop immediato dei test da parte di Uber, sott’osservazione già da un po’ di tempo da alcuni analisti, soprattutto negli States, che vedono nell’attuale tecnologia di guida autonoma qualche falla. Insomma, l’intelligenza artificiale che governa l’auto può incappare in un errore, avere una “svista”. Peggio ancora distrarsi. È la conclusione a cui potrebbero arrivare le indagini (che altro sennò?) e dalla quale imparare che c’è ancora parecchia strada da fare prima di arrivare a un mondo dove le auto si guideranno da sole. Senza correre.

LEGGI ANCHE