Categorie
Hardware

La Google self-driving car causa per la prima volta un incidente

Nessuno è perfetto, neanche le intelligenze artificiali create a tavolino: o forse si, ma soltanto algoritmicamente parlando e non nella vita reale.

Perché la “causa” del primo incidente stradale provocato dalla Google Self-driving car è proprio questa: il comportamento dell’automobile faccia a faccia con l’imprevisto è stato corretto se si considera l’algoritmo di gestione ma imprevedibile se si tiene conto dello scenario reale con cui questo è avvenuto.

Innanzitutto, non ci sono stati feriti. In secondo luogo, chiariamo che non si tratta del primo incidente per le self-driving Car, ma del primo “provocato” da una di esse in modalità di guida autonoma – dunque, in pratica, da una intelligenza artificiale.

google-self-driving-lexus

E adesso, la dinamica: secondo il report, la collisione è avvenuta poiché la Google Lexus ha trovato sul suo percorso alcuni sacchi di sabbia a protezione di un tombino aperto, si è fermata ed ha cercato di immettersi nella corsia centrale. Il guidatore a bordo della Lexus, che non aveva il controllo – affidato al pilota automatico – del veicolo, ha pensato che l’autobus che occupava la corsia centrale si sarebbe fermato – o avrebbe quantomeno rallentato – per permettere il cambio alla Lexus, così come l’algoritmo stesso, dunque non ne ha assunto il controllo manuale.

Ciò non è successo, l’autobus non si è fermato né ha rallentato ma la Google Lexus ha tentato comunque di immettersi in corsia dunque tre secondi dopo c’è stato l’impatto tra la fiancata dell’automobile e quella del bus.

Un classico incidente stradale evitabile sia nel caso che l’autobus avesse rallentato sia nel caso che la Google Car si fosse fermata e ne avesse atteso il passaggio; secondo il codice della strada, l’autobus non aveva nessun obbligo a cambiare la sua marcia – dunque, di fatto, l’incidente è stato provocato dal non-fermarsi della Lexus.

 

Morale della favola: un incidente che non sarebbe avvenuto sia se da ambo le parti ci fosse stato il controllo umano sia se da ambo le parti ci fosse stato il pilota automatico – il tentativo di immissione della Lexus sarebbe stato visto come un ostacolo dal bus, che l’algoritmo di controllo avrebbe bloccato automaticamente.

Trattasi quindi della dimostrazione che la convivenza tra pilota automatico e pilota umano non è assolutamente sinonimo di perfezione né di sicurezza assoluta. 

Almeno non ancora.

via

9 risposte su “La Google self-driving car causa per la prima volta un incidente”

I sensori e gli algoritmi, a differenza degli uomini, fanno ciò per cui sono stati progettati, senza eccezioni (bug esclusi, ovviamente). Nel caso specifico, l’algoritmo, invece di pensare “arriva un mezzo che ha la precedenza, allora mi fermo”, ha pensato “ho messo la freccia, mi avrà visto e sicuramente si fermerà, anche se ha la precedenza”, cioè ha fatto una supposizione, un’ipotesi. Questo, in ambito automobilistico, è pericoloso.
Concordo che dal momento in cui ci saranno solo macchine automatiche, tali incidenti non dovrebbero verificarsi, perché interverrà anche l’algoritmo del mezzo che sopraggiunge e, vedendo l’ostacolo, fermerà il mezzo, ma nel frattempo dovrà passare un lungo periodo “ibrido” in cui dovranno convivere mezzi autonomi con mezzi guidati da umani. Sappiamo benissimo tutti che farà più rumore un micro-tamponamento come questo, provocato da un mezzo autonomo, rispetto ai migliaia di morti provocati dall’uomo al volante, quindi bisogna stare particolarmente attenti a non “umanizzare” troppo tali algoritmi.

Le manovre automobilistiche a volte vanno eseguite in frazioni di secondo, bisogna vedere anche questo parametro. Se questo tipo di autopilota va in porto, la gente sarà sempre meno attenta alla strada e sarà “lontana “per intervenire(2-3 secondi sono già troppi)

L’umano erra quindi un algoritmo del genere dovrebbe essere creato per capire la pazzia umana….ma se non ci riescono nemmeno gli uomini xD

L’unico modo per andare sicuri è che tutti siano automatici, il mix come in questo caso porterà a incidenti

Si, ma infatti questa è stato ovviamente un errore software, ma spero che sia come dico io quando capita un qualsiasi imprevisto che il software non riesce a gestire

Statisticamente non credo. Stiamo parlando del primo piccolo incidente dopo milioni (milioni) di chilometri percorsi. I problemi (per esempio la responsabilità nel caso di incidenti gravi) sono altri.

Mi sembra una mancanza molto grave. Questi algoritmi devono tenere conto del comportamento spesso illogico degli automobilisti umani. L’algoritmo non deve “presumere” in base alle regole, deve agire in base a ciò che sta accadendo. In quel momento stava accadendo che un altro mezzo stava sopraggiungendo ed aveva la precedenza, ergo, la macchina automatica avrebbe dovuto fermarsi ed aspettare che qualcuno, sull’altra corsia, si fermasse per farla inserire. La stragrande maggioranza degli incidenti è provocato proprio dal fatto che si presume che gli altri tengano un determinato comportamento, quando in realtà non lo fanno. Passaggio col rosso, mancata precedenza, sorpassi azzardati, sono queste le cose che devono essere gestite da tali algoritmi, sennò son capaci tutti. Prima di fidarmi, devo sapere con certezza che se questo algoritmo “percepisce” una macchina che mi sta per venire addosso (perché si sta avvicinando allo stop troppo velocemente, per esempio), deve prendere le adeguate contromisure in tempo (fermarsi prima dell’incrocio, o accelerare per togliersi di mezzo prima dell’impatto), e non “presumere” che si fermerà, solo perché il codice della strada dice che ci si deve fermare allo stop…

in realtà anche con il controllo umano ci sarebbe stato l’incidente…infatti l’errore di credere che l’autobus avrebbe rallentato non l’ha fatto solo il pilota automatico, ma anche il pilota umano, come tra l’altro dice anche l’articolo… l’autista ha sempre la possibilità di disattivare istantaneamente la guida automatica e non avendolo fatto vuol dire che anche lui non ha identificato la situazione come di pericolo. al massimo quindi l’incidente non ci sarebbe stato se a pilotare quella macchina ci fosse stato un umano più attento.

Nel caso capiti una situazione imprevista è meglio, per ora, che la macchina si fermi e il vero pilota cerca di evadere a questo imprevisto, per poi riattivare la guida manuale

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *