Ecco perché la Guida Autonoma è difficile, spiegato bene: una Tesla scambia la Luna per un Semaforo



Rilancio qui le mie asserzioni-scommessa sull’intelligenza artificiale basata solo sul riconoscimento di schemi:

  1. Il machine learning è semplicemente un riconoscimento di schemi (pattern recognition) e non costituisce “intelligenza” in alcun senso significativo della parola.
  2. Il riconoscimento di schemi fallisce in maniera profondamente non umana e in situazioni che un umano invece sa riconoscere in maniera assolutamente banale. Questo rende difficilissimo prevedere e gestire i fallimenti del machine learning e quindi rende pericolosa la collaborazione umano-macchina.
  3. Qualunque sistema di guida autonoma o assistita basato esclusivamente sul riconoscimento degli schemi è destinato a fallire in maniera imbarazzante e potenzialmente catastrofica.
Esempio dell’asserzione numero 2:

Sì, l’attuale software delle Tesla (che, ricordo, per l’ennesima volta, è un assistente di guida, non un sistema di guida autonoma) scambia la Luna, giallognola e bassa sull’orizzonte, per un impossibile semaforo giallo sospeso in cielo.

Un esempio perfetto di edge case: una situazione che si presenta molto raramente ed è assolutamente ovvia per un essere umano (che ha cognizione di come è fatto il mondo e sa che non ci sono semafori in cielo) e che pertanto difficilmente verrà contemplata nel dataset usato per addestrare il sistema di riconoscimento delle immagini.

Finché il software di guida assistita fa sbagli di questo genere, non me ne faccio niente di un assistente imbecille e di certo non sono disposto a mettere la mia vita nelle sue mani.

Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o altri metodi.

Commenti