Con l’interesse e lo sviluppo che il settore innovativo delle auto senza conducente sta registrando negli ultimi anni (mentre Uber acquista Otto, Google, Apple e Tesla stanno portando avanti i loro progetti di auto intelligenti), iniziano a sorgere le prime questioni etiche e morali legate alla guida autonoma.
Il dilemma del carrello
Prendiamo come esempio il “dilemma del carrello”, un esperimento mentale di filosofia etica formulato nel 1967 da Philippa Ruth Foot: un autista di un tram conduce un veicolo capace solamente, tramite deviatoio, di cambiare rotaia. Non si ha possibilità di frenare. Sul binario percorso dal tram si trovano cinque persone legate e incapaci di muoversi. Su un secondo binario parallelo, raggiungibile tramite deviatoio, è invece legata una sola persona.
Le opzioni sono due: lasciare che il tram prosegua diritto e uccida ben cinque persone oppure azionare il deviatoio e ucciderne una sola. Altri filosofi hanno poi aggiunto variabili o ulteriori “personaggi”. Il finale rimane comunque lo stesso. Qualunque sia la decisione che prenderà l’autista, qualcuno è destinato a morire.

fonte: TechCrunch
Anche le auto autonome, quando arriveranno sulle strade, potrebbero trovarsi di fronte a dilemmi simili: meglio investire un pedone o schiantarsi contro un palo, uccidendo i passeggeri?
Alcune aziende hanno provato a cercare una soluzione al problema ricorrendo ad ulteriori tecnologie: Google, ad esempio, ha brevettato un sistema che mostra dei messaggi ai pedoni in aree a rischio incidente non appena una self-driving car si avvicina.
Altre società hanno invece creato una serie di simulazioni per capire come, secondo noi, la vettura robot si dovrebbe comportare: è il caso di Moral Machine, l’ultimo sito di simulazione realizzato dai ricercatori dell’Massachusetts Institute of Technology (meglio conosciuto come MIT). I risultati e le valutazioni morali ottenute da ricerche di questo tipo si rileveranno decisive in futuro. Esse andranno a formare gli algoritmi che Uber, Tesla e tanti altri utilizzeranno per “formare” l’intelligenza delle loro auto.
Le domande poi saranno inevitabilmente altre. Di chi sarà la responsabilità quando un’intelligenza artificiale incapperà nei primi incidenti? Dei programmatori, delle case automobilistiche o dei proprietari? Tutti dilemmi a cui non è stata ancora data una risposta.