L’auto a guida autonoma non è una questione solo degli esperti di robotica e di intelligenza artificiale, ma il dossier è anche sulle scrivanie dei filosofi. Perché? E’ un problema di etica. Non il fatto di affidarsi a un autista non umano, ma quello di dover scegliere, in caso di emergenza, chi salvare e chi investire: il cosiddetto “problema del carrello”.
In uno scenario classico, un carrello sta scendendo lungo i binari verso cinque persone. Puoi tirare una leva per reindirizzare il carrello, ma c'è una persona bloccata sull’unico binario alternativo. Agire o non agire? E’ moralmente accettabile ucciderne uno per salvarne cinque, o bisognerebbe lasciare morire le cinque persone?
Se è lanciata verso un gruppo di persone
Anche se il problema del carrello sembra inverosimile, si legge su Quartz, i veicoli autonomi non saranno in grado di evitare scenari simili. Se una macchina si trova in una situazione in cui qualsiasi azione metterà in pericolo il passeggero dell'auto o qualcun altro, allora, come dovrebbe essere programmata l'auto a rispondere? E’ il dilemma che si sta ponendo un gruppo di filosofi guidati da Nicholas Evans, professore di filosofia presso Mass Lowell.
Per fare chiarezza il team si sta servendo di algoritmi. In particolare, il loro lavoro, supportato da una sovvenzione di 556.000 dollari da parte della National Science Foundation, permetterà loro di creare vari scenari di “problemi del carrello”, e di mostrare come una macchina autonoma risponderebbe secondo la teoria etica che segue. Evans non prende posizione su quale sia la teoria morale più giusta. Il suo scopo è che in futuro i risultati dei suoi algoritmi consentano ad altri - aziende che lavorano per creare automobili autonome - di prendere una decisione informata, sia dai consumatori che dai produttori di automobili.
Come e chi salvare
E non è solo una questione di numeri: "Non si tratta solo di quante persone muoiono, ma quali", spiega Evans. È possibile, infatti, che due scenari salveranno un numero uguale di vite, ma non delle stesse persone. "La differenza tra la teoria A e la teoria B è che le persone che muoiono nella prima teoria sono per lo più sopra i 50 e le persone che muoiono nella seconda teoria sono per lo più sotto i 30", ha detto Evans. "Quindi dobbiamo discutere come società non solo di quanto rischio siamo disposti a prendere, ma di chi siamo disposti a esporre al rischio”.
Le altre questioni etiche
Ma quello del “carrello” non è l’unico problema etico. Secondo Patrick Lin, professore di filosofia a Cal Poly, San Luis Obispo, ci sono diverse questioni da considerare:
- E’ possibile programmare le auto per superare alcuni negozi?
- Chi è responsabile se l'auto è programmata per mettere qualcuno a rischio?
- Una volta che il tasto alcolemico non incide più sulla guida, aumenterà la dipendenza dagli alcolici?
- E ancora: se le auto autonome aumentano la sicurezza stradale e meno persone muoiono sulla strada, questo porterà a meno trapianti di organi?