Può una macchina pensare? Ancora oggi il quesito su cui si interrogavano Leibniz o Turing rimane aperto e neurofisiologia, computer science, scienze cognitive e filosofia si muovono tra teorie e ipotesi scientifiche, con risvolti contrastanti e dal profilo frastagliato.

Per usare un linguaggio che unisca filosofia e tecnologia possiamo dire che sia a livello cerebrale, il nostro hardware, che a livello mentale, che corrisponde al concetto di software, l’uomo risulta essere una macchina piuttosto articolata, dove la logica binaria su cui si fondano invece i computer e l’intelligenza artificiale non può essere applicata o esaustiva.

Rifacendoci al ruolo centrale dell’azione nell’intelligenza (ovvero al concetto di ragionamento appartenente all’etica Nicomachea di Aristotele) e citando Von Wright non sempre, anzi, le nostre azioni sono riconducibili ad un sillogismo pratico del tipo: A vuole provocare p, A ritiene di poterlo fare se applica b, quindi A si dispone di fare b. Questo perché spesso ci troviamo di fronte a scelte complicate che implicano piani e strategie elaborati che coinvolgono sia la nostra razionalità teoretica che emozioni, credenze e intenzioni etiche e morali. Ma agganciandoci a quest’ultimo presupposto, come è possibile instillare nelle macchine un criterio etico su cui basare le proprie azioni?

Facciamo prima un passo indietro: l’etica può innanzitutto essere definita come la ricerca di un processo razionale per capire cosa è bene e cosa è male. E ancora: per la teoria giuridica, così come per la filosofia morale di matrice aristotelica, è un mezzo quell’elemento in un corso di azioni che contribuisce a causare un evento, ma che non esercita alcuna autonomia o discrezione. È invece un soggetto agente colui che avvia tale corso di azioni causando l’evento. La tecnologia ha da sempre fatto parte della categoria dei mezzi, ovverosia degli strumenti posti nelle mani di un soggetto agente per consentirgli di ottenere un determinato risultato. In questo orizzonte concettuale, il responsabile di un evento è chiunque abbia deciso il flusso di azioni che ha causato l’evento stesso; ovviamente, la sua responsabilità (in senso morale e giuridico) si può graduare fino a scomparire, a seconda del livello di coscienza e volontà della circostanza avvenuta; ma non v’è dubbio che, se fino a qualche anno fa nessuno avrebbe mai pensato di ritenere responsabile della morte di un uomo un autoveicolo, in quanto “tecnicamente” è stato il mezzo che, colpendo la persona, ne ha causato l’evento morte, oggi, dinanzi ad auto senza guidatore o ad armi a guida autonoma, questioni del genere stanno diventando molto più complesse.

In riferimento all’intelligenza artificiale sempre più spesso ci si interroga sulla sua etica, cercando di applicare lo stesso processo razionale e quindi di definire e comprendere, deontologicamente, come un’IA debba comportarsi. Quando infatti l’intelligenza artificiale prende delle decisioni che hanno effetto sulla vita degli esseri umani, dal decidere se concedere un prestito, all’assumere qualcuno fino allo stabilire autonomamente se sparare o meno ad un essere umano, come nel caso delle AWS (Autonomous Weapon System), c’è bisogno di concordare un’etica secondo cui agisca. Ma quali sono i parametri su cui si può definire un’etica? Quale il bene e quale il male e in che misura? Innanzitutto si dovranno presupporre delle linee guida condivise, se non ancora prescrittive, che quantomeno indichino quale sia la direzione da seguire e verso che cosa muoversi nel futuro. La legge, le norme, hanno sì un’importanza fondamentale, ma sono necessariamente frutto di un lavoro che deve essere fatto prima, proprio per poterle strutturare. Ed è qui che starà il lavoro complesso di campi diversi, ma in questo caso complementari, quali quello filosofico, di programmazione, sociologico e deontologico che si dovranno incontrare e cooperare per giungere ad un obiettivo comune, quello della salvaguardia del genere umano e della res publica.

Share This