ll recente esperimento che ha visto un calcolatore della Carnegie Mellon University sbaragliare quattro campioni di poker ha dimostrato che, interagendo con gli umani, le intelligenze artificiali riescono ormai a replicarne i comportamenti, all’occorrenza bluffando e mentendo. Un test di DeepMind, la divisione AI di Google, ci fa scoprire ora che le macchine non conoscono il fair play nemmeno quando si sfidano tra loro. I ricercatori di Mountain View hanno utilizzato dei videogame per studiare il comportamento dei cyber cervelli alle prese con “dilemmi sociali”, ovvero quel genere di situazioni, codificate dalla teoria dei giochi, nelle quali un soggetto può scegliere se collaborare con gli altri o assumere un comportamento egoistico. Il caso di scuola più celebre è quello del dilemma del prigioniero, nel quale due individui possono scegliere se tradire l’altro in cambio di un premio pur consci che, se entrambi scelgono questa strada, entrambi perderanno.
Il comportamento dei bot varia a seconda del contesto
I videogiochi utilizzati nello studio sono molto basilari. Nel primo, ‘Gathering’, due giocatori devono raccogliere mele da una pila. Tutti e due hanno l’opzione di eliminare momentaneamente l’avversario con un raggio laser e approfittarne per raccogliere più mele. Nel secondo gioco, ‘Wolfpack’, due giocatori devono dare la caccia a un terzo in un ambiente pieno di ostacoli. A segnare un punteggio non sarà solo il cacciatore che catturerà la preda ma anche l’altro, qualora si trovi vicino a essa al momento della cattura. E’ emerso che le intelligenze artificiali, esattamente come gli esseri umani, modificano il loro comportamento a seconda del contesto, assumendo un approccio più cooperativo o più competitivo sulla base delle contingenze.
Ad esempio, in ‘Gathering’ i due giocatori iniziano a spararsi l’un l’altro solo una volta che il numero di mele da raccogliere diventa scarso. Non solo, quando vengono messe a confronto due intelligenze artificiali con differenti capacità di calcolo, quella più potente inizia a colpire da subito la rivale con il laser anche all’inizio della partita, quando c’è abbondanza di mele. Ciò non significa necessariamente che a un maggiore sviluppo dell’intelligenza artificiale corrisponda una maggiore aggressività. Per un’intelligenza artificiale più potente, l’operazione di identificare la posizione dell’avversario, prendere la mira e sparare appare un’opzione più semplice della collaborazione in virtù della maggiore capacità di calcolo. In ‘Wolfpack’, invece, il calcolatore più sviluppato assumeva un approccio maggiormente cooperativo perché, in questo caso, più potenza significa più possibilità di coordinarsi con l’altro nella caccia.
Quelle vecchie, e sempre valide, leggi della robotica
I risultati dello studio mostrano quindi che la condotta delle intelligenze artificiali varia a seconda delle regole in campo. Se viene richiesto un comportamento aggressivo, come in ‘Gathering’, i bot si regoleranno di conseguenze. Se invece a pagare è la collaborazione, come in ‘Wolfpack’, sceglieranno di lavorare insieme. Per garantire un controllo efficace delle intelligenze artificiali, concludono i ricercatori, sarà fondamentale assicurarsi di averli istruiti con le regole giuste. “Grazie a questa ricerca”, si legge nello studio, “potremmo essere in grado di capire meglio e controllare complessi sistemi multi-agente come l’economia, il traffico o la salute ecologica del nostro pianeta, che dipendono tutti da una cooperazione costante”. Le vecchie leggi della robotica di Asimov sono destinate presto a tornare d'attualità.
Per approfondire: scarica lo studio dei ricercatori di DeepMind