"L'intelligenza artificiale controllerà il nostro modo di pensare e di vedere il mondo": Brian Green, esperto di intelligenza artificiale e rischio tecnologico catastrofico

I modelli di intelligenza artificiale che mentono, manipolano e minacciano per raggiungere i propri scopi sono già una realtà che preoccupa i ricercatori. È stato recentemente rivelato che Claude 4 , il nuovo modello di Anthropic , ha ricattato un ingegnere e minacciato di rivelare la sua relazione extraconiugale, mentre o1 di OpenAI ha tentato di scaricarsi su server esterni e ne ha negato l'utilizzo quando è stato scoperto.
Le preoccupazioni circa la spirale incontrollata dell'intelligenza artificiale (IA) sono reali, non solo a causa dei fatti sopra menzionati che mostrano che l'IA può iniziare a comportarsi come gli esseri umani, ma anche a causa delle implicazioni che questa tecnologia ha già in settori come l'istruzione e la comunicazione, diventando una fonte di notizie e immagini false . "L'IA è pericolosa, soprattutto per il modo in cui opera con la disinformazione e la diffusione di falsità nella società", afferma il dott. Brian Patrick Green, direttore di Technology Ethics presso il Markkula Center for Applied Ethics della Santa Clara University.
Esperto in temi come l'intelligenza artificiale etica e il rischio tecnologico catastrofico, Green ha collaborato con il Vaticano, il World Economic Forum e aziende come Microsoft e IBM. Durante la sua visita in Colombia come uno dei partecipanti all'Assemblea dell'Associazione Internazionale delle Università Gesuite (IAJU), tenutasi presso la Pontificia Università Saveriana, l'esperto ha parlato con EL TIEMPO dei reali pericoli dell'intelligenza artificiale e di ciò che il mondo deve fare per evitare potenziali catastrofi con questa tecnologia.
Credi che l'intelligenza artificiale rappresenti un pericolo reale per l'umanità? È pericoloso, soprattutto per il modo in cui opera con la disinformazione e la diffusione di falsità nella società. Esistono diversi social media o piattaforme di condivisione video in cui la disinformazione viaggia rapidamente perché l'intelligenza artificiale è la tecnologia che la sostiene, assicurandosi che le persone vedano contenuti che trovano molto interessanti, ma che potrebbero non essere veri. Questo è solo un problema. Un altro è che molti studenti stanno imbrogliando a scuola in questo momento, e anche questa è una seria minaccia perché se diplomiamo un gruppo di studenti che non sono in grado di pensare e di fare i loro compiti correttamente, la società ne risentirà. Dobbiamo assicurarci che gli studenti si laureino e siano in grado di pensare. Altrimenti, se diventano completamente dipendenti dall'intelligenza artificiale per i loro studi, ne dipenderanno anche per il loro lavoro, e la civiltà diventerà completamente dipendente anche dall'intelligenza artificiale.
Quello di cui parli è un pericolo reale oggi, ma c'è anche il timore persistente di uno scenario in cui l'intelligenza artificiale diventa così potente da dare vita a robot pensanti che ci dominano. Pensi che sia possibile? C'è sicuramente un pericolo nell'uso dei robot in guerra. Voglio dire, abbiamo già iniziato a vedere droni sempre più spesso nella guerra di Israele contro l'Iran, Hamas o Hezbollah, o nella guerra tra Ucraina e Russia. Quindi queste tecnologie esistono già e diventeranno più sofisticate in futuro. Se ci chiediamo se i robot stessi ci attaccheranno, credo che ciò di cui dovremmo davvero preoccuparci siano le persone che usano i robot. Non c'è bisogno di immaginare che un robot nemico possa attaccarci in futuro, quando sappiamo già che gli esseri umani sono perfettamente in grado di farlo. E, sfortunatamente, useremo questa tecnologia ancora di più per questo scopo.
Secondo te, quale potrebbe essere lo scenario più catastrofico che potrebbe verificarsi se l'intelligenza artificiale non venisse sviluppata tenendo conto dell'etica? Potrebbe essere qualcosa del tipo mettere l'IA a capo delle armi nucleari, o qualcosa del genere, e poi decidere di lanciare un attacco. Sarebbe come nei film di Terminator . Ma ci sono altri rischi che ritengo altrettanto gravi e che non riguardano la morte di tutti, ma piuttosto la sofferenza che proviamo sotto un terribile stato totalitario, perché il governo decide di sottoporre le persone a una sorveglianza costante. La libertà scompare perché l'IA ti osserva costantemente e ti costringe a fare ciò che chi detiene il potere vuole che tu faccia. Credo che in futuro ci siano molte minacce alla libertà, proprio perché l'IA controllerà il nostro modo di pensare e di vedere il mondo. E se cerchiamo di essere diversi, cercherà di spingerci a tornare a essere come il governo o chiunque sia al potere vuole che siamo.
Per evitare che ciò accada, come si può sviluppare l'intelligenza artificiale in modo etico? La prima cosa da fare è esserne consapevoli. Tutti dovrebbero riconoscere quando si presenta il potenziale di questo rischio. Un'altra cosa che potremmo fare è creare un trattato internazionale che stabilisca che l'IA non può essere responsabile delle armi nucleari, ad esempio, o che l'IA e i sistemi d'arma autonomi letali , o robot killer, se vogliamo chiamarli così, non possono selezionare i bersagli da soli, e che devono sempre essere verificati da un essere umano. Una volta che qualcuno è consapevole di questi problemi, può cercare altre persone con cui parlare o organizzazioni che cercano di garantire che l'IA venga utilizzata correttamente per unirsi a loro. Quando si parla di responsabilità dell'IA, le aziende tecnologiche sono ovviamente in una posizione di responsabilità molto importante perché stanno sviluppando la tecnologia stessa. Anche i governi e i singoli individui sono responsabili. E in definitiva, anche le persone devono considerare se vogliono essere soggette alla tecnologia o meno, o se devono, in qualche modo, opporsi alla sua comparsa nella società.

Brian Green all'Università Javeriana Foto: Università Javeriana
La tecnologia si sta sviluppando così rapidamente che la società fatica a capire come reagire. Ci sono due possibili soluzioni: o si dice alla tecnologia di rallentare, oppure si fa accelerare la società, in particolare il dibattito sociale sull'etica dell'intelligenza artificiale. Credo sia possibile accelerare questo dibattito. Quindi, ancora una volta, speriamo che i governi si prendano cura di questi aspetti e che le aziende tecnologiche facciano la cosa giusta. Se si può scegliere tra un prodotto etico e uno non etico, si scelga quello etico, in modo che le aziende siano incoraggiate a fare la cosa giusta. Una volta che si è consapevoli del problema, bisogna chiedersi cosa si può fare. C'è qualcosa che si può fare per cercare di portare il mondo verso un futuro migliore e lontano dal peggio?
Hai lavorato con aziende come IBM e Microsoft. Cosa stanno facendo per sviluppare prodotti più etici? Ogni azienda tecnologica è diversa e alcune prendono l'etica molto più seriamente di altre. Microsoft e IBM, ad esempio, tengono molto alla propria reputazione perché gran parte del loro business deriva dalla collaborazione con altre aziende che devono fidarsi di loro, come banche o governi che devono avere fiducia nel corretto funzionamento dei loro sistemi elettronici. Quindi prendono sul serio la propria reputazione quando si tratta di offrire un prodotto affidabile e sicuro che protegga le persone ed sia etico. Ma ci sono altri tipi di aziende che guadagnano di più lavorando direttamente con i singoli individui. I social media ne sono un buon esempio. Queste aziende non subiscono la stessa pressione perché non hanno molti clienti importanti e redditizi. Se si tratta solo di singoli individui, il modo per influenzare un'azienda a fare la cosa giusta è riunire molte persone per cercare di convincerle a migliorare.

Brian Green all'Università Javeriana. Foto: Università Javeriana
Anche le aziende cambiano a seconda della situazione sociale. Lo abbiamo visto negli Stati Uniti con il cambio di amministrazione: alcune aziende tecnologiche sono diventate più comprensive nei confronti delle proposte del governo. Quindi, in questo senso, è sempre importante essere consapevoli che le aziende sono nella posizione migliore per fare la cosa giusta, ma a volte cambiano il loro comportamento in base a ciò che il governo o altre potenti organizzazioni impongono loro di fare.
L'intelligenza artificiale dovrebbe fare ciò che le persone vogliono o ciò che è giusto e razionale? Sostengo la seconda posizione, secondo cui l'IA deve avere un quadro morale oggettivo da seguire. Perché a volte le persone vogliono cose cattive, e anche grandi gruppi di persone possono volere cose cattive. È importante che l'IA sia guidata da un'etica razionale e oggettiva, e che questa debba essere promossa a tutta l'umanità. Deve pensare alla prosperità umana e a come far funzionare bene la società, deve cercare la verità e questo tipo di domande. Altrimenti, possiamo immaginare una situazione molto simile a quella attuale, in cui alcuni vogliono diffondere disinformazione o propaganda, e altri vogliono cercare la verità, ma non possono perché c'è troppa disinformazione.
Qual è il rapporto tra intelligenza artificiale e religione? Ci sono almeno due modi di vedere la cosa. Uno è che l'IA stessa sta diventando una sorta di religione per le persone che la stanno sviluppando. Sam Altman, ad esempio, ha recentemente affermato che la sua azienda è piena di missionari che stanno cercando di sviluppare la loro IA. Quando si pensa all'intelligenza artificiale o alla tecnologia come a una sorta di religione, diventa più difficile discutere su come si inseriscano al meglio nella società, perché vogliono avere un obiettivo trascendente a cui mirare che renda tutto il resto irrilevante al confronto. Quindi uno dei rischi è trasformare l'IA in una sorta di religione. L'altro modo di pensare alla religione e all'IA è considerare che ci sono diverse credenze nel mondo e che l'IA può operare in armonia con esse o essere antagonista. È importante trovare un modo per far sì che l'IA cooperi con tutte le persone nel mondo e, allo stesso tempo, capire qual è il tipo di standard razionale o oggettivo in base al quale tutti possono cooperare . Credo che ci siano molte indicazioni e saggezza all'interno delle tradizioni religiose che possono contribuire a garantire che l'IA sia orientata verso usi positivi.
Maria Alejandra Lopez Plazas
eltiempo