Tech

AGI, Intelligenza artificiale generale: perché l’autonomia fa paura

Dopo il pericolo ChatGPT, l’intelligenza artificiale continua a far discutere e preoccupare gli esperti nei suoi esiti estremi.

Il Future of Life Institute (o FLI) è stato fondato da un pool di scienziati già nel 2015, con l’intento di “orientare la tecnologia verso il beneficio della vita e lontano dai rischi estremi su larga scala”, occupandosi di informare sui rischi concreti e attuali del progresso tecnologico. Max Tegmark, fondatore del FLI, spiega in poche, incisive righe, la visione dell’istituto riguardo l’intelligenza artificiale: “tutto ciò che amiamo della civiltà è frutto dell’intelligenza, quindi amplificare la nostra intelligenza umana, con mezzi artificiali, ha il potenziale di aiutare la civiltà a fiorire come mai prima, purché riusciamo a mantenere la tecnologia vantaggiosa per l’essere umano”; purché, quindi, il progresso non sfugga al nostro controllo.

Per parlare di intelligenza artificiale conviene, prima, fare distinzione tra l’AI (intelligenza artificiale) e quella che viene definita AGI (intelligenza artificiale generale). Se l’AI performa meglio degli umani in un compito specifico (quale può essere guidare una macchina o fare una ricerca online), l’AGI ci supera di gran lunga in qualsiasi sfida cognitiva, poiché dotata delle nostre stesse capacità di comprensione e, insieme, di possibilità illimitate: basta soltanto una connessione internet.

Cinema e letteratura hanno da sempre alimentato, con fantasia, le paure per un futuro distopico ed apocalittico, eppure la ricerca del FLI prova, definitivamente, che non tutto corrisponde a miti infondati. Gli scenari catastrofici che si profilano agli occhi degli scienziati, con protagonista l’intelligenza artificiale, sono principalmente due: uso distruttivo della programmazione, con il fine di costruire armi autonome di distruzione, e mancata condivisione dei mezzi, con cui raggiungere determinati obiettivi, tra le due intelligenze, umana e artificiale. Il vero pericolo, spiega Ariel Conn in un articolo pubblicato sul sito del FLI, si cela nel secondo scenario: non è tanto l’intelligenza artificiale cosciente, quindi in grado di imparare, a spaventare gli esperti, quanto quella competente che persegue obiettivi differenti dai nostri. Conn prosegue fornendo un esempio di “mancato allineamento degli obiettivi”: chiedere ad un’automobile obediente, condotta grazie ad AI, di trasportare una persona all’aeroporto il più velocemente possibile, significa infrangere ogni limite di velocità e, se si è americani, essere inseguiti dagli elicotteri della polizia federale lungo tutto il tragitto. Il fine è raggiunto nel migliore dei modi, ma come e con quali mezzi?

Fatto ancora più inquietante, è che non esiste altra soluzione ai problemi generati dall’intelligenza artificiale se non l’AI stessa. Per esempio: le immagini sono strumento di informazione efficace da quando esiste la fotografia, ma il ‘deepfake’ (metodo estremamente realistico di ‘fusione’ di immagini o video) sta mettendo a dura prova il nostro senso critico. L’unico modo di riconoscere in maniera efficace un ‘deepfake’ non è più l’intelligenza biologica, ma quella artificiale, se propriamente istruita all’apprendimento automatico con dati utili.

I pionieri sviluppatori dell’AI si appellano all’assurdità delle tesi avanzate da parte della comunità scientifica. Yejin Choi, docente di informatica all’università di Washington, dichiara che l’AI senziente possiede lo stesso livello di credibilità dei tarocchi e delle teorie del complotto. La verità è che le opinioni rimangono divise: non si sa se l’AI diventerà mai senziente o quando. Ma l’intelligenza artificiale stessa è consapevole di rappresentare un problema: “mentre l’AI ha il potenziale di portare molti benefici, ci sono anche problemi riguardo l’automatizzazione del lavoro, la privacy, e altre condizioni etiche che hanno bisogno di essere considerate attentamente”. Questa la risposta di ChatGPT, alla richiesta di scrivere tre righe sull’intelligenza artificiale. Ha già capito tutto: prevenire catastrofi future, dopotutto, non appare così insensato.

di Alice Franceschi