(Terza puntata sull’I.A.) La storia dell’umanità è intrecciata con la storia delle tecnologie. Ogni nuova invenzione ha trasformato la vita sociale, culturale e politica. La scrittura ha permesso di organizzare gli Stati e le religioni, la stampa ha reso possibile la diffusione del sapere e le rivoluzioni culturali, l’elettricità ha cambiato il modo di vivere, lavorare e comunicare. Oggi l’intelligenza artificiale si colloca in questa stessa traiettoria: non è una semplice innovazione tecnica, ma una forza capace di ridefinire i rapporti di potere, le forme della convivenza, la distribuzione delle opportunità. Per questo, la questione dell’IA non è soltanto tecnica. È, prima di tutto, politica.
Tecnologie e potere: un’antica lezione.
Ogni tecnologia, fin dalla scrittura, ha portato con sé nuove forme di potere. Chi possedeva la scrittura, nell’antico Egitto e in Mesopotamia, aveva accesso al governo della società. Con l’invenzione della stampa, la diffusione dei libri sottrasse alla Chiesa il monopolio del sapere, aprendo la strada alla Riforma e all’Illuminismo. Con Internet, il potere di comunicazione si è diffuso, ma allo stesso tempo si è concentrato nelle mani di poche grandi piattaforme globali.
L’intelligenza artificiale porta questa dinamica a un livello ancora più profondo. Chi possiede gli algoritmi e i dati possiede un potere enorme: decide cosa è visibile e cosa è invisibile, orienta consumi, opinioni, perfino comportamenti politici. Per questo parlare di IA significa parlare di governance, di etica pubblica, di diritti.
A chi appartiene l’IA?
Una delle domande cruciali è: a chi appartiene l’intelligenza artificiale? Alle grandi aziende tecnologiche che la sviluppano e che possiedono i dati? Agli Stati che cercano di regolamentarla? O dovrebbe appartenere alle comunità che la usano? Oggi vediamo uno squilibrio evidente: poche multinazionali concentrano risorse, dati e capacità di sviluppo, creando un oligopolio digitale. Questa concentrazione rischia di generare nuove forme di dipendenza e disuguaglianza: chi ha accesso a questi strumenti gode di vantaggi enormi, chi ne resta escluso rischia di rimanere indietro.

È qui che emerge la questione del bene comune. L’IA non può essere considerata solo un prodotto commerciale. È una tecnologia che incide sulla vita di tutti, e quindi deve essere governata con criteri di giustizia, equità e responsabilità sociale.
Negli ultimi anni, istituzioni internazionali come l’UNESCO, l’Unione Europea e l’ONU hanno iniziato a elaborare principi e regolamenti per un uso etico e responsabile dell’intelligenza artificiale. Le parole chiave sono sempre le stesse: trasparenza, sicurezza, centralità della persona, equità. Ma non basta fissare regole. Serve una visione politica capace di guardare oltre l’emergenza e oltre gli interessi delle grandi aziende. Una visione che ponga al centro la domanda: come può l’IA contribuire al bene comune?
Ad esempio, può essere usata per migliorare i sistemi sanitari, per rendere più accessibile l’istruzione, per combattere i cambiamenti climatici. Ma allo stesso tempo può essere usata per sorvegliare, manipolare, concentrare potere. È qui che si gioca la responsabilità collettiva: orientare la tecnica verso fini che servano l’umanità intera, e non solo pochi interessi particolari.
Governare la tecnica: una questione educativa.
Non c’è governance senza educazione. Perché le regole abbiano senso, occorre che i cittadini siano in grado di comprenderle, valutarle, partecipare attivamente. Altrimenti, la governance dell’IA resterà nelle mani di pochi esperti e tecnocrati. Educare all’uso dell’intelligenza artificiale significa formare cittadini critici, consapevoli dei limiti e delle potenzialità degli algoritmi. Significa dare a tutti gli strumenti per non essere semplici consumatori passivi, ma soggetti capaci di scegliere, di interrogare, di partecipare. In questo senso, la scuola e l’università hanno un ruolo decisivo: non solo come luoghi in cui si sperimentano le tecnologie, ma come spazi in cui si riflette sul loro significato sociale e politico. L’IA non è neutra: ha bisogno di essere pensata, discussa, interrogata.
Se vogliamo che l’intelligenza artificiale sia davvero al servizio dell’umanità, dobbiamo riconoscerla come un bene comune.
Questo significa almeno tre cose: Accessibilità: garantire che tutti, e non solo pochi, possano beneficiare delle opportunità che l’IA offre. Giustizia: evitare che amplifichi le disuguaglianze, proteggere i diritti delle persone, tutelare i più vulnerabili. Partecipazione: costruire processi democratici di decisione, in cui cittadini, comunità e istituzioni possano contribuire a stabilire come e a quali fini usare l’IA. La posta in gioco è alta: non si tratta solo di regolare una tecnologia, ma di decidere che tipo di società vogliamo costruire.

L’intelligenza artificiale ci ricorda che la tecnica non è mai neutrale. Ogni strumento, dalla scrittura in poi, porta con sé possibilità e rischi. Ma, a differenza delle epoche passate, oggi le trasformazioni sono più rapide e globali. Non possiamo permetterci di restare spettatori. Governare la tecnica significa riaffermare che la politica appartiene all’umano: siamo noi a decidere come usare gli strumenti, non viceversa. L’IA può diventare un fattore di emancipazione e progresso solo se viene custodita come bene comune, sottratta alla logica della pura concentrazione di potere. Il futuro dell’intelligenza artificiale non dipende dalle macchine. Dipende da noi, dalle scelte collettive che avremo il coraggio di compiere. Se sapremo governarla, sarà una protesi al servizio dell’umanità; se la subiremo, rischierà di diventare una nuova catena. La responsabilità, oggi come ieri, è tutta nostra.
Abbiamo visto (*1) come, nel mito di Fedro, la scrittura fosse temuta perché avrebbe reso gli uomini smemorati: eppure, ha finito per ampliare la memoria e la conoscenza. Così l’IA, se mantenuta al suo posto di strumento, può diventare una nuova forma di estensione della mente, non la sua sostituzione.
Abbiamo poi attraversato la caverna di Platone (*2), scoprendo che l’illusione di sapere è più pericolosa dell’ignoranza stessa. Oggi, le risposte perfette degli algoritmi rischiano di essere le nuove ombre: ci confortano, ci seducono, ma non ci illuminano davvero. Uscire dalla caverna digitale significa restare capaci di domandare, di dubitare, di non accontentarsi della verosimiglianza.
E ora, arrivati alla soglia politica, comprendiamo che governare la tecnica è l’atto più profondamente umano che ci resta. Non basta sapere che l’IA è uno strumento, né riconoscere che le sue risposte non coincidono con la verità: occorre scegliere insieme come usarla, a chi farla servire, con quali limiti e per quali fini.

La politica dell’umano sta qui: nel mantenere la tecnica al servizio della vita, non della potenza; nel ricordare che nessun algoritmo può sostituire il desiderio, la relazione e l’amore che fondano la conoscenza; nel riconoscere, infine, che l’intelligenza artificiale sarà davvero “intelligente” solo se sapremo renderla parte di un progetto collettivo di giustizia, libertà e responsabilità.
Il futuro dell’intelligenza artificiale non dipende dalle macchine. Dipende da noi — dalla nostra capacità di restare umani nel modo in cui impariamo, conosciamo e governiamo.
Simona Michelon
***
LINK INTERNI ALTRITALIANI :
DOSSIER DEDICATO ALL’INTELLIGENZA ARTIFICIALE a cura di Simona Michelon
*1) L’Intelligenza artificiale è solo una sfida al cambiamento
https://altritaliani.net/lintelligenza-artificiale-e-solo-una-sfida-al-cambiamento/
*2) Intelligenza artificiale – L’illusione di onniscienza: dalla caverna di Platone agli algoritmi
https://altritaliani.net/ia-lillusione-di-onniscienza-dalla-caverna-di-platone-agli-algoritmi/




































