L’Intelligenza Artificiale

Geoffrey Hinton, pluripremiato scienziato informatico, “padre dell’IA“, dopo aver lavorato per più di un decennio in Google, ha lasciato la multinazionale statunitense per poter parlare più liberamente dei pericoli posti dalla nuova tecnologia.

Secondo Hinton, il lavoro in questo campo dovrebbe essere interrotto fino a quando non si capirà bene se sarà possibile controllare l'IA.

Nel mese di marzo scorso, Elon Musk ed i ricercatori di DeepMind, progetto di Google, hanno chiesto di fermare per almeno sei mesi l’addestramento di tutte le IA più potenti di GPT-4, quest’ultimo il più avanzato sistema di OpenAi, la start up sostenuta da Microsoft che ha lanciato e sviluppato il modello.

Per comprendere l’immensa capacità del sistema, consideriamo che i cervelli umani possono risolvere equazioni come il guidare automobili, grazie al talento innato nell’archiviare informazioni e il ragionare su soluzioni di problemi.

La tecnologia alla base di ChatGPT presenta un numero compreso tra 500 miliardi e un trilione di connessioni, e le conoscenze di GPT-4 sono “centinaia di volte maggiori” di qualsiasi singolo essere umano.

Ciò porta Hinton alla conclusione che i sistemi di intelligenza artificiale potrebbero già essere più intelligenti di noi.

A breve termine, Hinton teme che Internet sarà invaso da testi, foto e video falsi e che i cittadini potrebbero non essere in grado di distinguere ciò che è vero da ciò che è falso.
Ha anche espresso la preoccupazione che queste tecnologie sostituiranno molti lavoratori e, più avanti, ma con una velocità di sviluppo prima impensabile, rappresenteranno persino una minaccia per l'intera umanità.

Nel lanciare il suo allarme, anche l’appello di marzo, sottolinea come i sistemi di intelligenza artificiale come ChatGPT stiano diventando sempre più competitivicon gli esseri umani, aprendo a una serie di domande fondamentali: Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità?Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebberosuperarci di numero, essere più intelligenti, renderci obsoleti e sostituirci?Dobbiamo rischiare di perdere il controllo della nostra civiltà?”.

Sono interrogativi questi che, se fino a qualche anno fa rappresentavano scenari fantascientifici degni della migliore cinematografia, oggi pongono questioni ed impongono decisioni a livello politico su un dibattito etico fondamentale sullo sviluppo ed il futuro dell’umanità.

È chiaro che lo sviluppo delle nuove tecniche sull’intelligenza artificiale, non può essere delegato a leader non eletti democraticamente, che rispondono alle esclusive logiche di mercato, perché le implicazioni nell’uso di queste tecnologie, che può tradursi in un facile e prevedibile abuso, sono sostanziali in termini di garanzia dei diritti delle persone e delle comunità.

In questo senso, se non attivati sistemi di regolamentazione e governance, sul modello dell’Agenzie Internazionali e non creati rigidi protocolli di sicurezza e di controllo a tutti i livelli, dall’uso dell’Intelligenza artificiale si potrebbero generare drammatici sconvolgimenti economici e politici, soprattutto per la tenuta complessiva dei sistemi democratici.

Oggi siamo nell’ambito delle conseguenze imprevedibili ed allo stato risulta che nell’Unione Europea si sono avviate le prime discussioni in vista di una regolamentazione normativa, mentre negli Stati Uniti la Vice Presidente Kamala Harris ha aperto un tavolo di confronto con i maggiori attori del fenomeno.

Lecito a questo punto porsi delle domande: in attesa del compimento di questo percorso, difficile nei contenuti ed articolato nelle sue fasi, come e quanto verranno influenzate dall’intelligenza artificiale le prossime elezioni nei vari paesi del mondo, comprese quelle statunitensi ed europee del 2024?

Angelo Montalto

Potrebbero interessarti anche...

Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

error: - Contenuto protetto -