L’intelligenza artificiale sta rapidamente cambiando il mondo, in meglio e in peggio. Sono sempre più numerosi i sistemi esperti basati sull’intelligenza artificiale che promettono di cambiare il mondo in cui viviamo, lavoriamo e interagiamo tra noi, e in molti casi lo stanno già cambiando.
Nei primi mesi del 2023 la comparsa di chat-GPT – che Wikipedia definisce come “un chatbot basato su intelligenza artificiale e apprendimento automatico sviluppato da OpenAI specializzato nella conversazione con un utente umano” – ha permesso a chiunque di verificare il grado di avanzamento di questo ambito di ricerca. Chat-GPT può essere infatti consultato da chiunque online, ed è in grado di produrre su qualsiasi argomento testi indistinguibili da quelli scritti da esperti madrelingua. Ha però la tendenza a mettere insieme nello stesso testo affermazioni sensate e basate sui fatti accanto a fatti e circostanze inventati di sana pianta. L’Intelligenza artificiale trova anche molti altri impieghi, e secondo molti analisti finanziari è destinata a scuotere il mondo del lavoro e le relazioni sociali dalle fondamenta, con un impatto che è difficile immaginare nei dettagli.
Quello che appare oggi certo è che l’uso di questi sofisticati strumenti richiede l’adozione di numerose cautele, per prevenire o attenuare il rischio di abusi e di conseguenze indesiderate, in particolare a danno delle fasce più deboli ed emarginate della società.
Il nostro progetto “FOCS – Format per la cittadinanza scientifica” ha realizzato i contenuti per un gioco da tavolo, che permetterà ai partecipanti di acquisire alcune informazioni di base e di confrontarsi in piccoli gruppi sui benefici e sui rischi legati alla ricerca sull’intelligenza artificiale e alle sue applicazioni. L’obiettivo di ogni gruppo è giungere a una decisione condivisa sui modi per intervenire sul piano legislativo per massimizzare i primi e ridurre a un livello accettabile i secondi.
I materiali per il gioco sono disponibili gratuitamente sul sito PlayDecide.eu insieme a tutte le istruzioni per giocare. In queste pagine proponiamo i contenuti informativi che vengono forniti ai giocatori in forma di fatti, storie, sfide e problemi.
INTELLIGENZA ARTIFICIALE: I FATTI – LE STORIE – I PROBLEMI – LE SFIDE
Al termine del gioco, i gruppi di giocatori dovranno scegliere – con l’aiuto di un facilitatore – tra le seguenti ipotesi di regolamentazione, che potranno anche essere modificate.
1. La ricerca sull’intelligenza artificiale e l’apprendimento automatico (machine learning) dovrebbe essere sospesa per precauzione, in attesa di avere da parte dei ricercatori adeguate rassicurazioni sull’assenza di rischi significativi, per l’immediato e per il futuro.
2. La ricerca sull’intelligenza artificiale e l’apprendimento automatico (machine learning) dovrebbe essere soggetta ad autorizzazione preventiva, per poter impedire sviluppi tecnologici che non forniscano adeguate garanzie sull’assenza di rischi significativi, per l’immediato e per il futuro.
3. La ricerca sull’intelligenza artificiale e l’apprendimento automatico (machine learning) dovrebbe essere libera, ma ogni nuova applicazione dovrebbe essere valutata con attenzione da gruppi multidisciplinari di esperti per soppesare il bilancio tra rischi possibili e benefici attesi, e adottare contromisure per attenuare i rischi significativi, per l’immediato e per il futuro.
4. La ricerca sull’intelligenza artificiale e l’apprendimento automatico (machine learning) dovrebbe essere libera, con la raccomandazione di soppesare il bilancio tra rischi possibili e benefici attesi, e adottare contromisure per attenuare i rischi significativi, per l’immediato e per il futuro.
5. La ricerca sull’intelligenza artificiale e l’apprendimento automatico (machine learning) dovrebbe essere totalmente libera.