Intelligenza artificiale: i problemi

Ecco alcuni esempi di problemi che possono essere utili a prendere una decisione in tema di intelligenza artificiale

L’IA applicata alla salute rischia di amplificare alcuni pregiudizi radicati e peggiorare le diseguaglianze

Una revisione della letteratura pubblicata nel giugno 2023 su “PLOS Digital Health” segnala che l’uso dell’IA in sanità non ha mantenuto la promessa di migliorare la qualità degli interventi e di promuovere l’equità: molti dati sanitari riflettono “bias” (distorsioni legate per esempio a pregiudizi razzisti o sessisti) che gli algoritmi predittivi amplificano. Occorre quindi immaginare, e applicare al più presto, contromosse efficaci.

Il Garante italiano ha bloccato ChatGPT segnalando aree grigie

All’inizio del 2023 il Garante italiano per la privacy ha contestato alla società OpenAI che sviluppa
il software ChatGPT il mancato rispetto della disciplina sulla privacy, la raccolta illecita di dati personali e l’assenza di sistemi per la verifica dell’età dei minori. Il software è quindi rimasto irraggiungibile per chi si collegava dall’Italia, finché dopo alcune settimane è tornato a essere disponibile.

L’impatto dell’intelligenza artificiale sul mercato del lavoro potrebbe essere devastante

Secondo un’analisi pubblicata nell’aprile del 2023 da “Forbes Advisor”, oltre tre americani su quattro (77%) temono che la progressiva adozione di strumenti di lavoro basati sull’IA porterà un aumento della disoccupazione nel giro di un anno. Entro il 2030 il 15% della forza lavoro globale sarà colpita, con una riduzione di ben 400 milioni di posti di lavoro, e la creazione di 97 milioni di posti per lavoratori con nuove competenze.

Senza l’IA, l’Europa rischia di restare indietro
Uno studio dell’Unione Europea segnala che l’IA è già usata nella ricerca in modo pervasivo, e diventerà ancor più importante: “Se la tendenza in atto prosegue, la probabilità che le scoperte siano dovute principalmente all’IA aumenterà significativamente” hanno spiegato gli esperti, tra cui l’italiana Valentina Di Girolamo. Quindi ogni ostacolo allo sviluppo e all’adozione dell’IA rischia di riflettersi sull’autonomia strategica dell’Europa.

Un quinto delle apparecchiature mediche basate su IA approvate sono oggetto di pubblicità ingannevole
Uno studio pubblicato sulla rivista Jama Network Open ha scoperto che tra le 119 apparecchiature mediche che fanno uso di intelligenza artificiale approvate fino al 2022 dall’organismo regolatorio federale (la Food and Drug Administration), ben 23 – quasi una su cinque – sono pubblicizzate tra i medici per impieghi diversi da quelli in cui l’uso dell’intelligenza artificiale è autorizzata.

Secondo l’autorità britannica dell’informatica è a rischio la privacy
La diffusione dell’intelligenza artificiale generativa impone alle aziende di usare verifiche più stringenti nella tutela dei dati personali. L’allarme è stato lanciato nel giugno del 2023 dall’Information Commissioner’s Office (ICO), che ha invitato a comprendere a fondo che uso viene fatto dei dati, e mettere in atto tutte le possibili misure di mitigazione del rischio di abusi, prima di adottare le nuove promettenti tecnologie.

Oltre mille esperti lanciano l’allarme: l’IA rappresenta una minaccia
Nel marzo 2023 mille esperti di IA hanno segnalato “seri rischi per la società e per l’umanità”, e chiesto una moratoria: preoccupa la disinformazione generata da sistemi come CHAT-GPT che spesso presentano come veri fatti e riferimenti inventati di sana pianta. A medio termine si teme la perdita di posti di lavoro per mansioni affidate all’IA, mentre a lungo termine il rischio di perdere il controllo sulla tecnologia spaventa alcuni.

I chatbot basati sull’IA: promesse e rischi per la ricerca scientifica
Secondo il ricercatore dell’INGV Fabio Florindo, chi fa ricerca può usare l’IA generativa purché sia uno strumento di supporto, non per sostituire le competenze umane e il pensiero critico, che sono indispensabili per formulare domande di ricerca, progettare esperimenti e interpretare i risultati. L’uso deve sempre essere dichiarato con la massima trasparenza, e accompagnato dalla verifica di ogni passaggio da parte del ricercatore.

L’intelligenza artificiale ha molto da offrire all’Europa del futuro
Secondo il Libro bianco 2020 della Commissione Europea, l’Europa dovrà sviluppare un ecosistema di IA che consenta di usufruire di una migliore assistenza sanitaria, un minor numero di guasti degli elettrodomestici, sistemi di trasporto più sicuri e più puliti e servizi pubblici migliori, e di strumenti appropriati per garantire la sicurezza dei cittadini, con adeguate garanzie quanto al rispetto dei loro diritti e delle loro libertà.

L’Australia vieta di usare l’IA nella valutazione dei progetti di ricerca
Il Consiglio australiano per la ricerca ha vietato l’uso dell’IA nella valutazione delle richieste di finanziamento dei progetti di ricerca, perché rischia di compromettere l’integrità del delicato processo, da sempre affidato a esperti indipendenti e soggetto a critiche e contestazioni. L’IA potrà essere usata nella stesura della richiesta del finanziamento, ma la raccomandazione agli scienziati è di farlo con tutte le cautele del caso.

Il CEO di Google mette in guardia: l’IA può creare video falsi molto realistici
In un’intervista nella trasmissione “60 minutes” della CBS, nell’estate 2023, l’amministratore delegato di Google Sundar Pichai ha annunciato che il sistema Bard messo a disposizione del pubblico è stato limitato, per ridurre il rischio di usi inappropriati. In particolare, preoccupa la facilità con cui potrebbe creare i cosiddetti “deep fake”: immagini video false su eventi inesistenti, impossibili da distinguere dalle riprese televisive.

Le norme europee sono in fase di definizione. L’agenzia per il digitale potrebbe avere poteri di controllo
Il regolamento comunitario sugli algoritmi è in fase di negoziazione tra Commissione, Consiglio e Parlamento europeo, ed è atteso per la fine del 2023. Il governo italiano ha già espresso però l’intenzione di attribuire specifici poteri di vigilanza all’Agenzia per l’Italia digitale (AGID), affiancata dalle altre autorità toccate dai vari ambiti giuridici dell’IA, come il Garante della privacy, quello delle comunicazioni o l’Antitrust.

Questi testi sono stati prodotti dal progetto FOCS – Un format per la cittadinanza scientifica” (www.cittadinanzascientifica.it) per i materiali di un gioco di gruppo realizzato secondo la metodologia “PlayDecide”, scaricabile con le istruzioni dal sito https://playdecide.eu/it/playdecide-kits/168812.