Usare l’intelligenza artificiale per prestiti e mutui è un grosso rischio, avverte il capo dell’UE
4 min readLa discriminazione è una preoccupazione più urgente per il progresso dell’intelligenza artificiale che per l’estinzione umana, afferma il capo della concorrenza dell’UE.
Margrethe Vestager ha detto alla BBC che sono necessari “guardrail” per contrastare i maggiori rischi della tecnologia.
Ha detto che questa è stata la chiave in cui l’intelligenza artificiale viene utilizzata per aiutare a prendere decisioni che possono influire sul sostentamento di qualcuno, ad esempio se possono richiedere un mutuo.
Mercoledì il Parlamento europeo voterà sulle sue proposte di regole sull’IA.
L’AI Act viene preso in considerazione dai politici tra gli avvertimenti sullo sviluppo della tecnologia, che consente ai computer di eseguire attività che in genere richiedono intelligenza umana, troppo rapidamente.
Alcuni esperti hanno avvertito che l’IA potrebbe portare all’estinzione dell’umanità.
In un’intervista esclusiva con la BBC, Vestager ha affermato che il potenziale dell’intelligenza artificiale di amplificare pregiudizi o discriminazione, che può essere contenuto nelle grandi quantità di dati provenienti da Internet e utilizzati per addestrare modelli e strumenti, era una preoccupazione più pressante.
“Probabilmente [il rischio di estinzione] può esistere, ma penso che la probabilità sia piuttosto piccola. Penso che i rischi dell’IA siano più che le persone saranno discriminate [contro], non saranno viste per quello che sono.
“Se è una banca che lo utilizza per decidere se posso ottenere un mutuo o meno, o se sono i servizi sociali del tuo comune, allora vuoi assicurarti di non essere discriminato [contro] a causa del tuo genere o del tuo colore o il tuo codice postale”, ha detto.
Martedì, l’autorità irlandese per la protezione dei dati ha dichiarato di aver sospeso il previsto lancio di Google nell’UE del suo chatbot AI Bard.
Ha affermato di essere stato informato da Google che il suo concorrente ChatGPT sarebbe stato introdotto nell’UE questa settimana, ma non aveva ancora ricevuto dettagli o informazioni che mostrassero come l’azienda avesse identificato e ridotto al minimo i rischi per la protezione dei dati per i potenziali utenti.
Il vice commissario Graham Doyle ha affermato che il DPC stava cercando le informazioni “con urgenza” e aveva sollevato ulteriori richieste di protezione dei dati a Google.
“Un approccio delle Nazioni Unite”
La signora Vestager, che è il vicepresidente esecutivo della Commissione europea, ha affermato che la regolamentazione dell’IA deve essere un “affare globale”.
Ha insistito sul consenso tra paesi “che la pensano allo stesso modo” prima di coinvolgere più giurisdizioni, come la Cina.
“Iniziamo a lavorare su un approccio delle Nazioni Unite. Ma non dovremmo trattenere il respiro”, ha detto.
“Dovremmo fare quello che possiamo qui e ora”.
Essere “pragmatici”
L’attuale bozza dell’AI Act cerca di classificare le applicazioni dell’IA in livelli di rischio per i consumatori, con i videogiochi abilitati all’IA o i filtri antispam che rientrano nella categoria di rischio più bassa.
I sistemi di intelligenza artificiale ad alto rischio includono quelli utilizzati per valutare i punteggi di credito o l’accesso a prestiti e alloggi. È qui che si concentreranno i severi controlli sulla tecnologia.
Ma poiché l’intelligenza artificiale continua a svilupparsi rapidamente, Vestager ha affermato che è necessario essere pragmatici quando si tratta di mettere a punto le regole attorno a questa tecnologia.
“È meglio ottenere, diciamo l’80% ora che il 100% mai, quindi iniziamo e poi torniamo quando impariamo e poi correggiamo con gli altri”, ha detto.
La signora Vestager ha affermato che esiste “sicuramente un rischio” che l’intelligenza artificiale possa essere utilizzata per influenzare le prossime elezioni.
Ha detto che la sfida per la polizia e i servizi di intelligence sarebbe quella di essere “completamente al vertice” di un settore criminale in cui c’è il rischio che vadano avanti nella corsa per utilizzare la tecnologia.
“Se il tuo feed social può essere scansionato per ottenere un profilo completo di te, il rischio di essere manipolato è semplicemente enorme”, ha detto, “e se finiamo in una situazione in cui non crediamo a nulla, allora abbiamo minato completamente la nostra società .”
Molti leader tecnologici e ricercatori hanno firmato una lettera a marzo chiedendo una pausa nello sviluppo di sistemi di intelligenza artificiale più potenti del GPT-4 di OpenAI.
Ma la signora Vestager ha detto che questo non era realistico.
“Nessuno può imporlo. Nessuno può assicurarsi che tutti siano a bordo”, ha detto, sottolineando che una pausa potrebbe essere utilizzata da alcuni come un’opportunità per anticipare i concorrenti.
“Quello che penso sia importante è che ogni sviluppatore sappia che tutti si sono iscritti agli stessi guardrail in modo che nessuno si prenda rischi eccessivi”.
Riconoscimento facciale
Le proposte del Parlamento europeo per la legge sull’IA mirano a limitare l’uso di sistemi di identificazione biometrici e la raccolta indiscriminata di dati degli utenti dai social media o filmati CCTV per scopi come i sistemi di riconoscimento facciale.
Tuttavia, Vestager ha dichiarato: “Vogliamo inserire rigorosi guardrail in modo che non venga utilizzato in tempo reale, ma solo in circostanze specifiche in cui si sta cercando un bambino scomparso o c’è un terrorista in fuga.
“Il Parlamento ha una posizione molto più di principio su cui voterà domani per vietarlo sostanzialmente completamente”.
Prima che la legge sull’IA possa essere finalizzata come primo regolamento al mondo sull’uso e lo sviluppo di sistemi di IA, i tre poteri dell’UE: la Commissione, il Parlamento e il Consiglio dovranno concordare la sua versione finale.
Non dovrebbe entrare in vigore prima del 2025.