Quante chiacchiere sull’intelligenza artificiale

L'accordo firmato all'AI Safety Summit di Londra promette controllo sugli sviluppi di una tecnologia di cui però si sa ancora troppo poco. «Servono regole», giusto, ma chi le farà?

Un momento dell’AI Safety Summit, organizzato dal governo britannico a Londra (foto Ansa)

A giudicare da quanto emerso dall’AI Safety Summit organizzato dal governo britannico a Bletchley Park, l’approccio dei governi mondiali all’intelligenza artificiale è fermo ancora a dichiarazioni su rischi e opportunità e accordi giusti ma vaghi sull’opportunità che sia la politica a dovere trovare il modo che i modelli di Ai siano verificati prima, durante e dopo il loro sviluppo e il rilascio al pubblico. Un accordo, firmato dai leader delle più grandi nazioni e dalle imprese che da anni lavorano a questa tecnologia rivoluzionaria e dai confini ancora ignoti, che rischia di fare la fine delle analoghe promesse sul clima delle varie Cop: molte promesse, pochi fatti concreti.

Servono regole sull’intelligenza artificiale. Chi le fa?

Come nota Luigi Ippolito sul Corriere della Sera, «resta da vedere come l’accordo raggiunto verrà applicato in concreto: Sunak è stato evasivo sulle misure legislative, sostenendo che “rendere le cose obbligatorie e promulgare leggi richiede tempo, noi abbiamo bisogno di muoverci più rapidamente di adesso: è importante che i regolamenti siano basati empiricamente, prima di precisare la regolamentazione formale”». Regolamentare ma non troppo, sviluppare ma non troppo velocemente, sorvegliare ma non «inibire il lato positivo dell’Ai», come ha detto al summit Elon Musk. «Ognuno vuole le regole che più gli fanno comodo, ognuno vuole un posto al tavolo di chi fa le regole», ha sintetizzato sul Foglio Giulia Pompili, notando come la presenza costruttiva di Pechino faccia sì che – almeno a parole – «l’intelligenza artificiale diventa un secondo territorio di dialogo – oltre ai cambiamenti climatici – su cui la Cina è disposta a tenere aperto il dialogo con America e Unione europea».

Servono regole, ma chi le fa? Il premier britannico Sunak ha provato a mettere il muso inglese davanti a tutti organizzando l’AI Safety Summit e annunciando la creazione del nuovo Istituto per la Sicurezza dell’Ai nel Regno Unito, ma Stati Uniti e Unione Europea potrebbero presto tornare avanti nella corsa a chi detta legga sull’Ai: Joe Biden ha emanato in questi giorni un ordine esecutivo per fissare un modello universale per l’intelligenza artificiale, e il peso del mercato unico europeo farà sì che le aziende tenderanno a conformarsi ai parametri Ue più che a quelli britannici.

Le preoccupazioni sul futuro del lavoro

I discorsi fatti dai leader mondiali in questi giorni (Giorgia Meloni compresa), emerge soprattutto la preoccupazione per il futuro del lavoro, un ambito già investito dall’intelligenza artificiale. Sunak ha detto che sarebbe meglio vedere l’Ai come un “copilota” per far sì che i posti di lavoro funzionino in modo più efficiente. La verità è che ci sono ancora troppe domande senza risposta sull’intelligenza artificiale, tra eccessivi entusiasmi e profezie apocalittiche, e tutti concordano sulla necessità di moltiplicare vertici tra governi e aziende come quello di Bletchley Park.

Difficile regolamentare qualcosa che non si conosce ancora abbastanza, comprensibile che le grandi nazioni restino caute anche sulla cooperazione tra loro, impegnandosi anche a salvaguardare un proprio spazio di competizione sull’Ai. Così come fanno i grandi sviluppatori di Ai come Elon Musk, i quali forse ingigantiscono lo scenario apocalittico per potersi offrire come i soli salvatori del mondo (e ottenere finanziamenti).

Exit mobile version