Al via i lavori della Rete
internazionale degli istituti di sicurezza per l'intelligenza
artificiale che punta a sviluppare una comprensione unitaria dei
rischi per la sicurezza posti dall'IA e delle conseguenti
strategie di mitigazione. Il primo incontro si è tenuto a
Francisco dove si sono riuniti gli istituti di sicurezza per
l'IA e gli uffici governativi di Stati Uniti, Commissione
europea, Regno Unito, Francia, Australia, Canada, Giappone,
Repubblica di Corea, Singapore e Kenya. L'iniziativa, si legge
in una nota della Commissione, segna l'inizio di una nuova fase
di collaborazione internazionale in materia di sicurezza della
nuova tecnologia. La Rete riunisce organizzazioni tecniche che
si dedicano alla promozione della sicurezza dell'IA, aiutando
governi e società a comprendere meglio i rischi posti dai
sistemi avanzati di IA e proponendo soluzioni per mitigare tali
rischi. Oltre ad affrontare i potenziali danni, gli istituti e
gli uffici coinvolti guideranno lo sviluppo e la diffusione
responsabile dei sistemi di IA.
La Rete internazionale degli istituti per la sicurezza dell'IA
fungerà da forum per la collaborazione, riunendo le competenze
tecniche per affrontare i rischi e le migliori pratiche in
materia di sicurezza dell'IA. Quattro le aree prioritarie su cui
si concentrerà la rete: ricerca, test, orientamento, inclusione.
La Rete collaborerà con la comunità scientifica per far
progredire la ricerca sui rischi e le capacità dei sistemi
avanzati di IA; e svilupperà e condividerà le migliori pratiche
per testare i sistemi avanzati di IA. Gli istituti faciliteranno
inoltre approcci condivisi all'interpretazione dei risultati dei
test sui sistemi avanzati di IA per garantire risposte coerenti
ed efficaci. I partner e le parti interessate verranno coinvolte
in tutte le fasi di sviluppo, condividendo informazioni e
strumenti tecnici in modo accessibile per ampliare la
partecipazione alla scienza della sicurezza dell'IA.
Con questa Rete, i membri si impegnano a promuovere
l'allineamento internazionale sulla ricerca, la sperimentazione
e la guida in materia di sicurezza delle IA. Promuovendo la
collaborazione tecnica e l'inclusività, essi mirano a garantire
che i benefici dell'innovazione dell'IA sicura, protetta e
affidabile siano ampiamente condivisi, consentendo all'umanità
di realizzare pienamente il potenziale della nuova tecnologia.
Riproduzione riservata © Copyright ANSA