Navigazione
Con i lavori in corso per la regolamentazione europea delle tecnologie di intelligenza artificiale, nell’ambito del cosiddetto AI Act, i principali esponenti nella comunità scientifica della AI, tra associazioni, istituzioni ed esperti, hanno firmato una Lettera Aperta al Governo italiano...
Con i lavori in corso per la regolamentazione europea delle tecnologie di intelligenza artificiale, nell’ambito del cosiddetto AI Act, i principali esponenti nella comunità scientifica della AI, tra associazioni, istituzioni ed esperti, hanno firmato una Lettera Aperta al Governo italiano per chiedere un continuo impegno nella definizione di regole chiare e certe per i grandi modelli linguistici di AI generativa.
Di seguito il testo integrale del documento, con il link alla pagina per aggiungere la propria firma.
Lettera aperta della comunità scientifica per la regolamentazione dei modelli generativi nell’AI Act
Come scienziati della comunità dell’Intelligenza Artificiale vogliamo far sentire la nostra voce a sostegno della necessità di regole sui grandi modelli generativi, i “foundation model”, nell’ambito della Regolamentazione Europea sull’Intelligenza Artificiale, l’AI Act, in corso di negoziazione finale.
I modelli linguistici generativi come GPT-2, GPT-3(.5) e GPT-4, modelli di complessità gigantesca ottenuti per addestramento su enormi risorse di dati da varie fonti (come web, libri, social media e altro), hanno dimostrato prestazioni sorprendenti in una varietà di compiti linguistici. ChatGPT ha introdotto l’uso di tali modelli al grande pubblico globale. Sistemi come Stable Diffusion e MidJourney hanno rivoluzionato la creazione di immagini a partire da descrizioni testuali.
Tali modelli generativi (pre-addestrati) possono essere specializzati in una miriade di applicazioni in domini diversi, con effetti dirompenti sulla società e sull’economia: educazione, salute, scienza, tecnologia, industria, pubblica amministrazione, etc., alimentando un ecosistema e una catena del valore innovativi.
D’altra parte, questi modelli generativi sono frutto di una tecnologia recente e ancora parzialmente immatura e mostrano evidenti lacune di affidabilità e sicurezza. Fra queste, la mancanza di trasparenza sui dati di addestramento e la loro provenienza, la presenza di bias e di errori imprevedibili (allucinazioni), la facilità di uso per scopi manipolativi (produzione di disinformazione), la difficoltà di interpretare o spiegare le risposte che producono e gli errori che compiono. Nel contesto attuale, è difficile valutare l’impatto sulla società e l’economia a medio/lungo termine, inclusi i rischi esistenziali per la democrazia, la scienza e il lavoro, preoccupazioni espresse anche dagli stessi pionieri che hanno contribuito allo sviluppo della tecnologia dell’AI generativa.
Crediamo che l’assenza di regole certe per i modelli generativi, per lo più prodotti da grandi aziende extraeuropee, comporti un forte rischio economico sulle aziende europee e italiane che stanno creando prodotti e servizi basati su tali modelli. L’assenza di regole a monte avrebbe la conseguenza di scaricare sulle piccole e medie imprese europee l’intera responsabilità di essere conformi alle disposizioni dell’AI Act, senza però disporre di alcun controllo sui modelli generativi usati all’interno dei loro prodotti e quindi poter garantire robustezza, trasparenza e affidabilità.
Lungi dall’essere un freno per l’industria europea, la regolamentazione applicata ai modelli generativi sposta la responsabilità anche su chi li produce e li mette sul mercato per ulteriori utilizzi, e offre una protezione essenziale che andrà a vantaggio dell’industria europea e italiana e dell’ecosistema emergente dell’AI.
Regole a monte garantiscono che i pochi grandi sviluppatori forniscano i meccanismi di trasparenza e fiducia per i numerosi ulteriori attori a valle. Altrimenti, gli utenti finali saranno esposti a rischi che gli sviluppatori dei servizi a valle, e le PMI in particolare, non possono gestire tecnicamente. Le “carte modello” e i codici di condotta volontari – e quindi non sanzionabili – non sono sufficienti, come ampiamente dimostrato dall’esperienza. La regolamentazione, snella ma certa, dei modelli generativi è uno scudo cruciale per la sicurezza dell’industria europea e dei cittadini europei.
Facciamo quindi appello al governo italiano perché continui ad adoperarsi per un testo definitivo dell’AI Act che includa regole chiare per i modelli generativi, rinforzando il ruolo dell’Europa di avanguardia globale della regolamentazione dell’Intelligenza Artificiale, consentendo di coglierne le opportunità con le migliori salvaguardie per la sicurezza.
26 Novembre 2023
La lettera, nei soli primi due giorni, ha ricevuto circa 200 adesioni individuali e 6 adesioni istituzionali, fra cui la Fondazione FAIR (il partenariato nazionale PNRR sulla Future AI Research), la Associazione Italiana per l’Intelligenza Artificiale, il lab AIIS-CINI e il Dottorato Nazionale in AI. La lettera riflette quindi il pensiero condiviso dell’intera comunità scientifica italiana dell’IA in senso ampio, multi-disciplinare. Fra i primi firmatari spiccano inoltre i nomi di pionieri dell’AI moderna, come Yoshua Bengio, Stuart Russell e Raja Chatila.
News correlate
Un ponte tra il livello OT e quello IT: i vantaggi commerciali del TSN
La digitalizzazione in corso nel settore manifatturiero offre alle aziende opportunità chiave per creare strutture altamente produttive ed efficienti. La...
Robot e intelligenza artificiale, miti e paure da sfatare
Enrico Rigotti, Area Sales Manager di OnRobot Italia, sottolinea i vantaggi delle nuove tecnologie a supporto di produttività e innovazione...
Il cloud compie 25 anni
Ricorre in questi giorni il 25° compleanno del cloud, invenzione che ha dato impulso alla quarta rivoluzione industriale. La prima...