Il modello di fondazione compromesso
Il cosiddetto “modello aperto” non è affatto aperto. I diversi fornitori vantano il loro grado di apertura aprendo l’accesso ai pesi del modello, alla documentazione o ai test. Tuttavia, nessuno dei principali fornitori fornisce nulla di simile ai set di dati di addestramento o ai loro manifesti o lineage per poter replicare e riprodurre i propri modelli.
La sicurezza porosa
I modelli di intelligenza artificiale generativa sono i massimi honeypot della sicurezza poiché “tutti” i dati sono stati inglobati in un unico contenitore. Emergono nuove classi e categorie di vettori di attacco nell’era dell’IA; il settore deve ancora affrontare le implicazioni sia per quanto riguarda la sicurezza di questi modelli da minacce informatiche che per quanto riguarda il modo in cui questi modelli vengono utilizzati come strumenti da attori minacciosi.
La privacy che perde
I modelli di IA sono utili a causa dei set di dati su cui vengono addestrati; l’ingestione indiscriminata di dati su larga scala crea rischi senza precedenti per la privacy dell’individuo e del pubblico in generale. Nell’era dell’IA, la privacy è diventata una preoccupazione della società; le normative che affrontano principalmente i diritti dei dati individuali sono inadeguate.
Cosa succede dopo?
Stiamo affrontando un tipo di tecnologia diverso da qualsiasi altro che abbiamo visto nella storia dell’informatica, una tecnologia che mostra comportamenti emergenti e latenti su vasta scala; gli approcci di ieri per la sicurezza, la privacy e la riservatezza non funzionano più.