Resilienza agli attacchi e sicurezza
Home » IA » Esposizione generale » Robustezza tecnica e sicurezza » Resilienza agli attacchi e sicurezza

La resilienza agli attacchi deve essere un obiettivo di tutti i sistemi TIC, compresi i sistemi di IA. Nel trattamento dei dati personali, l’Articolo 32 dell’RGPD richiede esplicitamente l’attuazione di misure tecniche e organizzative adeguate per garantire la sicurezza dei dati (cfr. sotto-sezione ‘Misure a sostegno della riservatezza’ nella sezione ‘Integrità e riservatezza’ del capitolo ‘Principi’).

Le misure di sicurezza richieste dipendono dal probabile impatto di un malfunzionamento del sistema di IA. Tali misure devono includere anche quelle adottate per garantire la resilienza dei sistemi di trattamento dei dati.[1] Per alcuni tipi di sistemi di IA, il processo decisionale può essere particolarmente vulnerabile agli attacchi. Ad esempio, un soggetto malintenzionato può creare un input fuorviante per sfruttare le differenze fondamentali di percezione tra gli esseri umani e i sistemi di IA, come dimostra l’esempio del riquadro 2.

Riquadro 2. Esempio della necessità di sicurezza nei sistemi di IA

Un veicolo autonomo deve riconoscere automaticamente i segnali stradali utilizzando le telecamere di bordo e regolando, di conseguenza, la sua velocità. Sebbene gli algoritmi di IA basati sulle reti neurali profonde possano eccellere in questo compito, bisogna prestare particolare attenzione a proteggere il sistema da attacchi mirati da parte di un malintenzionato. Ad esempio, piccole modifiche mirate ai segnali stradali potrebbero indurre il sistema di IA a scambiare un segnale di stop per un segnale di limite di velocità, dando luogo a situazioni potenzialmente pericolose. Parallelamente, all’osservatore umano occasionale la modifica può apparire come un semplice graffito. È, pertanto, della massima importanza proteggere un sistema di IA utilizzato a tal fine contro questi attacchi, aumentandone, così, la resilienza.[2]

Anche i modelli di IA addestrati possono costituire una preziosa fonte di dati. In determinate circostanze, può essere possibile acquisire informazioni sui dati inseriti utilizzando solo il modello addestrato.[3] Tale “fuga di informazioni” potrebbe essere sfruttata da soggetti sia interni che esterni. È, quindi, importante che i titolari del trattamento adottino misure volte a limitare l’accesso al modello e ai dati di addestramento sottostanti, e per tutte le categorie di soggetti (cfr. sotto-sezione ‘Misure a sostegno della riservatezza’ nella sezione ‘Integrità e riservatezza’ del capitolo ‘Principi’).

Una volta addestrato, il sistema di IA risultante può essere utilizzato per scopi molto diversi da quelli originariamente previsti. Ad esempio, il sistema di IA per il riconoscimento facciale può essere usato per riconoscere e raggruppare le foto contenenti una persona specifica all’interno di un album fotografico online. Lo stesso sistema di IA potrebbe essere utilizzato anche per cercare su Internet foto di una persona specifica, rivelando potenzialmente dati personali sensibili (ossia utilizzando la posizione della foto o il contesto di cattura). Questo tipo di uso polivalente è, spesso, possibile con i sistemi di IA, e spetta al progettista di sistema prevedere un eventuale trattamento illecito dei dati personali e adottare misure di sicurezza che lo impediscano o lo riducano al minimo.. Ciò potrebbe avvenire tramite misure quali la limitazione delle fonti di dati utilizzabili o il divieto di determinati modelli di utilizzo mediante i termini di concessione delle licenze. Il quadro giuridico in materia di protezione dei dati può integrare tali restrizioni, ma non le sostituisce affatto.

 

 

  1. Articolo 32, paragrafo 1, lettera b), dell’RGPD.
  2. Eykholt, K. et al. (2018) ‘Attacchi energici al mondo reale sui modelli di apprendimento profondo’, 2018 Conferenza IEEE/CVF su visione artificiale e riconoscimento dei modelli10.4.2018, arXiv:1707.08945.
  3. Fredrikson, M. et al. (2015) ‘Attacchi di inversione dei modelli che sfruttano le informazioni di attendibilità e contromisure di base’, CCS ’15: Atti della 22a conferenza ACM SIGSAC in materia di sicurezza dei computer e delle comunicazioni, ottobre 2015. Cornell University, Ithaca. Disponibile all’indirizzo: https://rist.tech.cornell.edu/papers/mi-ccs.pdf (consultato il 20 maggio 2020).

 

Skip to content