I sistemi intelligenti sono sempre più presenti nella vita quotidiana, indipendentemente dalla loro forma percepibile. Ai numerosi benefici si accompagnano altrettanti rischi, che toccano anche profili etici e giuridici e che costituiscono sfide ancor più complesse e delicate per il diritto rispetto a quelle ormai «tradizionalmente» poste dalla tecnologia. In particolare, la graduale interconnessione di prodotti e servizi intelligenti, che spaziano dalle automobili a guida autonoma ai motori di ricerca, evidenzia l’importanza di predisporre regole effettive ed efficaci per garantire la sicurezza sia dei loro utilizzatori sia dei terzi in una società che dipende in modo progressivamente crescente proprio da dispositivi e servizi «intelligenti» che devono prendere continuamente delle vere e proprie decisioni che incidono su individui e gruppi. In conseguenza di ciò, la sicurezza di tali sistemi è tanto più imprescindibile quanto più delicate possono essere le conseguenze di eventuali violazioni, soprattutto quando possono compromettere il corretto funzionamento di ciascun procedimento decisionale o quando possono comportare l’illegittima acquisizione di dati personali. Il diritto è tuttavia in difficoltà nel regolamentare fattispecie estremamente tecniche e in continuo divenire; in aggiunta, è proprio il diritto a consentire alla tecnica di prevalere su di esso quando l’opacità degli algoritmi, oltre che dei sistemi stessi, è non solo legittimata ma addirittura protetta in massimo grado dalle leggi vigenti; ciò accade anche negli Stati costituzionali, in cui il bilanciamento con i diritti fondamentali viene raramente effettuato quando sono in gioco i diritti di proprietà intellettuale e industriale. I fornitori di prodotti e servizi ad alto contenuto tecnologico possono infatti godere di un regime di sostanziale esenzione da responsabilità stante la difficoltà di provare eventuali difetti e malfunzionamenti di ciascun sistema, sia per la sua complessità sia per la segretezza che circonda gli algoritmi eseguiti dal sistema medesimo. Diviene così quasi impossibile conoscere effettivamente i flussi informativi che li attraversano e lo stesso vale per la possibilità di accedere a quei sistemi complessi gestiti su scala globale da parte dei maggiori fornitori di servizi, i quali così riescono ad eludere sostanzialmente le normative nazionali sotto questo profilo. Può il diritto regolare la tecnica raggiungendo un corretto equilibrio fra progresso tecnologico e tutela dei diritti? O deve piuttosto affidarsi alla tecno-regolazione ed intervenire solo ove si presentino conseguenze avverse? Come regolamentare i sistemi intelligenti operanti su scala globale? Il presente contributo, dopo aver presentato il quadro teorico ed affrontato le questioni di cui sopra nella prospettiva dell’informatica giuridica, delinea i potenziali limiti del diritto nella regolamentazione dei sistemi intelligenti e argomenta la necessità del suo intervento sia sulla base del principio di precauzione sia per evitare la prevalenza del potere tecnologico su quello statuale, che porterebbe a una deriva tecnocratica.

Sicurezza informatica ed opacità degli algoritmi nei sistemi intelligenti: profili informatico-giuridici / Fioriglio, G. - In: RIVISTA ELETTRONICA DI DIRITTO, ECONOMIA, MANAGEMENT. - ISSN 2039-4926. - 3(2016), pp. 1-23.

Sicurezza informatica ed opacità degli algoritmi nei sistemi intelligenti: profili informatico-giuridici

Fioriglio G
2016

Abstract

I sistemi intelligenti sono sempre più presenti nella vita quotidiana, indipendentemente dalla loro forma percepibile. Ai numerosi benefici si accompagnano altrettanti rischi, che toccano anche profili etici e giuridici e che costituiscono sfide ancor più complesse e delicate per il diritto rispetto a quelle ormai «tradizionalmente» poste dalla tecnologia. In particolare, la graduale interconnessione di prodotti e servizi intelligenti, che spaziano dalle automobili a guida autonoma ai motori di ricerca, evidenzia l’importanza di predisporre regole effettive ed efficaci per garantire la sicurezza sia dei loro utilizzatori sia dei terzi in una società che dipende in modo progressivamente crescente proprio da dispositivi e servizi «intelligenti» che devono prendere continuamente delle vere e proprie decisioni che incidono su individui e gruppi. In conseguenza di ciò, la sicurezza di tali sistemi è tanto più imprescindibile quanto più delicate possono essere le conseguenze di eventuali violazioni, soprattutto quando possono compromettere il corretto funzionamento di ciascun procedimento decisionale o quando possono comportare l’illegittima acquisizione di dati personali. Il diritto è tuttavia in difficoltà nel regolamentare fattispecie estremamente tecniche e in continuo divenire; in aggiunta, è proprio il diritto a consentire alla tecnica di prevalere su di esso quando l’opacità degli algoritmi, oltre che dei sistemi stessi, è non solo legittimata ma addirittura protetta in massimo grado dalle leggi vigenti; ciò accade anche negli Stati costituzionali, in cui il bilanciamento con i diritti fondamentali viene raramente effettuato quando sono in gioco i diritti di proprietà intellettuale e industriale. I fornitori di prodotti e servizi ad alto contenuto tecnologico possono infatti godere di un regime di sostanziale esenzione da responsabilità stante la difficoltà di provare eventuali difetti e malfunzionamenti di ciascun sistema, sia per la sua complessità sia per la segretezza che circonda gli algoritmi eseguiti dal sistema medesimo. Diviene così quasi impossibile conoscere effettivamente i flussi informativi che li attraversano e lo stesso vale per la possibilità di accedere a quei sistemi complessi gestiti su scala globale da parte dei maggiori fornitori di servizi, i quali così riescono ad eludere sostanzialmente le normative nazionali sotto questo profilo. Può il diritto regolare la tecnica raggiungendo un corretto equilibrio fra progresso tecnologico e tutela dei diritti? O deve piuttosto affidarsi alla tecno-regolazione ed intervenire solo ove si presentino conseguenze avverse? Come regolamentare i sistemi intelligenti operanti su scala globale? Il presente contributo, dopo aver presentato il quadro teorico ed affrontato le questioni di cui sopra nella prospettiva dell’informatica giuridica, delinea i potenziali limiti del diritto nella regolamentazione dei sistemi intelligenti e argomenta la necessità del suo intervento sia sulla base del principio di precauzione sia per evitare la prevalenza del potere tecnologico su quello statuale, che porterebbe a una deriva tecnocratica.
2016
3
1
23
Sicurezza informatica ed opacità degli algoritmi nei sistemi intelligenti: profili informatico-giuridici / Fioriglio, G. - In: RIVISTA ELETTRONICA DI DIRITTO, ECONOMIA, MANAGEMENT. - ISSN 2039-4926. - 3(2016), pp. 1-23.
Fioriglio, G
File in questo prodotto:
File Dimensione Formato  
Fioriglio_2016_3-1.pdf

Accesso riservato

Dimensione 221.08 kB
Formato Adobe PDF
221.08 kB Adobe PDF   Visualizza/Apri   Richiedi una copia
Pubblicazioni consigliate

Licenza Creative Commons
I metadati presenti in IRIS UNIMORE sono rilasciati con licenza Creative Commons CC0 1.0 Universal, mentre i file delle pubblicazioni sono rilasciati con licenza Attribuzione 4.0 Internazionale (CC BY 4.0), salvo diversa indicazione.
In caso di violazione di copyright, contattare Supporto Iris

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11380/1185625
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact