La riflessione giuridica sull’intelligenza artificiale è innanzitutto una riflessione sul metodo. Si tratta di un fenomeno che, seppur nuovo, va analizzato alla luce delle norme già esistenti, in particolare quelle dettate dal nuovo Reg. (UE) 2016/679 in materia di protezione dei dati personali. Giusella Finocchiaro – nell’articolo pubblicato sul numero di Luglio 2019 di Giurisprudenza Italiana – valuta la necessità di operare un bilanciamento di interessi tra il diritto alla protezione dei dati e l’esigenza di disporre di un’ingente mole di dati per lo sviluppo di questa nuova tecnologia, interrogandosi altresì sui criteri di allocazione della responsabilità in caso di danni cagionati da applicazioni di intelligenza artificiale.
L’intelligenza artificiale e le sue applicazioni costituiscono il tema del momento. Esso investe il vivere comune sotto diversi profili: politici, etici, sociologici e naturalmente, come ogni fenomeno sociale, anche sotto il profilo giuridico. Come sempre il metodo da adottarsi non può che consistere nel qualificare il fenomeno secondo la normativa vigente e nell’individuare le conseguenze dell’eventuale mancato rispetto delle norme, per verificare l’esigenza di una normativa ad hoc. Proprio dal metodo sembra opportuno muovere oggi. Si è diffusa, infatti, la tendenza, esaltata dai mezzi di comunicazione, di richiedere una norma nuova per ogni nuovo fenomeno illecito. L’allarme sociale, assolutamente condivisibile in molti casi, produce quasi automaticamente la richiesta di norme ad hoc. Mentre è comprensibile la richiesta di una sicura dichiarazione di illiceità del fenomeno con le eventuali conseguenze sotto il profilo sanzionatorio, l’esigenza di prevedere una norma specifica per ogni nuova fattispecie appare l’esito di una carenza metodologica. Tale ragionamento può essere compreso se svolto da non giuristi, in quanto frutto di mancanza di competenza tecnica, ma non può essere giustificato se svolto, invece, dai giuristi. Il giurista, infatti, non si può limitare ad applicare la norma all’esatta fattispecie da questa tratteggiata, ma deve utilizzare il principale strumento a sua disposizione che è costituito dall’interpretazione. Dunque deve non solo applicare le disposizioni rilevanti, ma cercare nel sistema giuridico, considerato nella sua complessità, le risposte. Se la corrispondenza fra fattispecie e norma fosse univoca, allora non occorrerebbe alcuna competenza giuridica. Chiunque potrebbe svolgere questo semplice compito. Al contrario, la visione sistematica e il metodo interpretativo sono peculiarità del lavoro del giurista, che va orgogliosamente rivalutato. Purtroppo il nostro legislatore sempre più frequentemente cede al richiamo mediatico e alla lusinga del consenso che si riscuote con una facile risposta, attraverso il noto approccio della legislazione dell’emergenza. L’ultimo atto in questo senso è la disposizione contenuta nell’art. 8 ter, D.L. 14 dicembre 2018, n. 135 (meglio noto come, ‘‘Decreto Semplificazioni’’), che definisce la tecnologia della blockchain e le applicazioni di smart contract. La norma citata, sotto il profilo giuridico, è errata per almeno due ordini di ragioni. In primo luogo, nel dibattito internazionale è ormai un principio consolidato quello della neutralità tecnologica, in virtù del quale la norma giuridica deve essere tecnologicamente neutra e dunque non riferirsi ad una particolare tecnologia, affermata in un particolare momento storico. I vantaggi della neutralità tecnologica sono evidenti: il diritto non condiziona il mercato, favorendo questa o quella tecnologia; non condiziona lo sviluppo della tecnica e non deve rincorrerla. L’approccio del diritto, nella neutralità tecnologica, è ‘‘funzionale’’. Non si concentra sul ‘‘cosa’’, ma sul ‘‘come’’. Legiferare in questo modo può essere più difficile, perchè non si norma l’oggetto, ma la funzione. Questo principio è stato, ad esempio, affermato dall’UNCITRAL nella regolazione sulla firma elettronica, che appunto è fondata sui principi della ‘‘neutralità tecnologica’’ e dell’‘‘equivalenza funzionale’’. Così si stabiliscono dei principi generali che possono rimanere invariati per un certo periodo di tempo, senza essere vincolati al mutamento delle tecnologie. La norma italiana, invece, tenta di descrivere la tecnologia della blockchain e le applicazioni di smart contract, allo stato attuale, cristallizzandoli. Oltre a ciò, effettua un’ulteriore operazione inutile e, anzi, dannosa. Attribuisce agli smart contract, dopo averli inutilmente definiti, secondo quel processo contrario al principio della neutralità tecnologica che prima si è illustrato, la forma scritta, solo se le parti sono identificate secondo un processo che dovrà essere disciplinato da AgID. Ora, l’identificazione delle parti, secondo i principi generali, non è requisito del contratto. Oltre a ciò, la forma scritta del documento informatico è materia già ampiamente disciplinata dal Codice dell’amministrazione digitale che certamente non richiede ulteriori precisazioni. Il tema che qui ci occupa, intelligenza artificiale e privacy, va dunque inquadrato nel contesto attuale di disordine intellettuale e l’obiettivo che si cercherà di perseguire sarà quello di razionalizzare le esigenze e le risposte normative.
L’articolo completo è disponibile QUI.