skip to Main Content

Nonostante molti strumenti dotati di intelligenza artificiale (IA) siano stati sviluppati da ormai diversi anni, è invece molto più recente la pubblicazione dei primi documenti ufficiali europei in merito allo sviluppo di tali sistemi e alle implicazioni socio-economiche, etiche e legali.

Risalgono infatti ad aprile 2018 la Dichiarazione sulla cooperazione in materia di intelligenza artificiale e la Comunicazione: L’intelligenza artificiale per l’Europa i primi passi che l’Unione ha fatto per definire la propria posizione in un ordine globale sempre più antropocentrico dei sistemi di IA. Per parlare di intelligenza artificiale è importante capire di cosa si tratti.

Secondo la sopraccitata Comunicazione (2018) 237, l’IA “indica sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi”.

Siamo dunque di fronte ad una tecnologia che, unita alla capacità e sempre maggiore potenza di calcolo, può aiutare l’essere umano nella risoluzione delle più grandi sfide, dalla medicina ai cambiamenti climatici, dall’istruzione all’economia.

L’obiettivo di questo paper è considerare i rischi conseguenti al mancato rispetto dei diritti umani fondamentali e dell’etica nello sviluppo e nell’applicazione di strumenti di intelligenza artificiale in particolare nell’ambito giudiziario.

A livello europeo tale rischio è stato evidenziato nel Libro Bianco sull’Intelligenza Artificiale, in relazione alla vulnerabilità dei diritti “alle libertà di espressione e di riunione, la dignità umana, la non discriminazione fondata sul sesso, sulla razza, sull’origine etnica, sulla religione o sulle convinzioni personali, sulla disabilità, sull’età o sull’orientamento sessuale (ove applicabili in determinati settori), la protezione dei dati personali e della vita privata o il diritto a un ricorso giurisdizionale effettivo e a un giudice imparziale, nonché la tutela dei consumatori”.

Back To Top