AI e dati biometrici: un futuro senza identità?
L’integrazione tra intelligenza artificiale e dati biometrici rivoluziona la nostra percezione dell’identità, sollevando nuovi dilemmi etici sulla privacy e sulla manipolazione dei dati personali in un contesto tecnologico avanzato
Il grande drammaturgo e poeta William Shakespeare scriveva che “noi siamo fatti della stessa sostanza dei sogni, e nello spazio e nel tempo d’un sogno è raccolta la nostra breve vita”. Ma siamo veramente certi che i nostri sogni possano ancora essere di nostra paternità?
O forse, similarmente “ai robot” di Isaac Asimov (Petroviči, 1920 – New York, 1992) potrebbero anche esistere robot addestrati ad impossessarsi del nostro immaginario e delle nostre emozioni? O addirittura avere “un cronoscopio” che consenta a chiunque di vedere e ascoltare[1].
Replicare la nostra identità
Di recente ha fatto molto discutere l’installazione, battezzata Deus in Machina che invita i visitatori a condividere pensieri e domande, offrendo un momento di riflessione “sacro” attraverso l’intelligenza artificiale.
Creata da un team dell’Immersive Realities Research Lab presso la Lucerne University of Applied Sciences and Arts, l’IA può rispondere in modo personale a possibili dubbi o domande dei fedeli, grazie all’addestramento avuto con i testi sacri e con il Nuovo Testamento, per far sperimentare alle persone un’interazione con l’IA e aprire un dibattito sull’uso dell’AI e la religione.[2]
“Rinunciare alla spontaneità e all’individualità significa soffocare la vita.” E. Fromm
Certamente anche se l’AI non riuscisse a carpire i sogni e le emozioni umane, il nodo centrale resta quello dei rischi legati all’acquisizione dei nostri dati biometrici, attraverso cui l’IA può facilmente replicare la nostra identità.
La nascita dell’Intelligenza Artificiale e l’evoluzione attuale
Negli ultimi anni l’evoluzione tecnologica ha mostrato un’evidente accelerazione attraverso lo sviluppo di forme di apprendimento automatico sempre più sofisticate, che si sono diversificate fino a divenire fonte autonoma di conoscenza, simulando le reti neurali umane.
L’intelligenza artificiale è andata migliorando progressivamente, fino alle attuali forme di IA generativa, che non si limita ad un apprendimento partendo da un numero rilevante di dati che fungono da addestramento, ma è in grado essa stessa di addestrarsi, ampliando sempre di più le connessioni tra dati, proprio come il cervello umano.
Ma per approfondire e comprendere i rischi legati a tale tipo di tecnologia, è interessante partire dalla definizione stessa di “intelligenza” e come si sia passati, negli ultimi decenni, dall’idea di una intelligenza automatizzata alla realizzazione di veri e propri sistemi di apprendimento di tipo artificiale.
Cogito ergo sum: il passaggio da intelligenza automatizzata a sistemi di apprendimento di tipo artificiale
Penso dunque sono. Secondo Cartesio, questo assioma era sufficiente a definire l’esistenza di un individuo ma con i progressi dell’ AI tale assioma è ancora valido?
In base alla definizione più comune, l’intelligenza può essere definita tale in quanto contiene in sé la capacità di migliorare le proprie prestazioni attraverso l’acquisizione, l’elaborazione e l’applicazione delle informazioni.
Prima dell’emanazione del AI Act si è assistito a diversi interventi legislativi che hanno fornito alcune prime definizioni di Intelligenza Artificiale, facendo leva soprattutto sulla capacità di tali sistemi di compiere azioni e perseguire obiettivi in autonomia, analizzando il proprio ambiente.
La relazione con l’ambiente è quindi da sempre un punto centrale del funzionamento dell’IA e del suo progressivo apprendimento.
Altro punto fondamentale è l’automazione, intesa come l’insieme di tecniche adottate dalla macchina al fine di generare, a partire da un input, un determinato output. Ma l’automazione non è sufficiente a definire l’IA, in quanto l’apprendimento progressivo dell’IA va oltre l’automazione e presuppone la capacità non solo di “imparare” a svolgere un determinato compito (Machine Learning), ma anche di superare alcuni limiti o difetti, prendendo decisioni in autonomia (Reti neurali)
È inevitabile quindi che l’evoluzione dell’ambiente (reale o virtuale) condizioni anche l’evoluzione dell’IA, la quale si modella e apprende nuove funzionalità in base alle richieste sempre più sofisticate degli utenti.
Sviluppo dell’AI e rischi connessi al trattamento dei dati
È evidente che lo sviluppo esponenziale dell’IA pone molteplici interrogativi sia relativamente all’autonomia decisionale di tali forme di tecnologia, che potrebbero porre la supervisione umana in secondo piano, sia relativamente ai rischi connessi al trattamento dei dati (privacy), alla tipologia di dati utilizzata per l’addestramento (rischi etici, discriminazione), ed infine alle responsabilità in caso di errori o danni.
La crescente accelerazione nello sviluppo dei sistemi basati sull’IA pone numerose questioni in merito all’impatto sociale, economico ed etico di tale tecnologia, soprattutto a causa dell’ampia diffusione, in ogni settore (creativo, divulgativo, produttivo) di sistemi di IA generativa come ChatGPT e simili, che minimizzano sempre di più l’apporto umano nella realizzazione di contenuti di vario genere.
Ai e privacy
L’avvento dell’IA, proprio per l’utilizzo massiccio di dati ai fini dell’addestramento (big data) ha posto l’attenzione sui rischi connessi al trattamento dei “dati personali” e alle potenziali violazioni della “privacy”.
Nel passato il concetto di privacy era legato al “diritto ad essere lasciati soli” [4] inteso come tutela dell’autonomia e dignità umana sia nella sfera personale che familiare. Solo nel 1965 negli Stati Uniti fu elaborato il diritto costituzionale alla privacy, presupponendo che lo stesso fosse un corollario dei diritti fondamentali dell’individuo (libertà personale, di pensiero, di espressione).
Leggi di più