Intelligenza Artificiale : La Paura dell’Incognito

40

“Se ci diamo appuntamento qui tra trent’anni, non ci sarà un robot che si avvicinerà molto alle capacità e facoltà umane“; queste le parole rilasciate da Luciano Floridi, docente di filosofia ed etica dell’informazione all’Università di Oxford e autore del libro “Etica dell’intelligenza artificiale”.

Ma qual’è la definizione di intelligenza artificiale? E’ una disciplina che studia se e in che modo si possano realizzare sistemi informatici intelligenti in grado di simulare la capacità e il comportamento del pensiero umano.

Si chiama deep learning, ma cos’è?

La traduzione letterale è apprendimento profondo ma il Deep Learning, sotto categoria del Machine Learning e del più ampio mondo dell’Intelligenza Artificiale, sottende a qualcosa di molto più ampio del “semplice” apprendimento su più livelli delle macchine.

Se su questo tema Nick Bostrom, anch’egli professore di filosofia

all ‘ Oxford University, è del parere che entro il 2030 il cervello- macchina sarà più intelligente del cervello umano, Floridi definisce tale visione come pura “fantascienza“, sebbene l’IA sia ormai una presenza significativa nella vita quotidiana delle persone.

A metà degli anni ottanta dello scorso secolo fu reinventato l’algoritmo di apprendimento per reti neurali chiamato back- propagation.

L’algoritmo fu applicato a molti problemi relativi all’apprendimento, inerenti sia al lato dell’informatica sia a quello della psicologia.

I cosiddetti modelli “connessionisti” per la realizzazione di sistemi intelligenti furono visti come alternative ai modelli simbolici.

Tali modelli cercarono di dare risposta a quelle domande alle quali

i precedenti modelli non erano riusciti, ma in parte fallirono anch’essi. Di conseguenza, i modelli basati sull’approccio simbolico e quelli con un approccio connessionista furono visti come complementari.

Oggigiorno i sistemi intelligenti sono presenti in ogni campo, anche nelle attività quotidiane e primeggiano nei giochi, come teorizzato anni prima dagli esponenti dell’intelligenza artificiale. Vi sono programmi che sono stati in grado di confrontarsi con campioni di scacchi, altri che sono stati impiegati nelle missioni spaziali, come nel 1998 quando la NASA utilizzò un programma chiamato Remote Agent in grado di gestire le attività relative a un sistema spaziale; alcune auto sono oggi dotate di un sistema in grado di guidarle senza l’uso di un conducente umano, quindi in maniera del tutto autonoma.

Nell’ambito di scenari più quotidiani si pensi, invece, ai termostati per il riscaldamento e l’aria condizionata in grado di anticipare il cambio di temperatura, gestire i bisogni degli abitanti e di interagire con altri dispositivi.

Partendo dalla premessa per cui i governi devono garantire l’impiego dell’intelligenza artificiale nel massimo rispetto dell’etica, nell’aprile del 2019, l’Unione Europea ha elaborato il suo codice etico che contiene le linee guida su utilizzo e sviluppo di sistemi di intelligenza artificiale. Il documento, che è stato predisposto da un gruppo di 52 esperti, rappresentati da informatici, ingegneri ma anche giuristi, filosofi, industriali, matematici, e varie fasi di approfondimento.

Per prima cosa, il gruppo di esperti ha identificato le fondamenta giuridiche sulle quali il codice dovesse poggiare ricercandole nei Trattati UE, nella Carta dei diritti e nella legge internazionale dei Diritti Umani . Da questa analisi sono stati individuati quei diritti inderogabili che, nell’Unione Europea, devono essere rispettati per l’intelligenza artificiale, vale a dire:

Rispetto per la dignità dell’uomo
Libertà dell’individuo

Rispetto per la democrazia e per la giustizia
Eguaglianza e non discriminazione
Diritti dei cittadini
Secondo la posizione del Parlamento europeo, saranno severamente vietati i sistemi di intelligenza artificiale che presentano un livello di rischio inaccettabile per la sicurezza delle persone.

L’elenco delle applicazioni con un livello di rischio inaccettabile includerà anche i sistemi di identificazione biometrica remota “in tempo reale” in luoghi pubblici e successivamente, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili provenienti dai social media o dalle telecamere a circuito chiuso per creare database di riconoscimento facciale.

Inoltre, includerà sistemi di polizia predittivi e software di riconoscimento delle emozioni utilizzati anche nella gestione delle frontiere, nei luoghi di lavoro e nelle istituzioni educative.

Alessandra Trotta

(giornalista e scrittrice)


News-24.it è una testata giornalistica indipendente che non riceve alcun finanziamento pubblico. Se ti piace il nostro lavoro e vuoi aiutarci nella nostra missione puoi offrici un caffè facendo una donazione, te ne saremo estremamente grati.