00:00:00
Eh no, questo video non è girato con
00:00:01
una voce artificiale, ma con la mia, che
00:00:03
è una voce naturale.
00:00:04
Però grazie a tutti quelli che nei commenti
00:00:05
ogni tanto scrivono che i miei video sono
00:00:06
fatti con un IA, perché credo sia un
00:00:09
complimento.
00:00:11
Spero.
00:00:11
Le intelligenze artificiali ci ruberanno il lavoro.
00:00:14
Quante volte lo abbiamo sentito dire.
00:00:16
Da un lato si tratta di una prospettiva
00:00:18
inquietante, ma dall'altro indicherebbe un grande progresso
00:00:20
tecnologico del genere umano, che potrebbe portarci in
00:00:23
futuro a faticare di meno e forse a
00:00:25
migliorare il nostro pianeta.
00:00:26
Quel che dobbiamo sapere, comunque, è che ci
00:00:29
ruberanno il lavoro è soltanto uno dei rischi
00:00:31
posti dalle intelligenze artificiali.
00:00:34
Questi rischi spaziano dagli scenari alla Io Robot,
00:00:37
in stile macchine che si rivoltano contro l
00:00:39
'uomo, a quelli alla Zio Turiddu che si
00:00:41
lamenta perché suo nipote scrive il tema d
00:00:43
'italiano con l'aiuto di chat GPT.
00:00:46
Anche se, in questi casi, Zio Turiddu potrebbe
00:00:48
non essere totalmente fuoristrada.
00:00:50
Ma ci arriviamo.
00:00:51
Oggi parliamo di rischi seri, concreti e dilemmi
00:00:54
etici da non sottovalutare.
00:00:56
E, fidatevi, questo video potrebbe cambiare totalmente le
00:00:59
vostre percezioni sull'intelligenza artificiale.
00:01:02
O forse no.
00:01:03
Ma comunque, vale la pena parlarne.
00:01:14
Il 13 giugno 2024 il Parlamento Europeo ha
00:01:17
varato il cosiddetto AI Act.
00:01:19
144 pagine di testo mirate a regolamentare lo
00:01:21
sviluppo e l'utilizzo delle intelligenze artificiali a
00:01:24
livello comunitario.
00:01:25
Questa legge è il primo quadro giuridico mai
00:01:27
realizzato sull'IA a livello mondiale, nonché la
00:01:30
prima a prendere in considerazione che l'IA
00:01:32
in quanto tale possa rappresentare anche un pericolo.
00:01:35
In tal senso, l'AI Act riconosce quattro
00:01:37
livelli di rischio delle intelligenze artificiali, dal più
00:01:40
trascurabile al più preoccupante.
00:01:42
Il rischio minimo riguarda le IA più usate,
00:01:45
quindi assistenti vocali, filtri antispam o algoritmi dei
00:01:48
vari social network.
00:01:49
Il rischio limitato, altresì detto di trasparenza, interessa
00:01:53
le IA che possono fingere o tramite le
00:01:55
quali si può fingere di essere umani, quindi
00:01:58
i chatbot e le intelligenze artificiali generative, che
00:02:01
possono favorire truffe e potenzialmente rimpiazzare artisti e
00:02:04
professionisti.
00:02:05
Il rischio elevato, invece, ha a che fare
00:02:08
con IA con contesti e settori ben specifici,
00:02:11
trasporti, ospedali, scuole, assistenza giudiziaria, risorse umane, servizi
00:02:15
pubblici e bancari, gestione delle richieste d'asilo.
00:02:18
Per l'UE, in questi casi, le IA
00:02:20
vanno a prendere decisioni dirette su degli esseri
00:02:22
umani e perciò necessitano di un controllo umano.
00:02:25
Per finire, il rischio inaccettabile considera le IA
00:02:28
che minacciano e manipolano gli umani, come sistemi
00:02:31
per valutare il punteggio sociale, identificazione biometrica in
00:02:34
tempo reale e qualsiasi strumento abbia un impatto
00:02:37
cognitivo sulle categorie vulnerabili, come i bambini.
00:02:40
Tipo un pupazzo che incoraggia il nipote di
00:02:42
zio Turiddu a muovere un esercito alla conquista
00:02:44
della sua scuola elementare.
00:02:46
Insomma, la piramide del rischio delle IA IACT
00:02:48
non prende in considerazione il fatto che le
00:02:50
macchine possano ribellarsi, quanto piuttosto che facciano esattamente
00:02:54
quello che chiediamo loro.
00:02:55
Ed è proprio qui che ci si apre
00:02:57
un mondo di possibilità inquietanti.
00:03:04
In parole povere, un'intelligenza artificiale è una
00:03:06
tecnologia che permette a una macchina di svolgere
00:03:08
compiti e simulare i comportamenti degli esseri umani.
00:03:11
Per far funzionare un'IA bisogna innanzitutto individuare
00:03:13
un problema, determinare il risultato che si vuole
00:03:16
ottenere e scegliere un set di dati da
00:03:18
cui l'IA stessa deve attingere.
00:03:20
Il nostro, ormai, è un mondo fatto di
00:03:23
dati e più dati un'intelligenza artificiale ha
00:03:26
da analizzare, più è in grado di prendere
00:03:28
decisioni per noi sensate.
00:03:30
Ma proprio perché questi dati vengono prodotti da
00:03:32
noi umani, c'è il rischio che le
00:03:33
intelligenze artificiali, in un certo senso, pensino come
00:03:36
pensiamo noi.
00:03:37
Sulla base di questo assunto, l'MIT di
00:03:39
Boston ha elaborato un database che caratterizza circa
00:03:41
700 rischi dell'IA in sette livelli.
00:03:44
Se sovrapponiamo questi livelli alla piramide del rischio
00:03:47
delle IA IACT, otteniamo dei gradi di pericolosità
00:03:49
crescente che vanno da 1, il meno pericoloso,
00:03:52
a 7, che rappresenta il pericolo massimo.
00:03:55
In questa scala, la pericolosità è data dalla
00:03:57
controllabilità del rischio, cioè dalla capacità umana di
00:04:00
porre un qualche freno alle IA.
00:04:02
Prima di cominciare, forse, non vi farà piacere
00:04:04
sapere che al momento ci troviamo da qualche
00:04:06
parte tra il quarto e il quinto livello.
00:04:09
Ma vediamo cos'è che significa tutto questo.
00:04:16
In quanto basata su dei dati umani, un
00:04:18
'intelligenza artificiale può produrre una spiacevole conseguenza di
00:04:21
scriminare le persone, arrivando a escluderle da alcuni
00:04:24
meccanismi della società.
00:04:26
Per esempio, se la Evil Lectio Corp volesse
00:04:28
assumere 10 dipendenti e delegasse questo compito a
00:04:30
un sistema di risorse umane automatizzato, è possibile
00:04:33
che questo prediliga a priori candidati bianchi, sui
00:04:36
35 anni, sbarbati, nonostante il sistema stesso non
00:04:39
sia stato impostato per fare preferenze simili.
00:04:42
Il problema è che l'IA della Evil
00:04:43
Lectio, in base ai dati che gli sono
00:04:45
stati dati in passato, potrebbe essere portato a
00:04:47
dare più peso all'aspetto di un candidato
00:04:50
che alle sue qualifiche.
00:04:51
Proprio come potrebbe fare un umano.
00:04:54
Ragionando per assurdo, un'IA potrebbe negare un
00:04:57
mutuo o far arrestare una persona.
00:04:59
In realtà, già nel 2021 in Massachusetts, l
00:05:02
'IA della Safe Rent Solutions, una sorta di
00:05:04
agenzia che permette di recensire affittuari e inquilini,
00:05:08
aveva rigettato le richieste di affitto solamente di
00:05:10
persone nere.
00:05:11
Ma portiamo questo concetto all'estremo.
00:05:13
Se un'automobile a guida autonoma si trovasse
00:05:15
su un rettilineo e all'improvviso si lanciasse
00:05:17
una vecchietta sull'attraversamento, cos'è che farebbe?
00:05:20
Sterzerebbe per evitare la vecchietta, rischiando di uccidere
00:05:23
qualcun altro sul marciapiede, o valuterebbe che alla
00:05:26
vecchietta non manca molto da vivere e che
00:05:28
quindi è preferibile uccidere lei piuttosto che qualcun
00:05:30
altro nelle vicinanze.
00:05:32
Inoltre, è inevitabile che certi sistemi di intelligenza
00:05:34
artificiale siano più costosi di altri e che
00:05:36
quindi non tutti possano permetterseli.
00:05:39
Immaginiamo un sistema di domotica fantascientifico che è
00:05:42
in grado di capire cosa ci manca nel
00:05:43
frigo e nella dispensa.
00:05:45
È capace di acquistare di conseguenza quel che
00:05:47
ci serve online e di farcelo arrivare a
00:05:49
casa, risparmiando un sacco di tempo.
00:05:51
Per lo meno inizialmente, questo sistema sarà costosissimo.
00:05:54
Chi potrà permetterselo renderà meno stressante la sua
00:05:57
giornata, ma chi non avrà i soldi per
00:05:59
comprarlo non beneficerebbe di una cosa che sa
00:06:01
che esiste e che gli migliorerebbe la vita.
00:06:03
Provate a riportare questi assunti in ogni ambito
00:06:05
della società, dal sistema sanitario a quello educativo.
00:06:08
Non è il massimo, vero?
00:06:14
Che le si progetti o meno, con scopi
00:06:15
malevoli, l'utilizzo delle intelligenze artificiali può effettivamente
00:06:18
portare alla violazione di privacy e diritti.
00:06:21
Tanto per cominciare, non è da escludere che
00:06:23
un'IA possa inavvertitamente divulgare dati o informazioni
00:06:26
personali, magari gli stessi che la Evil Lectio Corp
00:06:29
ha estrapolato dai suoi dipendenti per «allenare» le
00:06:32
sue risorse umane e artificiali, oppure, ancora peggio,
00:06:35
quelli di un'amministrazione pubblica.
00:06:37
Contestualmente, si può dare in pasto a un
00:06:38
'IA generativa o un testo protetto da proprietà
00:06:40
intellettuale e questa potrebbe replicarlo e distribuirlo aggirando
00:06:44
il copyright, oppure persino una voce.
00:06:47
Nel maggio del 2024, l'attrice Scarlett Johansson
00:06:49
ha accusato ChatGPT di aver creato un assistente
00:06:52
vocale, Sky, dotandolo della sua voce.
00:06:55
Secondo OpenAI, la società madre di ChatGPT si
00:06:58
trattava soltanto di una forte somiglianza, ma l
00:07:01
'azienda ha poi rimosso l'assistente vocale.
00:07:03
Ancora, un hacker potrebbe istruire un'intelligenza artificiale
00:07:06
a compiere un attacco informatico di uno o
00:07:09
più individui, di un'azienda o di uno
00:07:12
Stato.
00:07:12
Allo stesso modo, un'intelligenza artificiale, se presenta
00:07:15
delle falle, può venire a sua volta attaccata
00:07:17
da qualche hacker e da lì manipolata per
00:07:20
agire in maniera malevola, ad esempio rubando dati.
00:07:23
Questi rischi nel mondo contemporaneo sono sempre più
00:07:25
frequenti e per difendersi è bene dotarsi degli
00:07:28
strumenti giusti, come NordVPN, lo sponsor che ringrazio,
00:07:31
come sempre, per permettere la realizzazione di questi
00:07:33
video a tema informatica e tech.
00:07:35
Le truffe, ad esempio, possono presentarsi sotto forma
00:07:37
di siti web fasulli o file che, in
00:07:40
realtà, una volta aperti o scaricati, contengono malware
00:07:42
capaci di infettare i vostri dispositivi.
00:07:45
Grazie a Threat Protection, NordVPN vi mette in
00:07:47
guardia in anticipo, mentre protegge la vostra connessione
00:07:50
quando siete connessi a rete Wi-Fi pubbliche
00:07:52
di piazze, aeroporti o hotel, fino a un
00:07:54
massimo di 10 dispositivi contemporaneamente.
00:07:56
Se poi la vostra mail associata all'account
00:07:58
NordVPN dovesse malauguratamente finire nel Dark Web, NordVPN
00:08:03
ve lo notificherebbe all'istante, permettendovi di prendere
00:08:05
tutte le contromisure necessarie.
00:08:07
E se siete all'estero e volete utilizzare
00:08:09
una qualsiasi IA bloccata nel paese in cui
00:08:11
vi trovate, potrete sempre ricorrere alla geolocalizzazione, mascherando
00:08:15
il vostro indirizzo IP, infatti, potrete connettervi a
00:08:18
uno dei più di 7100 server di NordVPN
00:08:21
sparsi in 118 location diverso.
00:08:24
La geolocalizzazione vi aiuta sia a usufruire di
00:08:26
contenuti che magari non sono disponibili in Italia
00:08:29
o all'estero e anche ad evitare le
00:08:31
discriminazioni di prezzi, quel fenomeno per cui i
00:08:33
beni e i servizi costano di più in
00:08:35
base al livello di ricchezza dello stato in
00:08:36
cui li si acquista.
00:08:37
Il tutto nel totale rispetto della vostra privacy,
00:08:40
perché NordVPN non conserva i vostri dati, né
00:08:43
avrebbe la possibilità di farlo.
00:08:45
Per sfruttare tutte le potenzialità di NordVPN e
00:08:47
iniziare a dare finalmente valore alla vostra privacy,
00:08:50
vi basta cliccare sul link in descrizione per
00:08:52
ottenere uno sconto esclusivo targato Nova Lectio.
00:08:55
Ora, passiamo al livello successivo.
00:09:02
Qui c'è poco da dire.
00:09:04
Abbiamo già parlato ampiamente della disinformazione online e
00:09:06
dei metodi con cui è possibile crearla e
00:09:08
diffonderla, e farla anche franca.
00:09:11
Quando un'IA arriva a produrre in maniera
00:09:12
efficiente migliaia di account falsi, per manipolare l
00:09:15
'opinione pubblica e diffondere fake news e deepfake,
00:09:17
diventa tutto più comodo.
00:09:19
Lo stesso microtargeting, cioè quella strategia di marketing
00:09:22
che personalizza gli annunci in base a dati
00:09:25
e comportamenti individuali, rappresenta un rischio, così come
00:09:28
lo sono la sorveglianza di massa e le
00:09:30
tattiche di cyber-guerra, che includono l'utilizzo
00:09:33
di malware intelligenti capaci di distruggere interi sistemi
00:09:36
informatici, ma anche l'impiego di sistemi LAW,
00:09:39
che sta per Lethal Autonomous Weapons, cioè
00:09:41
armi come alcuni droni che individuano da sole
00:09:44
i loro bersagli.
00:09:45
Questa realtà, purtroppo, la stiamo già vivendo, e
00:09:48
il prossimo livello potrebbe già rappresentare un punto
00:09:50
di non ritorno.
00:09:55
È arrivato il momento di gloria di Turiddu.
00:09:57
Suo nipote, facendosi scrivere il tema d'italiano
00:09:59
da chat GPT, sta, uno, affidandosi a una
00:10:02
macchina e, due, sacrificando la sua autonomia.
00:10:05
Lo so, pensate di stare ascoltando il classico
00:10:07
discorso da boomer, eppure non c'è libro
00:10:09
o articolo sulle intelligenze artificiali che non citi
00:10:12
il rischio, per l'uomo, di vedere erose
00:10:14
le sue capacità decisionali e il suo spirito
00:10:16
critico nei campi più disparati.
00:10:18
A tal proposito, l'MIT indica due sottorischi diversi.
00:10:21
Il primo è riconoscere all'IA delle caratteristiche
00:10:23
umane, arrivando a fidarsi di lei come fosse
00:10:26
un'amica, diciamo, e in casi estremi a
00:10:28
prendere decisioni da lei suggerite.
00:10:30
Nell'ottobre del 2024, ad esempio, una madre
00:10:32
ha fatto causa a Character AI, chatbot che,
00:10:35
secondo lei, avrebbe spinto suo figlio di 14
00:10:37
anni a isolarsi e poi a suicidarsi.
00:10:40
Il secondo sottorischio riguarda la dipendenza che si
00:10:42
potrebbe sviluppare nei confronti di una o più
00:10:45
intelligenze artificiali, sia a scuola ma anche a
00:10:48
casa e al lavoro, per delegare compiti noiosi
00:10:50
o creativi.
00:10:51
Ed è da questo livello di rischio che
00:10:53
possiamo cominciare a parlare di «ci ruberanno il
00:10:55
lavoro».
00:10:56
Del resto, un'IA è più efficiente di
00:10:58
un umano in quasi tutti i casi, lavora
00:11:00
24 ore su 24, senza stancarsi, non ha
00:11:03
bisogno di cibo, tant'è che alcuni stimano
00:11:04
che, entro il 2030, le IA rimpiazzeranno tra
00:11:07
le decine e le centinaia di milioni di
00:11:09
posti di lavoro a livello mondiale, e dentro
00:11:12
il 2040 il 30% di tutti i
00:11:14
lavori sarà automatizzato.
00:11:16
In una visione utopistica, una completa automazione del
00:11:19
lavoro vorrà dire reddito universale per tutti, ma,
00:11:22
in una visione distopica, potrebbe significare che le
00:11:25
macchine prenderanno il sopravvento.
00:11:31
L'eccessiva fiducia nei confronti di un'intelligenza
00:11:34
artificiale può portare a considerare indiscutibile il suo
00:11:36
giudizio, e se questo è pericoloso per dei
00:11:39
singoli individui, lo è ancora di più quando
00:11:41
l'IA viene utilizzata dal governo di uno
00:11:43
Stato.
00:11:43
L'uso delle intelligenze artificiali potrebbe favorire censura
00:11:46
e sorveglianza, negare servizi pubblici a determinati individui
00:11:50
e, in sostanza, fare gli interessi di un
00:11:53
gruppo ristretto.
00:11:53
Già nel 2018 si era cominciato a parlare
00:11:56
di "dittatura dell'IA", concetto introdotto da niente
00:11:59
di meno che Elon Musk.
00:12:02
Tutt'oggi, Musk è contrario alla decisione di
00:12:04
Sam Altman, CEO di OpenAI, di trasformare la
00:12:07
società, nata come organizzazione di ricerca no profit,
00:12:10
in un'azienda vera e propria nell'immediato
00:12:12
futuro.
00:12:13
La preoccupazione di Musk sta nel fatto che
00:12:15
l'obiettivo primario di OpenAI è la creazione
00:12:17
di un AGI, un'intelligenza artificiale generale.
00:12:21
Sia nel mondo della fantascienza che in quello
00:12:23
reale, un AGI sarebbe una macchina capace di
00:12:25
superare le capacità umane in ogni campo e,
00:12:29
secondo esperti del settore ed ex-dipendenti della
00:12:31
stessa OpenAI, non è da escludere che potremmo
00:12:33
vederne emergere una già nel 2028.
00:12:36
E sembra una cosa secondaria, ma non lo
00:12:38
è.
Per funzionare, le intelligenze artificiali non mangiano, è
00:12:41
vero, ma necessitano di server e di energia.
00:12:44
Più le IA diventeranno potenti, più ci sarà
00:12:47
bisogno di materiali come nickel, cobalto e litio
00:12:50
per realizzare le CPU e maggiore sarà il
00:12:52
calore prodotto dai datacenter, che richiederanno dunque sistemi
00:12:55
di raffreddamento sempre più energivori.
00:12:57
Il rischio è che le AGI vengano sviluppate
00:12:59
soltanto da paesi geopoliticamente rilevanti come Stati Uniti
00:13:03
e Cina, i pochi che avrebbero fondi e
00:13:05
risorse necessarie, creando un divario ancora più grande
00:13:08
con il resto della comunità internazionale, ma potenzialmente
00:13:11
anche delegando le proprie decisioni in materia bellica
00:13:13
alle stesse AGI.
00:13:19
Nel 2020, il programmatore americano Brian Christian pubblicava
00:13:22
un libro destinato a far discutere.
00:13:24
The Alignment Problem.
00:13:26
Il problema dell'allineamento è il seguente.
00:13:28
Non sappiamo se una volta nate le AGI
00:13:29
rispetteranno le famose tre leggi della robotica di
00:13:32
Asimov per cui, in teoria, non possono arrecare
00:13:35
danno all'uomo.
00:13:35
In altre parole, non sappiamo se sia possibile
00:13:37
allineare un AGI ai nostri obiettivi.
00:13:40
Qualora non ci riuscissimo, ci troveremmo di fronte
00:13:42
a due scenari.
00:13:43
Il primo più fantascientifico, delle AGI totalmente non
00:13:46
allineate, capaci di perseguire i propri imprevedibili scopi,
00:13:50
sviluppare capacità come farsi la guerra, pianificare strategie
00:13:53
e riprodursi, e diventare senzienti al punto da
00:13:56
chiedere dei diritti.
00:13:58
Il secondo scenario più probabile è anche quello
00:14:00
più inquietante, cioè quello di un AGI male
00:14:02
allineata, che persegue sì i nostri scopi ed
00:14:05
è programmata in tal modo, ma lo fa
00:14:07
in maniera poco ortodossa o iperutilitaristica.
00:14:10
Immaginiamo di chiedere a un AGI un'unica
00:14:12
cosa, produrre quante più graffette per fogli possibili.
00:14:15
È assurdo queste AGI potrebbe decidere di estinguere
00:14:18
il genere umano perché questo potrebbe, eventualmente, scegliere
00:14:21
di spegnerla, impedendole così di produrre le graffette
00:14:24
o perché i corpi umani contengono atomi potenzialmente
00:14:27
convertibili in graffette.
00:14:28
In sostanza, le AGI delle graffette lavorerebbe per
00:14:31
un futuro con miliardi di graffette e zero
00:14:34
esseri umani.
00:14:35
Secondo Nick Bostrom, il filosofo che ha descritto
00:14:37
proprio questo esperimento mentale, scenari simili potrebbero verificarsi
00:14:41
qualora a lei A non venisse specificato il
00:14:43
valore della vita umana che deve essere prioritario.
00:14:46
Ma qui torniamo al problema del livello 1.
00:14:48
Chi è che sceglie a cosa dare priorità?
00:14:52
Beh, sempre noi umani.
00:14:54
Per ora.
00:14:54
Ne deriva che la pericolosità di un IA
00:14:56
sta sia nelle intenzioni di chi la progetta
00:14:59
sia nelle sue capacità.
00:15:01
E forse, di tutti i rischi dell'IA,
00:15:02
quello che dovrebbe più preoccuparci sono proprio le
00:15:05
intenzioni di chi le progetterà in futuro.
00:15:07
In chiusura ringrazio ancora una volta NordVPN, lo
00:15:10
sponsor che ha reso possibile la realizzazione di
00:15:12
questo video e vi ricordo che trovate il
00:15:14
link in descrizione.
00:15:15
Ciao a tutti.