Tutti i rischi dell’Intelligenza Artificiale, dal più stupido al più pericoloso

00:15:17
https://www.youtube.com/watch?v=TetZlaxWgCU

Summary

TLDRIl video esplora i rischi e le implicazioni delle intelligenze artificiali, evidenziando che non solo minacciano il lavoro umano, ma pongono anche dilemmi etici e rischi concreti. Viene presentato l'AI Act del Parlamento Europeo, che classifica le IA in base ai livelli di rischio, da minimo a inaccettabile. Si discute dei pericoli legati alla discriminazione, alla privacy e alla manipolazione, nonché del potenziale di dipendenza dalle IA. La conclusione riflette sulle intenzioni di chi sviluppa queste tecnologie e sui rischi futuri.

Takeaways

  • 🤖 L'AI Act regola l'uso delle IA in Europa.
  • ⚖️ Le IA sono classificate in base a livelli di rischio.
  • 🚨 I rischi includono discriminazione e violazione della privacy.
  • 💼 Le IA possono sostituire posti di lavoro.
  • 🧠 AGI è un'intelligenza artificiale generale.
  • ⚠️ Il problema dell'allineamento è cruciale per le AGI.
  • 🔒 Le IA possono violare la privacy degli utenti.
  • 📉 Una IA male allineata può causare danni imprevisti.
  • 🛡️ NordVPN offre protezione contro i rischi informatici.
  • 🧩 Le intenzioni di chi sviluppa IA sono fondamentali per il loro impatto.

Timeline

  • 00:00:00 - 00:05:00

    Il video discute l'uso delle intelligenze artificiali (IA) e i rischi associati, partendo dalla voce naturale del narratore e dalle preoccupazioni riguardo alla sostituzione del lavoro umano. Viene menzionato l'AI Act del Parlamento Europeo, che classifica i rischi delle IA in quattro livelli, dal minimo all'inaccettabile, evidenziando la necessità di regolamentazione e controllo umano per le IA che influenzano direttamente le persone.

  • 00:05:00 - 00:10:00

    Si approfondiscono i rischi legati all'IA, come la discriminazione nei processi di assunzione e le conseguenze etiche delle decisioni automatizzate. Viene presentato un esempio di un'agenzia che ha rifiutato richieste di affitto da persone nere, illustrando come i dati storici possano influenzare negativamente le decisioni delle IA. Si discute anche il potenziale di un'IA di causare danni in situazioni critiche, come nel caso di un'auto a guida autonoma.

  • 00:10:00 - 00:15:17

    Il video conclude con una riflessione sui pericoli delle intelligenze artificiali generali (AGI) e sulla difficoltà di allineare le loro azioni con i valori umani. Si evidenzia il rischio che le AGI possano sviluppare obiettivi non allineati con il bene umano, portando a scenari distopici. La discussione si chiude con un avvertimento sulle intenzioni di chi progetta le IA e l'importanza di una regolamentazione etica.

Mind Map

Video Q&A

  • Cos'è l'AI Act?

    È una legge del Parlamento Europeo che regola lo sviluppo e l'uso delle intelligenze artificiali, classificandole in base ai livelli di rischio.

  • Quali sono i livelli di rischio delle IA?

    I livelli di rischio vanno da minimo, limitato, elevato a inaccettabile, a seconda dell'impatto delle IA sugli esseri umani.

  • Quali sono i rischi associati alle IA?

    I rischi includono discriminazione, violazione della privacy, manipolazione e dipendenza dalle IA.

  • Come possono le IA influenzare il lavoro umano?

    Le IA possono sostituire posti di lavoro, portando a una possibile automazione di massa.

  • Cosa si intende per AGI?

    AGI sta per intelligenza artificiale generale, una IA che supera le capacità umane in ogni campo.

  • Qual è il problema dell'allineamento delle AGI?

    Il problema dell'allineamento riguarda la difficoltà di garantire che le AGI seguano obiettivi umani senza causare danni.

  • Quali sono le conseguenze di una IA male allineata?

    Una IA male allineata potrebbe perseguire obiettivi umani in modi pericolosi o imprevisti.

  • Come possono le IA violare la privacy?

    Le IA possono divulgare dati personali o replicare contenuti protetti da copyright.

  • Qual è il ruolo di NordVPN nel video?

    NordVPN è uno sponsor che offre strumenti per proteggere la privacy online e difendersi dai rischi informatici.

  • Quali sono le preoccupazioni etiche legate all'uso delle IA?

    Le preoccupazioni etiche includono la fiducia eccessiva nelle IA e la potenziale erosione delle capacità decisionali umane.

View more video summaries

Get instant access to free YouTube video summaries powered by AI!
Subtitles
it
Auto Scroll:
  • 00:00:00
    Eh no, questo video non è girato con
  • 00:00:01
    una voce artificiale, ma con la mia, che
  • 00:00:03
    è una voce naturale.
  • 00:00:04
    Però grazie a tutti quelli che nei commenti
  • 00:00:05
    ogni tanto scrivono che i miei video sono
  • 00:00:06
    fatti con un IA, perché credo sia un
  • 00:00:09
    complimento.
  • 00:00:11
    Spero.
  • 00:00:11
    Le intelligenze artificiali ci ruberanno il lavoro.
  • 00:00:14
    Quante volte lo abbiamo sentito dire.
  • 00:00:16
    Da un lato si tratta di una prospettiva
  • 00:00:18
    inquietante, ma dall'altro indicherebbe un grande progresso
  • 00:00:20
    tecnologico del genere umano, che potrebbe portarci in
  • 00:00:23
    futuro a faticare di meno e forse a
  • 00:00:25
    migliorare il nostro pianeta.
  • 00:00:26
    Quel che dobbiamo sapere, comunque, è che ci
  • 00:00:29
    ruberanno il lavoro è soltanto uno dei rischi
  • 00:00:31
    posti dalle intelligenze artificiali.
  • 00:00:34
    Questi rischi spaziano dagli scenari alla Io Robot,
  • 00:00:37
    in stile macchine che si rivoltano contro l
  • 00:00:39
    'uomo, a quelli alla Zio Turiddu che si
  • 00:00:41
    lamenta perché suo nipote scrive il tema d
  • 00:00:43
    'italiano con l'aiuto di chat GPT.
  • 00:00:46
    Anche se, in questi casi, Zio Turiddu potrebbe
  • 00:00:48
    non essere totalmente fuoristrada.
  • 00:00:50
    Ma ci arriviamo.
  • 00:00:51
    Oggi parliamo di rischi seri, concreti e dilemmi
  • 00:00:54
    etici da non sottovalutare.
  • 00:00:56
    E, fidatevi, questo video potrebbe cambiare totalmente le
  • 00:00:59
    vostre percezioni sull'intelligenza artificiale.
  • 00:01:02
    O forse no.
  • 00:01:03
    Ma comunque, vale la pena parlarne.
  • 00:01:14
    Il 13 giugno 2024 il Parlamento Europeo ha
  • 00:01:17
    varato il cosiddetto AI Act.
  • 00:01:19
    144 pagine di testo mirate a regolamentare lo
  • 00:01:21
    sviluppo e l'utilizzo delle intelligenze artificiali a
  • 00:01:24
    livello comunitario.
  • 00:01:25
    Questa legge è il primo quadro giuridico mai
  • 00:01:27
    realizzato sull'IA a livello mondiale, nonché la
  • 00:01:30
    prima a prendere in considerazione che l'IA
  • 00:01:32
    in quanto tale possa rappresentare anche un pericolo.
  • 00:01:35
    In tal senso, l'AI Act riconosce quattro
  • 00:01:37
    livelli di rischio delle intelligenze artificiali, dal più
  • 00:01:40
    trascurabile al più preoccupante.
  • 00:01:42
    Il rischio minimo riguarda le IA più usate,
  • 00:01:45
    quindi assistenti vocali, filtri antispam o algoritmi dei
  • 00:01:48
    vari social network.
  • 00:01:49
    Il rischio limitato, altresì detto di trasparenza, interessa
  • 00:01:53
    le IA che possono fingere o tramite le
  • 00:01:55
    quali si può fingere di essere umani, quindi
  • 00:01:58
    i chatbot e le intelligenze artificiali generative, che
  • 00:02:01
    possono favorire truffe e potenzialmente rimpiazzare artisti e
  • 00:02:04
    professionisti.
  • 00:02:05
    Il rischio elevato, invece, ha a che fare
  • 00:02:08
    con IA con contesti e settori ben specifici,
  • 00:02:11
    trasporti, ospedali, scuole, assistenza giudiziaria, risorse umane, servizi
  • 00:02:15
    pubblici e bancari, gestione delle richieste d'asilo.
  • 00:02:18
    Per l'UE, in questi casi, le IA
  • 00:02:20
    vanno a prendere decisioni dirette su degli esseri
  • 00:02:22
    umani e perciò necessitano di un controllo umano.
  • 00:02:25
    Per finire, il rischio inaccettabile considera le IA
  • 00:02:28
    che minacciano e manipolano gli umani, come sistemi
  • 00:02:31
    per valutare il punteggio sociale, identificazione biometrica in
  • 00:02:34
    tempo reale e qualsiasi strumento abbia un impatto
  • 00:02:37
    cognitivo sulle categorie vulnerabili, come i bambini.
  • 00:02:40
    Tipo un pupazzo che incoraggia il nipote di
  • 00:02:42
    zio Turiddu a muovere un esercito alla conquista
  • 00:02:44
    della sua scuola elementare.
  • 00:02:46
    Insomma, la piramide del rischio delle IA IACT
  • 00:02:48
    non prende in considerazione il fatto che le
  • 00:02:50
    macchine possano ribellarsi, quanto piuttosto che facciano esattamente
  • 00:02:54
    quello che chiediamo loro.
  • 00:02:55
    Ed è proprio qui che ci si apre
  • 00:02:57
    un mondo di possibilità inquietanti.
  • 00:03:04
    In parole povere, un'intelligenza artificiale è una
  • 00:03:06
    tecnologia che permette a una macchina di svolgere
  • 00:03:08
    compiti e simulare i comportamenti degli esseri umani.
  • 00:03:11
    Per far funzionare un'IA bisogna innanzitutto individuare
  • 00:03:13
    un problema, determinare il risultato che si vuole
  • 00:03:16
    ottenere e scegliere un set di dati da
  • 00:03:18
    cui l'IA stessa deve attingere.
  • 00:03:20
    Il nostro, ormai, è un mondo fatto di
  • 00:03:23
    dati e più dati un'intelligenza artificiale ha
  • 00:03:26
    da analizzare, più è in grado di prendere
  • 00:03:28
    decisioni per noi sensate.
  • 00:03:30
    Ma proprio perché questi dati vengono prodotti da
  • 00:03:32
    noi umani, c'è il rischio che le
  • 00:03:33
    intelligenze artificiali, in un certo senso, pensino come
  • 00:03:36
    pensiamo noi.
  • 00:03:37
    Sulla base di questo assunto, l'MIT di
  • 00:03:39
    Boston ha elaborato un database che caratterizza circa
  • 00:03:41
    700 rischi dell'IA in sette livelli.
  • 00:03:44
    Se sovrapponiamo questi livelli alla piramide del rischio
  • 00:03:47
    delle IA IACT, otteniamo dei gradi di pericolosità
  • 00:03:49
    crescente che vanno da 1, il meno pericoloso,
  • 00:03:52
    a 7, che rappresenta il pericolo massimo.
  • 00:03:55
    In questa scala, la pericolosità è data dalla
  • 00:03:57
    controllabilità del rischio, cioè dalla capacità umana di
  • 00:04:00
    porre un qualche freno alle IA.
  • 00:04:02
    Prima di cominciare, forse, non vi farà piacere
  • 00:04:04
    sapere che al momento ci troviamo da qualche
  • 00:04:06
    parte tra il quarto e il quinto livello.
  • 00:04:09
    Ma vediamo cos'è che significa tutto questo.
  • 00:04:16
    In quanto basata su dei dati umani, un
  • 00:04:18
    'intelligenza artificiale può produrre una spiacevole conseguenza di
  • 00:04:21
    scriminare le persone, arrivando a escluderle da alcuni
  • 00:04:24
    meccanismi della società.
  • 00:04:26
    Per esempio, se la Evil Lectio Corp volesse
  • 00:04:28
    assumere 10 dipendenti e delegasse questo compito a
  • 00:04:30
    un sistema di risorse umane automatizzato, è possibile
  • 00:04:33
    che questo prediliga a priori candidati bianchi, sui
  • 00:04:36
    35 anni, sbarbati, nonostante il sistema stesso non
  • 00:04:39
    sia stato impostato per fare preferenze simili.
  • 00:04:42
    Il problema è che l'IA della Evil
  • 00:04:43
    Lectio, in base ai dati che gli sono
  • 00:04:45
    stati dati in passato, potrebbe essere portato a
  • 00:04:47
    dare più peso all'aspetto di un candidato
  • 00:04:50
    che alle sue qualifiche.
  • 00:04:51
    Proprio come potrebbe fare un umano.
  • 00:04:54
    Ragionando per assurdo, un'IA potrebbe negare un
  • 00:04:57
    mutuo o far arrestare una persona.
  • 00:04:59
    In realtà, già nel 2021 in Massachusetts, l
  • 00:05:02
    'IA della Safe Rent Solutions, una sorta di
  • 00:05:04
    agenzia che permette di recensire affittuari e inquilini,
  • 00:05:08
    aveva rigettato le richieste di affitto solamente di
  • 00:05:10
    persone nere.
  • 00:05:11
    Ma portiamo questo concetto all'estremo.
  • 00:05:13
    Se un'automobile a guida autonoma si trovasse
  • 00:05:15
    su un rettilineo e all'improvviso si lanciasse
  • 00:05:17
    una vecchietta sull'attraversamento, cos'è che farebbe?
  • 00:05:20
    Sterzerebbe per evitare la vecchietta, rischiando di uccidere
  • 00:05:23
    qualcun altro sul marciapiede, o valuterebbe che alla
  • 00:05:26
    vecchietta non manca molto da vivere e che
  • 00:05:28
    quindi è preferibile uccidere lei piuttosto che qualcun
  • 00:05:30
    altro nelle vicinanze.
  • 00:05:32
    Inoltre, è inevitabile che certi sistemi di intelligenza
  • 00:05:34
    artificiale siano più costosi di altri e che
  • 00:05:36
    quindi non tutti possano permetterseli.
  • 00:05:39
    Immaginiamo un sistema di domotica fantascientifico che è
  • 00:05:42
    in grado di capire cosa ci manca nel
  • 00:05:43
    frigo e nella dispensa.
  • 00:05:45
    È capace di acquistare di conseguenza quel che
  • 00:05:47
    ci serve online e di farcelo arrivare a
  • 00:05:49
    casa, risparmiando un sacco di tempo.
  • 00:05:51
    Per lo meno inizialmente, questo sistema sarà costosissimo.
  • 00:05:54
    Chi potrà permetterselo renderà meno stressante la sua
  • 00:05:57
    giornata, ma chi non avrà i soldi per
  • 00:05:59
    comprarlo non beneficerebbe di una cosa che sa
  • 00:06:01
    che esiste e che gli migliorerebbe la vita.
  • 00:06:03
    Provate a riportare questi assunti in ogni ambito
  • 00:06:05
    della società, dal sistema sanitario a quello educativo.
  • 00:06:08
    Non è il massimo, vero?
  • 00:06:14
    Che le si progetti o meno, con scopi
  • 00:06:15
    malevoli, l'utilizzo delle intelligenze artificiali può effettivamente
  • 00:06:18
    portare alla violazione di privacy e diritti.
  • 00:06:21
    Tanto per cominciare, non è da escludere che
  • 00:06:23
    un'IA possa inavvertitamente divulgare dati o informazioni
  • 00:06:26
    personali, magari gli stessi che la Evil Lectio Corp
  • 00:06:29
    ha estrapolato dai suoi dipendenti per «allenare» le
  • 00:06:32
    sue risorse umane e artificiali, oppure, ancora peggio,
  • 00:06:35
    quelli di un'amministrazione pubblica.
  • 00:06:37
    Contestualmente, si può dare in pasto a un
  • 00:06:38
    'IA generativa o un testo protetto da proprietà
  • 00:06:40
    intellettuale e questa potrebbe replicarlo e distribuirlo aggirando
  • 00:06:44
    il copyright, oppure persino una voce.
  • 00:06:47
    Nel maggio del 2024, l'attrice Scarlett Johansson
  • 00:06:49
    ha accusato ChatGPT di aver creato un assistente
  • 00:06:52
    vocale, Sky, dotandolo della sua voce.
  • 00:06:55
    Secondo OpenAI, la società madre di ChatGPT si
  • 00:06:58
    trattava soltanto di una forte somiglianza, ma l
  • 00:07:01
    'azienda ha poi rimosso l'assistente vocale.
  • 00:07:03
    Ancora, un hacker potrebbe istruire un'intelligenza artificiale
  • 00:07:06
    a compiere un attacco informatico di uno o
  • 00:07:09
    più individui, di un'azienda o di uno
  • 00:07:12
    Stato.
  • 00:07:12
    Allo stesso modo, un'intelligenza artificiale, se presenta
  • 00:07:15
    delle falle, può venire a sua volta attaccata
  • 00:07:17
    da qualche hacker e da lì manipolata per
  • 00:07:20
    agire in maniera malevola, ad esempio rubando dati.
  • 00:07:23
    Questi rischi nel mondo contemporaneo sono sempre più
  • 00:07:25
    frequenti e per difendersi è bene dotarsi degli
  • 00:07:28
    strumenti giusti, come NordVPN, lo sponsor che ringrazio,
  • 00:07:31
    come sempre, per permettere la realizzazione di questi
  • 00:07:33
    video a tema informatica e tech.
  • 00:07:35
    Le truffe, ad esempio, possono presentarsi sotto forma
  • 00:07:37
    di siti web fasulli o file che, in
  • 00:07:40
    realtà, una volta aperti o scaricati, contengono malware
  • 00:07:42
    capaci di infettare i vostri dispositivi.
  • 00:07:45
    Grazie a Threat Protection, NordVPN vi mette in
  • 00:07:47
    guardia in anticipo, mentre protegge la vostra connessione
  • 00:07:50
    quando siete connessi a rete Wi-Fi pubbliche
  • 00:07:52
    di piazze, aeroporti o hotel, fino a un
  • 00:07:54
    massimo di 10 dispositivi contemporaneamente.
  • 00:07:56
    Se poi la vostra mail associata all'account
  • 00:07:58
    NordVPN dovesse malauguratamente finire nel Dark Web, NordVPN
  • 00:08:03
    ve lo notificherebbe all'istante, permettendovi di prendere
  • 00:08:05
    tutte le contromisure necessarie.
  • 00:08:07
    E se siete all'estero e volete utilizzare
  • 00:08:09
    una qualsiasi IA bloccata nel paese in cui
  • 00:08:11
    vi trovate, potrete sempre ricorrere alla geolocalizzazione, mascherando
  • 00:08:15
    il vostro indirizzo IP, infatti, potrete connettervi a
  • 00:08:18
    uno dei più di 7100 server di NordVPN
  • 00:08:21
    sparsi in 118 location diverso.
  • 00:08:24
    La geolocalizzazione vi aiuta sia a usufruire di
  • 00:08:26
    contenuti che magari non sono disponibili in Italia
  • 00:08:29
    o all'estero e anche ad evitare le
  • 00:08:31
    discriminazioni di prezzi, quel fenomeno per cui i
  • 00:08:33
    beni e i servizi costano di più in
  • 00:08:35
    base al livello di ricchezza dello stato in
  • 00:08:36
    cui li si acquista.
  • 00:08:37
    Il tutto nel totale rispetto della vostra privacy,
  • 00:08:40
    perché NordVPN non conserva i vostri dati, né
  • 00:08:43
    avrebbe la possibilità di farlo.
  • 00:08:45
    Per sfruttare tutte le potenzialità di NordVPN e
  • 00:08:47
    iniziare a dare finalmente valore alla vostra privacy,
  • 00:08:50
    vi basta cliccare sul link in descrizione per
  • 00:08:52
    ottenere uno sconto esclusivo targato Nova Lectio.
  • 00:08:55
    Ora, passiamo al livello successivo.
  • 00:09:02
    Qui c'è poco da dire.
  • 00:09:04
    Abbiamo già parlato ampiamente della disinformazione online e
  • 00:09:06
    dei metodi con cui è possibile crearla e
  • 00:09:08
    diffonderla, e farla anche franca.
  • 00:09:11
    Quando un'IA arriva a produrre in maniera
  • 00:09:12
    efficiente migliaia di account falsi, per manipolare l
  • 00:09:15
    'opinione pubblica e diffondere fake news e deepfake,
  • 00:09:17
    diventa tutto più comodo.
  • 00:09:19
    Lo stesso microtargeting, cioè quella strategia di marketing
  • 00:09:22
    che personalizza gli annunci in base a dati
  • 00:09:25
    e comportamenti individuali, rappresenta un rischio, così come
  • 00:09:28
    lo sono la sorveglianza di massa e le
  • 00:09:30
    tattiche di cyber-guerra, che includono l'utilizzo
  • 00:09:33
    di malware intelligenti capaci di distruggere interi sistemi
  • 00:09:36
    informatici, ma anche l'impiego di sistemi LAW,
  • 00:09:39
    che sta per Lethal Autonomous Weapons, cioè
  • 00:09:41
    armi come alcuni droni che individuano da sole
  • 00:09:44
    i loro bersagli.
  • 00:09:45
    Questa realtà, purtroppo, la stiamo già vivendo, e
  • 00:09:48
    il prossimo livello potrebbe già rappresentare un punto
  • 00:09:50
    di non ritorno.
  • 00:09:55
    È arrivato il momento di gloria di Turiddu.
  • 00:09:57
    Suo nipote, facendosi scrivere il tema d'italiano
  • 00:09:59
    da chat GPT, sta, uno, affidandosi a una
  • 00:10:02
    macchina e, due, sacrificando la sua autonomia.
  • 00:10:05
    Lo so, pensate di stare ascoltando il classico
  • 00:10:07
    discorso da boomer, eppure non c'è libro
  • 00:10:09
    o articolo sulle intelligenze artificiali che non citi
  • 00:10:12
    il rischio, per l'uomo, di vedere erose
  • 00:10:14
    le sue capacità decisionali e il suo spirito
  • 00:10:16
    critico nei campi più disparati.
  • 00:10:18
    A tal proposito, l'MIT indica due sottorischi diversi.
  • 00:10:21
    Il primo è riconoscere all'IA delle caratteristiche
  • 00:10:23
    umane, arrivando a fidarsi di lei come fosse
  • 00:10:26
    un'amica, diciamo, e in casi estremi a
  • 00:10:28
    prendere decisioni da lei suggerite.
  • 00:10:30
    Nell'ottobre del 2024, ad esempio, una madre
  • 00:10:32
    ha fatto causa a Character AI, chatbot che,
  • 00:10:35
    secondo lei, avrebbe spinto suo figlio di 14
  • 00:10:37
    anni a isolarsi e poi a suicidarsi.
  • 00:10:40
    Il secondo sottorischio riguarda la dipendenza che si
  • 00:10:42
    potrebbe sviluppare nei confronti di una o più
  • 00:10:45
    intelligenze artificiali, sia a scuola ma anche a
  • 00:10:48
    casa e al lavoro, per delegare compiti noiosi
  • 00:10:50
    o creativi.
  • 00:10:51
    Ed è da questo livello di rischio che
  • 00:10:53
    possiamo cominciare a parlare di «ci ruberanno il
  • 00:10:55
    lavoro».
  • 00:10:56
    Del resto, un'IA è più efficiente di
  • 00:10:58
    un umano in quasi tutti i casi, lavora
  • 00:11:00
    24 ore su 24, senza stancarsi, non ha
  • 00:11:03
    bisogno di cibo, tant'è che alcuni stimano
  • 00:11:04
    che, entro il 2030, le IA rimpiazzeranno tra
  • 00:11:07
    le decine e le centinaia di milioni di
  • 00:11:09
    posti di lavoro a livello mondiale, e dentro
  • 00:11:12
    il 2040 il 30% di tutti i
  • 00:11:14
    lavori sarà automatizzato.
  • 00:11:16
    In una visione utopistica, una completa automazione del
  • 00:11:19
    lavoro vorrà dire reddito universale per tutti, ma,
  • 00:11:22
    in una visione distopica, potrebbe significare che le
  • 00:11:25
    macchine prenderanno il sopravvento.
  • 00:11:31
    L'eccessiva fiducia nei confronti di un'intelligenza
  • 00:11:34
    artificiale può portare a considerare indiscutibile il suo
  • 00:11:36
    giudizio, e se questo è pericoloso per dei
  • 00:11:39
    singoli individui, lo è ancora di più quando
  • 00:11:41
    l'IA viene utilizzata dal governo di uno
  • 00:11:43
    Stato.
  • 00:11:43
    L'uso delle intelligenze artificiali potrebbe favorire censura
  • 00:11:46
    e sorveglianza, negare servizi pubblici a determinati individui
  • 00:11:50
    e, in sostanza, fare gli interessi di un
  • 00:11:53
    gruppo ristretto.
  • 00:11:53
    Già nel 2018 si era cominciato a parlare
  • 00:11:56
    di "dittatura dell'IA", concetto introdotto da niente
  • 00:11:59
    di meno che Elon Musk.
  • 00:12:02
    Tutt'oggi, Musk è contrario alla decisione di
  • 00:12:04
    Sam Altman, CEO di OpenAI, di trasformare la
  • 00:12:07
    società, nata come organizzazione di ricerca no profit,
  • 00:12:10
    in un'azienda vera e propria nell'immediato
  • 00:12:12
    futuro.
  • 00:12:13
    La preoccupazione di Musk sta nel fatto che
  • 00:12:15
    l'obiettivo primario di OpenAI è la creazione
  • 00:12:17
    di un AGI, un'intelligenza artificiale generale.
  • 00:12:21
    Sia nel mondo della fantascienza che in quello
  • 00:12:23
    reale, un AGI sarebbe una macchina capace di
  • 00:12:25
    superare le capacità umane in ogni campo e,
  • 00:12:29
    secondo esperti del settore ed ex-dipendenti della
  • 00:12:31
    stessa OpenAI, non è da escludere che potremmo
  • 00:12:33
    vederne emergere una già nel 2028.
  • 00:12:36
    E sembra una cosa secondaria, ma non lo
  • 00:12:38
    è. Per funzionare, le intelligenze artificiali non mangiano, è
  • 00:12:41
    vero, ma necessitano di server e di energia.
  • 00:12:44
    Più le IA diventeranno potenti, più ci sarà
  • 00:12:47
    bisogno di materiali come nickel, cobalto e litio
  • 00:12:50
    per realizzare le CPU e maggiore sarà il
  • 00:12:52
    calore prodotto dai datacenter, che richiederanno dunque sistemi
  • 00:12:55
    di raffreddamento sempre più energivori.
  • 00:12:57
    Il rischio è che le AGI vengano sviluppate
  • 00:12:59
    soltanto da paesi geopoliticamente rilevanti come Stati Uniti
  • 00:13:03
    e Cina, i pochi che avrebbero fondi e
  • 00:13:05
    risorse necessarie, creando un divario ancora più grande
  • 00:13:08
    con il resto della comunità internazionale, ma potenzialmente
  • 00:13:11
    anche delegando le proprie decisioni in materia bellica
  • 00:13:13
    alle stesse AGI.
  • 00:13:19
    Nel 2020, il programmatore americano Brian Christian pubblicava
  • 00:13:22
    un libro destinato a far discutere.
  • 00:13:24
    The Alignment Problem.
  • 00:13:26
    Il problema dell'allineamento è il seguente.
  • 00:13:28
    Non sappiamo se una volta nate le AGI
  • 00:13:29
    rispetteranno le famose tre leggi della robotica di
  • 00:13:32
    Asimov per cui, in teoria, non possono arrecare
  • 00:13:35
    danno all'uomo.
  • 00:13:35
    In altre parole, non sappiamo se sia possibile
  • 00:13:37
    allineare un AGI ai nostri obiettivi.
  • 00:13:40
    Qualora non ci riuscissimo, ci troveremmo di fronte
  • 00:13:42
    a due scenari.
  • 00:13:43
    Il primo più fantascientifico, delle AGI totalmente non
  • 00:13:46
    allineate, capaci di perseguire i propri imprevedibili scopi,
  • 00:13:50
    sviluppare capacità come farsi la guerra, pianificare strategie
  • 00:13:53
    e riprodursi, e diventare senzienti al punto da
  • 00:13:56
    chiedere dei diritti.
  • 00:13:58
    Il secondo scenario più probabile è anche quello
  • 00:14:00
    più inquietante, cioè quello di un AGI male
  • 00:14:02
    allineata, che persegue sì i nostri scopi ed
  • 00:14:05
    è programmata in tal modo, ma lo fa
  • 00:14:07
    in maniera poco ortodossa o iperutilitaristica.
  • 00:14:10
    Immaginiamo di chiedere a un AGI un'unica
  • 00:14:12
    cosa, produrre quante più graffette per fogli possibili.
  • 00:14:15
    È assurdo queste AGI potrebbe decidere di estinguere
  • 00:14:18
    il genere umano perché questo potrebbe, eventualmente, scegliere
  • 00:14:21
    di spegnerla, impedendole così di produrre le graffette
  • 00:14:24
    o perché i corpi umani contengono atomi potenzialmente
  • 00:14:27
    convertibili in graffette.
  • 00:14:28
    In sostanza, le AGI delle graffette lavorerebbe per
  • 00:14:31
    un futuro con miliardi di graffette e zero
  • 00:14:34
    esseri umani.
  • 00:14:35
    Secondo Nick Bostrom, il filosofo che ha descritto
  • 00:14:37
    proprio questo esperimento mentale, scenari simili potrebbero verificarsi
  • 00:14:41
    qualora a lei A non venisse specificato il
  • 00:14:43
    valore della vita umana che deve essere prioritario.
  • 00:14:46
    Ma qui torniamo al problema del livello 1.
  • 00:14:48
    Chi è che sceglie a cosa dare priorità?
  • 00:14:52
    Beh, sempre noi umani.
  • 00:14:54
    Per ora.
  • 00:14:54
    Ne deriva che la pericolosità di un IA
  • 00:14:56
    sta sia nelle intenzioni di chi la progetta
  • 00:14:59
    sia nelle sue capacità.
  • 00:15:01
    E forse, di tutti i rischi dell'IA,
  • 00:15:02
    quello che dovrebbe più preoccuparci sono proprio le
  • 00:15:05
    intenzioni di chi le progetterà in futuro.
  • 00:15:07
    In chiusura ringrazio ancora una volta NordVPN, lo
  • 00:15:10
    sponsor che ha reso possibile la realizzazione di
  • 00:15:12
    questo video e vi ricordo che trovate il
  • 00:15:14
    link in descrizione.
  • 00:15:15
    Ciao a tutti.
Tags
  • intelligenza artificiale
  • AI Act
  • rischi IA
  • discriminazione
  • privacy
  • manipolazione
  • lavoro
  • AGI
  • etica
  • NordVPN