00:00:00
però non abbiamo un nome No no ma no il
00:00:02
nome emergerà Il nome emergerà noi non
00:00:04
possiamo non possiamo immaginarlo prima
00:00:06
il nome dirigibile Secondo me è
00:00:09
incredibile Perché dirigiamo perché
00:00:12
dirigete da qualche parte e vabbè siamo
00:00:15
nel cielo siamo un po' della vecchia
00:00:17
guardia quindi non è che siamo Boeing
00:00:19
siamo
00:00:20
dirigibile demoni Zombie state allerta
00:00:25
anche oggi sta arrivando il tram sui
00:00:27
denti sei su
00:00:30
[Musica]
00:00:38
Cog caro mio bellissimo
00:00:43
amichevoli
00:00:46
dirigibilità
00:00:50
qualche nome c'è già solo che non
00:00:53
andremo a ritirarli fuori di nuovo come
00:00:55
stai
00:00:56
caro sto bene Oggi è stato il primo
00:01:00
giorno di inizio del corso che tengo in
00:01:03
università quindi ho già disquisito e
00:01:08
detto cose il che mi rende già caldo già
00:01:12
caldo per disquisire ulteriormente con
00:01:15
te Ti ringrazio per questa idea e questo
00:01:19
invito la scorsa conversazione che
00:01:21
abbiamo avuto è
00:01:22
stata
00:01:24
arricchente sicuramente perché mi hanno
00:01:27
fatto un po' di sub durante e quindi
00:01:29
quindi sono contento di poter essere
00:01:32
ulteriormente sta cadendo sta cadendo la
00:01:35
regia sta cadendo la
00:01:37
regia sta succedendo qualcosa di
00:01:39
inaccettabile quindi ma mi piace mi
00:01:42
piace e e quindi insomma Lieto di essere
00:01:45
qui e grazie per permettermi di essere
00:01:47
qui No sono molto contento perché
00:01:48
effettivamente la nostra chiacchierata
00:01:50
però poi anche quella che abbiamo fatta
00:01:52
dal buon Nanni Insomma che mi è piaciuta
00:01:55
tanto anche quella mi ha fatto dire ma a
00:01:57
me a me a me chiacchierare con questo
00:01:58
individuo piace Ok Visto che io sono una
00:02:01
persona patologicamente curiosa e e e
00:02:04
prona al dialogo interessante ho detto
00:02:06
dai proviamo a vedere visto che questa
00:02:07
questa stagione di Daily Cogito ho
00:02:09
voluto dare una rimescolata alle carte
00:02:11
mi sono detto proviamo a proviamo a
00:02:13
mettere insieme Un po' di persone con
00:02:16
cui ho interesse a dialogare per fare
00:02:17
queste rubriche periodiche adesso io non
00:02:20
so ancora quale sarà la cadenza della
00:02:22
nostra potrebbe essere una volte al mese
00:02:24
due volte al mese poi insomma vedremo
00:02:26
magari quando vengono fuori cose
00:02:27
interessanti cazzi nostri cazzi nostri
00:02:30
non è che dal pubblico deve sapere tutto
00:02:32
però ecco l'idea è anche anche posso
00:02:33
dire che anche cazzi nostri anche cazzi
00:02:36
nostri però però un po' secondo me è un
00:02:37
po' inflazionata ci sono già tantissime
00:02:39
rubriche che si chiamano così Quindi no
00:02:40
bisogna trovare qualcosa di di di più
00:02:42
sagace e quindi quindi continuamo a
00:02:45
cercare continuamo a pensare e cercare
00:02:46
il nome ci verrà suggerito dai numi
00:02:49
dagli dei ehm no Comunque l'idea è
00:02:51
quella di chiacchierare con te Eh
00:02:53
appunto periodicamente di cose legate
00:02:55
comunque a tecnologia Intesa in senso
00:02:58
più ampio io poi devi sapere Io sono un
00:03:00
Geek Cioè nel senso io Io adoro la
00:03:02
tecnologia Ne abbiamo già parlato un po'
00:03:03
Insomma quindi sono tutte cose che però
00:03:05
però sono anche cose che toccano il lato
00:03:07
filosofico per esempio L'argomento di
00:03:09
cui volevo discutere oggi con te che mi
00:03:11
sembra un ottimo argomento per
00:03:13
ehm sancire l'inizio di questa
00:03:15
collaborazione è intelligenza
00:03:17
artificiale in particolare una cosa che
00:03:20
ho letto ultimamente nell'ultimo libro
00:03:23
di juval no arari che è Nexus Ora non so
00:03:26
se tu hai letto e sicuramente arari
00:03:27
l'hai sentito nominare però non so se
00:03:28
hai letto suoi libri letto homodeus e ho
00:03:32
letto quello il classicone che non mi
00:03:35
ricordo mai Sapiens Esatto esatto no Lu
00:03:38
è un autore che io io a me interessa
00:03:40
molto mi fa incazzare tantissimo perché
00:03:42
quando si lancia nella futurologia
00:03:44
Secondo me perde un po' insomma anche la
00:03:46
la la la la credibilità di tante cose
00:03:48
che dice però è uno che sicuramente va
00:03:50
letto e nell'ultimo libro a un certo
00:03:51
punto lui dice Dobbiamo ricordarci che
00:03:53
in realtà l'intelligenza artificiale è
00:03:55
una tecnologia completamente diversa da
00:03:56
tutte le altre perché non è uno
00:03:58
strumento ma è un agente e su questo
00:04:01
concetto di ia agente ci costruisce una
00:04:04
buona parte di questa
00:04:06
elucubrazione fondamentalmente mettendo
00:04:08
sotto testo l'idea che l'intelligenza
00:04:11
artificiale potrà annichilire la società
00:04:14
per come la conosciamo Facendoci
00:04:16
raggiungere i livelli totalitari che non
00:04:18
abbiamo mai
00:04:19
visto togliendoci completamente la
00:04:21
capacità appunto di agire perché si
00:04:24
sostituirà come agente n mondo e e via
00:04:27
dicendo E visto che ia AG gente è una
00:04:31
cosa che si discute anche negli ambiti
00:04:34
più tecnici più più più più dentro la
00:04:36
cosa mi chiedevo come la pensi tu cioè
00:04:39
l'intelligenza artificiale ci ci ci ci
00:04:41
renderà tutti schiavi di di Amazon
00:04:43
fondamentalmente
00:04:45
Ma allora è un argomento come ti
00:04:48
anticipavo che ha una bella dose
00:04:51
speculativa D'altro canto
00:04:54
arari ci bazzica un po' sulle spaz
00:04:59
solo dai due libri che ho letto in uno
00:05:02
sembra un po' più legato a a fatti m nel
00:05:06
secondo già Si però secondo me sono
00:05:09
letture interessanti perché lui parte da
00:05:11
ciò che c'è e immagina cosa sarà e
00:05:14
alcune cose delle cose che immagin sono
00:05:17
secondo me ragionevoli Io credo che
00:05:20
innanzitutto
00:05:22
bisogna cercare di chiarire questa
00:05:24
nozione di agente Eh io non so realtà
00:05:30
esattamente cioè le nozioni di agenti
00:05:32
che c'ho io sono delle cose molto
00:05:34
formali quindi non so poi bene come si
00:05:35
traducano nel mondo reale però immagino
00:05:38
che quello a cui si riferisce lui è
00:05:40
probabilmente anche la cosa di cui è
00:05:42
interessante parlare si ha un po' questo
00:05:44
aspetto di
00:05:46
qualcosa i poteri forti mi
00:05:50
censurano qualcosa che sta nel mondo e
00:05:54
agisce nel mondo quindi non è più uno
00:05:57
strumento ma ha una dose di indip Cioè è
00:06:00
in grado di decidere prendere delle
00:06:02
decisioni fare delle cose spostare delle
00:06:05
cose io da una
00:06:10
parte la visione che ho su questo è che
00:06:14
sia già così ma non completamente Cioè
00:06:18
non è scelto che l'intelligenza
00:06:20
artificiale sia agente ma è conseguenza
00:06:24
dell'ignoranza
00:06:26
Cioè tu non sai che sistema che c'è lì
00:06:30
dietro è fatto così ed è progettato in
00:06:32
un certo modo E ha certi obiettivi
00:06:34
quindi c'è qualcuno che l'ha diretto
00:06:37
M ma quel quel qualcuno non sei tu
00:06:40
quindi per te è un agente
00:06:42
praticamente l'esempio che mi viene in
00:06:44
mente più classico e che ha davvero
00:06:46
impattato la nostra esistenza sono tutti
00:06:49
gli algoritmi di raccomandazione quindi
00:06:51
la dalla for you page di tiktok al video
00:06:54
suggerito su YouTube
00:06:56
ehm ci sono
00:07:00
ci sono quindi dei sistemi che già
00:07:03
impattano sulla nostra vita e prendono
00:07:07
decisioni ma non sono liberi non sono
00:07:10
liberati nel mondo bensì sono governati
00:07:15
da chi ha li ha programmati in quel modo
00:07:17
e ha certe funzioni obiettivo e non so
00:07:22
se faccia tanto più paura unai
00:07:26
ipotetica
00:07:28
libera quanto una che dei capitalisti
00:07:32
hanno deciso che deve fare certe cose
00:07:35
CTO Inoltre ho un po' il sospetto su sul
00:07:39
Cioè chi è che metterebbe mai tu tu
00:07:42
quando hai qualcosa da decidere stai
00:07:45
lasciando stai delegando del potere a
00:07:48
questi oggetti no m e secondo me nessun
00:07:52
imprenditore lascerebbe il 100% delle
00:07:55
proprie decisioni a un'intelligenza
00:07:57
artificiale soprattutto se imprenditore
00:08:00
di mestiere fa intelligenze artificiali
00:08:02
quindi
00:08:03
ehm è una paura secondo me un
00:08:06
po' esagerata esagerata mentre invece
00:08:10
l'altra è molto molto molto reale Cioè
00:08:13
il fatto che processi e decisioni che
00:08:16
impattano la nostra esistenza anche a
00:08:18
livello statale o Eh non so decidere chi
00:08:22
viene assunto Chi è colpevole di
00:08:25
qualcosa in un processo giudiziario
00:08:28
eccetera eccetera eccetera
00:08:30
questo è qualcosa che sta già succedendo
00:08:33
e saper distinguere come e quando
00:08:36
succede È molto prezioso ma su quello ci
00:08:39
torniamo in un secondo momento Volevo
00:08:40
volevo fermarmi su questa su questa
00:08:42
prima cosa perché Allora premetto che
00:08:45
anch'io sono abbastanza d'accordo con te
00:08:47
Cioè questi profeti di Sventura rari e
00:08:51
tanti altri eh David chalmers sono tanti
00:08:54
quelli che si che si accumula elon musk
00:08:56
e via dicendo che dicono Ah lì ha Va
00:08:58
fermata perché se se no Apocalisse Io
00:09:00
credo che sia eh comunque fuorviante
00:09:02
rispetto alla comprensione di questi di
00:09:04
questo mezzo che in realtà c'è un però
00:09:07
eh io quando sento la parola agente lo
00:09:11
intendo in un modo diverso rispetto a
00:09:13
quello che dici tu cioè lo intendo con
00:09:14
una sfumatura diversa ti spiego Eh
00:09:16
perché li ha è agente e
00:09:20
Eh non so il martello pneumatico No
00:09:24
perché dico prima con un gergo che poi
00:09:27
cercherò di spiegare per che il processo
00:09:32
che porta dall'input umano all'output
00:09:36
della macchina nel martello pneumatico è
00:09:40
perfettamente ricostruibile nella
00:09:42
intelligenza artificiale No cioè il
00:09:45
processo di rielaborazione delle
00:09:47
informazioni di chat GPT di di Gemini e
00:09:49
via dicendo raggiunge un tale livello di
00:09:52
complessità che neanche coloro che hanno
00:09:54
scritto il codice riescono completamente
00:09:57
a ricostruire i motivi per cui aggiunge
00:09:59
quell' output particolare e più diventa
00:10:03
complesso più si allontana la
00:10:05
possibilità di farlo quando si parla di
00:10:07
agente si
00:10:08
parla non non soltanto del fatto che c'è
00:10:11
una macchina che può prendere decisioni
00:10:13
autonome ma del perché sono decisioni
00:10:16
autenticamente autonome che è un po' se
00:10:18
vuoi il discorso che soggiace alla
00:10:21
Futura Agi la artificial General
00:10:23
intelligence cioè un'intelligenza
00:10:25
artificiale veramente autonoma
00:10:26
indipendente ovvero il cui processo
00:10:28
decisionale è distaccato anche dalla
00:10:31
stessa programmazione che gli è stata
00:10:33
data attualmente noi Almeno questo
00:10:37
magari mi correggi però bene o male è
00:10:38
una cosa che ho letto svariate volte
00:10:40
anche da esperti che lo dicono persino
00:10:42
Coloro che sono più esperti di degli llm
00:10:46
e gli llm sono ancora Comunque a un
00:10:48
livello non vicino alle egi però non
00:10:51
riescono a ricostruire completamente e i
00:10:54
le le i principi di causa effetto che
00:10:56
portano l'immissione di un'informazione
00:10:58
La rielab azione perché è talmente
00:11:00
complesso che non te lo perdi noi
00:11:02
sappiamo il metodo con cui l' LM lo fa
00:11:05
ma non sappiamo poi i legami effettivi
00:11:07
Questa è la sua agibilità cioè il fatto
00:11:10
che davvero ci sfugge qualcosa e quello
00:11:13
che volo dire visto che ne abbiamo
00:11:14
parlato nella nostra cogitata è come se
00:11:17
nell'intelligenza artificiale quello che
00:11:20
in qualsiasi altra macchina è un
00:11:22
problema limitato Ti ricordi che ne
00:11:24
abbiamo parlato n scorso con citata è
00:11:25
diventato un problema illimitato Cioè è
00:11:27
passato da un problema tecnica ente
00:11:29
risolvibile da una complessità che una
00:11:32
forma di conoscenza umana può sciorinare
00:11:35
e derubricare ha una forma di
00:11:37
complessità che sfugge a quella
00:11:39
possibile ricostruzione quindi è le
00:11:40
variabili sono diventate illimitate e
00:11:43
questo comporta il fatto che secondo
00:11:45
alcuni secondo arari l'intelligenza
00:11:48
artificiale anche quella che agisce
00:11:50
nelle piccole cose nel for you di tiktok
00:11:53
nell'algoritmo di YouTube di fatto
00:11:55
modifica la nostra percezione del mondo
00:11:57
attraverso processi che ci sfuggono
00:11:59
completamente Questa è la la agency
00:12:02
dell'ia Secondo me allora
00:12:06
se al di là del nome che poi gli si
00:12:09
vuole dare perché queste cose trovano
00:12:11
poi la loro definizione quando la
00:12:14
polvere si assestano
00:12:17
eh quindi se vogliamo parlare di agency
00:12:20
in quel senso Cioè come
00:12:22
opacità io la la definirei opacità eh
00:12:27
tocchi un tema assolutamente
00:12:30
che hai anche Esposto in maniera
00:12:32
assolutamente corretta il large language
00:12:35
Model noi sappiamo come vengono
00:12:37
costruiti perché li Costruiamo
00:12:39
ovviamente sappiamo che su che cosa li
00:12:43
alleniamo che è un Task di predizione
00:12:46
quindi chiediamo a questi modelli dato
00:12:50
uno stralcio di testo Dimmi la prossima
00:12:52
parola che ha senso
00:12:54
Eppure anche se sono allenati a fare
00:12:57
questo più un po' di altre Ma questo è è
00:13:00
il loro obiettivo di vita il il modo con
00:13:05
cui
00:13:06
Eh il principio secondo il quale la rete
00:13:10
assume la forma che ha la forma di
00:13:13
parametri al suo interno i numerini che
00:13:15
ci sono dentro vengono affinati per fare
00:13:18
questo Task di predizione no
00:13:20
Eppure emergono delle capacità emergenti
00:13:24
che ti devo dire emergenti Deve essere
00:13:26
veramente
00:13:28
ehm delle capacità emergenti Cioè salta
00:13:31
fuori che questi modelli Sembrerebbero
00:13:33
in grado di fare delle cose per le quali
00:13:36
non sono state esplicitamente
00:13:39
allenate nel Task di predizione salta
00:13:42
fuori che se tu gli dai qualche esempio
00:13:45
di qualche altro compito poi lo sanno
00:13:47
fare abbastanza bene eccetera eccetera
00:13:49
eccetera e c'è un filone della scienza
00:13:53
che si occupa proprio di studiare Ok ma
00:13:56
cosa vuol dire che se nella mia rete da
00:13:59
75 miliardi di numeri gpt3 ha questa
00:14:02
cifra qui c'è scritto Qui 35 qua 34 qua
00:14:07
62 qua Cosa vuol dire che se quei numeri
00:14:12
sono lì la rete si comporta in quel modo
00:14:14
là Questa è lei explainability ad oggi
00:14:19
noi sappiamo veramente poco di di di di
00:14:24
che di come è rappresentata
00:14:26
l'informazione lì dentro sappiamo Quali
00:14:29
sono i processi che guidano la creazione
00:14:32
di questi modelli Ma non è che diciamo
00:14:34
Ok all'interno del modello c'è questa
00:14:38
rappresentazione che è fatta così è
00:14:40
fatta cosà abbiamo delle idee perché
00:14:41
sono quelle che gli diamo noi però poi
00:14:43
la trasformazione non è soltanto
00:14:46
complessa ma è profonda e
00:14:50
ha dei paralleli con un ipotetico modo
00:14:54
che noi abbiamo di rappresentare i
00:14:56
concetti nel nostro cervello ma diventa
00:14:59
veramente molto molto opaco capire che
00:15:01
cosa fanno Ecco
00:15:03
però c'è un pezzettino che non mi torna
00:15:07
di di questa cosa ossia che alla fin
00:15:12
fine tu cioè quando io sento le persone
00:15:15
spaventate da questi oggetti che
00:15:18
dovrebbero vagare nel nulla nel mondo e
00:15:22
fare
00:15:24
cose Quelli sono programmi cioè sono
00:15:29
messi in un punto specifico da dei
00:15:31
programmatori È vero che i programmatori
00:15:33
poi non sanno spiegarti perché le
00:15:36
decisioni che ha preso sono quelle però
00:15:38
finché uno ha cautela nel dire dovremmo
00:15:41
usare un sistema di ai per decidere Non
00:15:44
lo so per fare predizione dei criminali
00:15:47
quindi dire queste 10 persone è
00:15:50
probabile che siano criminali è una
00:15:51
buona idea usare le a per fare questa
00:15:53
cosa sì no se tu non usi l'algoritmo di
00:15:57
intelligenza artificiale su quel
00:15:58
problema Ma il problema non si pone e
00:16:00
l'idea
00:16:02
di un questa Agi che
00:16:06
poi non si capisce anche dove dovrebbe
00:16:09
stare e come dovrebbe interagire con chi
00:16:12
e boh cioè è una roba Non è una Cioè non
00:16:17
è che te lo impianti nel braccio e ti fa
00:16:21
muovere il braccio o ti suggerisce delle
00:16:23
cose però attenzione
00:16:26
attenzione c'è Secondo me una costruz
00:16:33
diciamo un po'
00:16:35
Frankenstein nella quale noi
00:16:38
più deleghiamo pezzi della nostra vita
00:16:42
pezzi decisionali di noi pezzi dei
00:16:46
nostri dispositivi al alle intelligenze
00:16:48
artificiali potrebbe essere questa è una
00:16:51
cosa che vedo possibile sebbene in
00:16:54
maniera
00:16:55
nebulosa il fatto che la combinazione di
00:16:57
tutti questi sistemi eh Anche se non è
00:17:02
esplicitamente una cosa ovunque È così
00:17:05
permeata nella nostra società
00:17:08
da In effetti manifestarsi come una
00:17:12
trasformazione della società eh Pensiamo
00:17:15
ad esempio alla
00:17:16
eh ai media No se io non sono più in
00:17:20
grado di distinguere se una foto che
00:17:22
vedo è vera oppure no un articolo è
00:17:24
scritto da un umano oppure no
00:17:26
cioè non è tanto la complessità di
00:17:29
questi oggetti che sono così complessi
00:17:31
da 20 anni e già da 20 anni l'utente
00:17:34
comune non ha la minima idea di che cosa
00:17:36
sta succedendo nelle robe che ha addosso
00:17:38
o che legge o che vede
00:17:41
eh Però appunto la percezione dato che
00:17:44
noi esperiamo la realtà da quello che
00:17:47
dai nostri limitati sensi che sono
00:17:50
incredibili Ma quando c'è il muro del
00:17:52
media
00:17:53
Eh questo crea un problema di traduzione
00:17:58
e di efficacia dei nostri sensi non
00:18:00
banale e meno si conoscono i meccanismi
00:18:03
con le quali le cose arrivano a noi
00:18:05
vengono scelte per noi e a questo punto
00:18:08
sono generate per noi eh più esiste il
00:18:11
rischio di
00:18:14
di non rendersi conto di quello che stai
00:18:17
vedendo E nel momento in cui tu non puoi
00:18:19
più credere ai tuoi sensi eh l'umanità
00:18:23
c'ha dei bei cazzi la ris infatti
00:18:25
infatti un po' secondo me secondo me
00:18:27
quello io questo credo che sia il il
00:18:30
vero che non è neanche pericolo cioè io
00:18:32
direi il vero effetto di queste
00:18:34
tecnologie Cioè alla fine dei conti
00:18:36
l'opacità di cui abbiamo parlato è la
00:18:38
stessa che io posso riscontrare nei tuoi
00:18:41
confronti nei confronti del mio vicino
00:18:42
di casa Cioè alla fine cioè Parliamoci
00:18:45
chiaro io non ho idea se tu hai
00:18:47
autocoscienza così come non ho idea se
00:18:48
se la persona che conosco di più al
00:18:50
mondo ha un' autocoscienza non so come
00:18:53
si rappresenta il mondo Questo è un
00:18:55
problema che discutevano anche gli
00:18:56
antichi cioè Qual è il vero problema
00:18:57
della fiducia umana il fatto che tu
00:18:59
quando guardi una persona nella tua
00:19:01
testa c'è l'idea ma questo qua so è uno
00:19:04
zombie è un meccanismo automatico Cioè
00:19:06
sta stai
00:19:07
elaborando il mondo in una
00:19:09
rappresentazione che non non ha a che
00:19:11
fare con il modo in cui io mi
00:19:12
rappresento il mondo e via dicendo la
00:19:15
macchina va in questo caso ad
00:19:16
aggiungersi a questo Cioè è È questa la
00:19:19
la cosa che sicuramente è anche
00:19:21
abbastanza perturbante il fatto che ci
00:19:24
troviamo di fronte non a un'intelligenza
00:19:27
simile a quella umana
00:19:29
Ma un'opacità che ci ricorda quella
00:19:31
umana è questo il vero problema e quando
00:19:35
tu ti rendi conto di questo e devi
00:19:37
renderti conto del fatto che gli altri
00:19:39
intorno a te le persone che fanno parte
00:19:40
della tua vita i tuoi genitori
00:19:42
attraverso
00:19:45
quell'opera tua rappresentazione del
00:19:47
mondo Cioè non importa che tu sappia o
00:19:49
meno che questi c'hanno un'anima una
00:19:51
coscienza o meno questi qua impattano
00:19:53
enormemente perché perché loro stessi
00:19:55
hanno un modello rappresentativo e il
00:19:57
fatto è che noi è come se avessimo
00:20:00
aggiunto un'ulteriore opacità un mondo
00:20:02
comunque opaco nell'illusione di capirlo
00:20:05
meglio ed è questa la cosa che secondo
00:20:07
me è veramente affascinante ed è il
00:20:09
motivo per cui e arari lì S dice una
00:20:11
cosa che in realtà è interessante una
00:20:14
cosa che anch'io ripeto da da da molto
00:20:15
tempo su Daily Cogito noi ci illudiamo
00:20:18
da ormai molto tempo che più
00:20:21
informazione uguale Maggiore conoscenza
00:20:24
Ma non è vero non è vero perché più
00:20:26
informazione e più inform Iper elaborata
00:20:29
significa più
00:20:31
opacità e questo ci trasforma in modi
00:20:35
che risultano imprevedibili è ben lungi
00:20:38
dallo spaventarmi credo che sia una
00:20:39
delle cose più interessanti del mondo in
00:20:41
questo momento perché dovrebbe
00:20:42
ricordarci quanto sia importante essere
00:20:45
interessati a
00:20:47
quell'opera nasce quando tu ti
00:20:49
disinteressa dell'opacità quando tu
00:20:50
c'hai il vicino di casa che si comporta
00:20:52
da stronzo e invece di chiederti ma cosa
00:20:55
c'è dentro quell'opzione
00:20:58
a scavare discutere tu lo dai per
00:21:00
scontato ok dici vabbè Questo è così è
00:21:03
quello il vero pericolo e trovo che sia
00:21:04
interessantissimo questo Cioè il vero
00:21:07
pericolo è la nostra inedia Davanti a
00:21:08
questa opacità capito mi mi fai
00:21:11
riflettere sul fatto
00:21:14
che forse Quindi adesso Proverò a fare
00:21:17
un esperimento mentale con te su questo
00:21:20
un esempio piace ci piace forse il
00:21:22
problema non è tanto che
00:21:24
non
00:21:26
sappiamo diciamo che c'è l'opacità
00:21:29
dell'intelligenza artificiale ma che
00:21:31
questa opacità c'è ovunque anche nella
00:21:33
nostra specie e l'errore che facciamo è
00:21:37
di pensare che gli altri siano come noi
00:21:39
solo perché appartengono alla nostra
00:21:41
specie
00:21:42
Eppure se io leggo su internet un post
00:21:47
Ok leggo un post di un utente che dice
00:21:51
Salvini ha fatto davvero un ottimo
00:21:55
lavoro questa cosa qui
00:22:00
la domanda forse non è è generato
00:22:02
automaticamente è della mia stessa
00:22:04
specie questo stavi chiedendo è della
00:22:06
mia stessa specie questo che stavi
00:22:08
chiedendo Ma la domanda è che visione
00:22:10
della
00:22:12
realtà può portare a dire una cosa che è
00:22:16
così distante dalla mia versione della
00:22:19
realtà m Esatto cioè una cosa
00:22:26
Eh C per perché qualcosa di sintetico
00:22:29
dovrebbe essere
00:22:31
intrinsecamente meno valido di qualcosa
00:22:34
di prodotto da un umano quando anche
00:22:36
qualcosa che è prodotto da un umano può
00:22:39
essere
00:22:41
falso attaccato ad una realtà che non
00:22:43
esiste
00:22:45
ehm ecco sicuramente un un argomento può
00:22:49
essere Beh perché aggiungere qualcosa
00:22:52
perché aggiungere una Ecco la potenza di
00:22:54
fuoco questo
00:22:56
sì gli umani Anche anche se Limit cioè
00:22:59
anche se tanti sono limitati sono una
00:23:01
quantità
00:23:02
e quindi il rumore che possono fare e e
00:23:06
il il moto di cose che possono produrre
00:23:10
e scrivere è m legato e proporzionale a
00:23:15
quanti sono però le intelligenze
00:23:17
artificiali sono degli algoritmi e io
00:23:20
posso aumentare a dismisura la quantità
00:23:23
di creazioni di questo genere
00:23:26
quindi credo che una parte di essere in
00:23:30
vita sia proprio cercare
00:23:32
persone che sono come te nel
00:23:36
senso la cui opacità è un po' meno opaca
00:23:39
rispetto a tutti gli altri
00:23:41
eh È un po' più chiaro come ragionano
00:23:45
credo ci sia qualcosa di
00:23:47
eh unico nel trovare qualcuno che la
00:23:51
pensa come te cioè proprio la pensa
00:23:54
algoritmicamente come te non sul tema
00:23:57
che si rappresenta il mondo in un modo
00:23:59
simile al tuo S es che affronta i
00:24:01
problemi come li affronti tu eccetera
00:24:03
eccetera diciamo se vogliamo dire una
00:24:05
cosa un po' gay quello che è successo
00:24:07
qua un po' così oh cioè il piacere di
00:24:11
trovare qualcuno che è lì e senti questa
00:24:14
affinità no m
00:24:17
Ecco chiaramente se tu sei alla ricerca
00:24:19
di questa cosa che penso che
00:24:22
dia soddisfazione profonda a noi umani
00:24:26
sì Eh no chat applaude
00:24:29
eh È ovvio che se tu aumenti il il fuoco
00:24:34
mettendo queste questi produttori di
00:24:37
cose allora sarà molto più difficile
00:24:40
trovare qualcuno come te per un semplice
00:24:42
fatto di quantità di cose sì sai Hai
00:24:46
aperto un sacco di un sacco di di
00:24:48
discorsi bisognerebbe farla durare 14
00:24:50
ore questa cosa qua Allora
00:24:52
ehm Sì noi cerchiamo Istintivamente
00:24:56
persone che ci somigliano perché chi ci
00:24:59
somiglia aumenta il bagaglio che usiamo
00:25:03
per rappresentarci sempre meglio il
00:25:05
mondo la ragione e la cultura ci aiutano
00:25:08
a trovare anche gente che non ci
00:25:10
somiglia per allargare ulteriormente Ma
00:25:13
poi alla fine dei conti sai qual è il
00:25:15
punto e questo secondo me è ciò che che
00:25:17
che bene o male io da questi
00:25:20
ragionamenti cerco di portarmi a casa
00:25:22
che tu non hai nessuna vera agibilità
00:25:25
sull'ac altrui ma solo su sulla tua c'ho
00:25:30
un libro qua guarda mi è arrivato oggi
00:25:31
un libro adesso è lì quindi non riesco a
00:25:33
prenderlo a meno che Fede non riesca ad
00:25:35
alzarsi per questo questo è un'opera
00:25:37
d'arte Ok quindi adesso faccio alzare il
00:25:39
regista che sta Sperando che non Cozzi
00:25:42
contro la videocamera abamo senito la
00:25:43
sedia quindi sappiamo che non è una gma
00:25:46
Allora guarda io ho preso questa cosa
00:25:47
meravigliosa Madonna questo questo testo
00:25:50
questo testo è il Libro Rosso di Jung
00:25:52
Questo è un libro che costa tipo €60 è è
00:25:56
È gigantesco tipo eh
00:25:58
È gigantesco ed è bellissimo e questo è
00:26:01
il libro che Jung Quindi grande
00:26:03
psicanalista del
00:26:04
900 stese nell'arco di 17 anni
00:26:08
analizzando i propri sogni e propri
00:26:10
incubi dentro è una roba pazzesca perché
00:26:12
oltre ai suoi Aspetta adesso non voglio
00:26:14
fare danni dentro oltre ai suoi testi
00:26:16
originali trovi anche i disegni Ok Ah
00:26:20
wow sono sono è un'opera bellissima Ci
00:26:23
farò sicuramente uno Special perché è
00:26:25
un'opera veramente straordinaria Ok per
00:26:28
per che ve l'ho mostrato questo non
00:26:29
soltanto per flexare questa opera
00:26:31
bellissima che mi sta anche mi stava
00:26:33
anche per fare del male ma perché questo
00:26:36
è lasciami prendere questa licenza
00:26:39
poetica un
00:26:42
antialgas al mondo ma scava nelle
00:26:45
informazioni superflue della persona
00:26:47
cioè è il tentativo di un individuo di
00:26:50
rendersi trasparente a se stesso quindi
00:26:54
di cercare di risolvere la propria
00:26:56
opacità e per perché lo fa perché si
00:26:59
accorge di essere caduto in una
00:27:01
depressione legata alla troppa
00:27:03
informazione alle troppe conoscenze che
00:27:06
in qualche modo hanno creato una sorta
00:27:09
di surplus che non riusciva più a
00:27:11
gestire e quindi si mette a scavare ci
00:27:13
mette 17 anni entra in profondità si fa
00:27:15
un'autoanalisi qui dentro ci sono cose
00:27:17
terrificanti mostruosità sensi di colpa
00:27:20
traumi tira fuori una roba Incredibile è
00:27:23
un'opera bellissima e è il suo tentativo
00:27:25
di ridurre il rumore e io credo che a un
00:27:30
certo punto della vita gli esseri umani
00:27:32
dopo essersi convinti positivamente che
00:27:35
l'informazione la maggiore elaborazione
00:27:38
la maggior opacità Ti renderà più chiaro
00:27:40
il mondo dice no fermo ho un casino
00:27:43
nella testa adesso devo fare il percorso
00:27:45
inverso e usare gli strumenti che la
00:27:48
cultura mi ha dato le mie conoscenze
00:27:50
quelle informazioni per ridurre la mia
00:27:52
opacità che è l'unica opacità che posso
00:27:55
ridurre e questo credo che sia molto
00:27:57
affascinante questo questo proprio è io
00:27:59
è un
00:28:03
antialgale una definizione del genere ha
00:28:05
senso Perché diciamo Tu prima hai detto
00:28:08
ridurre il rumore mi permetto di
00:28:12
aggiustare dicendo ehm schiarire il
00:28:16
rumore perché sì sì il rumore è questa
00:28:19
confusione e noi non
00:28:21
vogliamo toglierla vogliamo riordinarla
00:28:25
vogliamo galvanizzare il dolore che è
00:28:28
meglio di raffinare galvanizzare il il
00:28:31
dolore il rumore galvanizzare il
00:28:34
dolore partiti per la tangente e E qua
00:28:37
si apre anche faccio questa postilla che
00:28:40
di nuovo richiederebbe 3 ore solo lei
00:28:42
Però m c'è anche secondo me da
00:28:45
riflettere sul fatto
00:28:47
che il motivo per cui sui social media
00:28:50
poi le cose che funzionano sono quelle
00:28:53
superficiali e
00:28:55
leggere sono anche perché sono quelle
00:28:57
che sono rumore puro
00:29:01
eh privo di controindicazioni Nel senso
00:29:05
che ti arriva Mh e e ti distrae Cioè non
00:29:10
è il rumore pesante Non è la
00:29:14
realizzazione di qualcosa di indomabile
00:29:17
o Difficilmente domabile difficilmente
00:29:21
Eh schiari ok
00:29:25
galvanizzazione
00:29:27
È m mi ingozzo di tutto quello che trovo
00:29:30
così da non dover vivere la complessità
00:29:34
di gustare un piatto che può essere
00:29:37
ovviamente anche doloroso
00:29:40
m È difficile convivere con qualcosa che
00:29:43
non si sa eh domare No assolutamente
00:29:47
Assolutamente sì sì e alla fine dei
00:29:49
conti è è quella lì la cosa che che che
00:29:52
che io imparo da da da da queste
00:29:55
esperienze da questa anche dal testo di
00:29:57
arar via dicendo lui c'ha ragione su una
00:29:59
cosa
00:30:00
Ehm la
00:30:02
ia è il risultato comunque di una
00:30:05
cultura che guarda positivamente
00:30:07
all'informazione Cioè più informazione
00:30:10
uguale maggior conoscenza e sotto un
00:30:13
certo punto di vista è vero perché
00:30:15
perché noi sconfiggeremo il tumore
00:30:16
grazie al maggior numero di conoscenze
00:30:18
Cioè nel senso noi raggiungeremo
00:30:21
l'agibilità genetica con crispr e via
00:30:24
dicendo grazie alle maggiori conoscenze
00:30:26
ma le maggiori conoscenze
00:30:28
senza un galvanizzare le informazioni
00:30:31
senza quindi un processo che deve essere
00:30:34
individuale faticoso una rottura di
00:30:36
[ __ ] incredibile che va a togliere
00:30:40
di mezzo il superfluo a dare Nuova Forma
00:30:44
quelle informazioni e via dicendo senza
00:30:45
questo
00:30:47
lì diventi vittima di quelle di di quel
00:30:50
di quel di quel rumore capisci Ma poi e
00:30:53
in questo discorso non si può non eh
00:30:58
sottolineare il fatto che il modo con
00:31:01
cui noi entriamo a contatto con
00:31:05
l'informazione non è che io vado
00:31:06
all'albero dell''informazione e mi
00:31:09
piglio per i cazzi miei la mela
00:31:11
dell'informazione Tutto passa tramite
00:31:14
delle aziende dei cazzo di giganteschi
00:31:17
mostri che non hanno nessuna intenzione
00:31:21
etica di nessun genere né positiva hanno
00:31:25
solo un obiettivo L'obiettivo è grano
00:31:28
cioè gli SK quelli ti vendono della roba
00:31:32
così come Google ha vende uno dice
00:31:36
Google sarà un oggetto
00:31:39
democratizzare Sì ma il fatto che sia di
00:31:43
un'azienda e il fatto che l'azienda
00:31:46
abbia un certo obiettivo non può che a
00:31:49
un certo punto impattare l'effetto che
00:31:52
quell'oggetto ha e come è pensato e come
00:31:54
si sviluppa nel tempo e quindi quando si
00:31:57
parla di intelligenza artificiale perché
00:31:59
non c'è il tempo di riflettere su Che
00:32:03
cos'è come funziona come sta arrivando
00:32:06
come la stiamo utilizzando perché ti
00:32:08
viene detto è uscito il nuovo modello
00:32:10
compra questo questo è meglio di quello
00:32:12
questa ed è diventato
00:32:16
un è diventato un un una corsa all'hype
00:32:21
che nonostante le intelligenze
00:32:23
artificiali abbiano davvero secondo me
00:32:25
un valore scientifico e
00:32:29
anche di di di progresso umano molto
00:32:33
importante sono trattate alla stregua
00:32:35
degli nft che invece sono una stronzata
00:32:39
completa potevano avere anche qualche
00:32:41
valore tecnologico se vogliamo perché la
00:32:43
blockchain è un sistema interessante ma
00:32:45
il il trattamento che
00:32:50
eh che viene fatto di questi argomenti è
00:32:54
squisitamente un
00:32:55
trattamento commerciale di marke
00:32:58
e quando Quindi alla fine è sempre colpa
00:33:01
del capitalismo se parla per quello che
00:33:03
è rossa la copertina po povero
00:33:04
capitalismo non diamogli tutte le colpe
00:33:06
del mondo No ma se ci pensi però quando
00:33:08
i principi che guidano è una ovviamente
00:33:11
una semplificazione molto gradassa però
00:33:15
se i principi che guidano la società
00:33:17
sono quelli quelli del capitalismo
00:33:20
quelli della accumulo di risorse e della
00:33:24
competizione eccetera eccetera È chiaro
00:33:27
che questa cosa qui
00:33:28
percola Vabbè incredibile verbo percola
00:33:33
in tutti i gli strati della società fino
00:33:35
a arrivare a noi che poi quegli oggetti
00:33:37
li utilizziamo no on però
00:33:40
eh dal momento che il capitalismo così
00:33:44
come le aziende non hanno principi non
00:33:46
possono avere i principi per definizione
00:33:49
m finiscono per imporre le loro visioni
00:33:52
quando la gente smette di avere principi
00:33:55
cioè m il il vero Io sono io ho questa
00:33:59
questo questo atteggiamento qua che fa
00:34:01
incazzare sempre quelli che dicono è
00:34:02
colpa di quello colpa di No no è colpa
00:34:04
nostra siamo noi gli stronzi peraltro
00:34:07
che siamo consumatori sempre più
00:34:08
inconsapevoli che questi meccanismi li
00:34:11
assecondiamo perché c'abbiamo la
00:34:12
pancetta che continua a crescere di
00:34:14
voglia in voglia e non riusciamo più ad
00:34:16
ascoltare invece qualche principio che
00:34:17
dovremmo darci ogni tanto per darci noi
00:34:19
dei limiti in realtà il problema vero è
00:34:22
che siamo noi esseri umani che avendo
00:34:25
smesso da tempo di credere di poter
00:34:27
avere dei Principi perché ormai i
00:34:29
principi sono per ingenui il capitalismo
00:34:31
finisce per avere per forza dei principi
00:34:34
che ti vengono imposti e il
00:34:37
funzionamento del capitalismo così come
00:34:39
di qualsiasi altro sistema sociale
00:34:41
finisce per venire confuso per principi
00:34:44
Secondo me è questo il vero problema che
00:34:45
è un problema molto molto più antico
00:34:47
rispetto alla società dei consumi
00:34:49
Abbiamo smesso di avere principi molto
00:34:51
tempo fa e io stasera c'ho una live su
00:34:54
su sull'elica di Erasmo da Rotterdam nel
00:34:57
500 questa cosa la diceva ancora e
00:34:59
prevedeva il fatto che quando la gente
00:35:01
non ha più principi e i grandi sistemi
00:35:04
le grandi ideologie si prendono tutto
00:35:05
quanto è inevitabile
00:35:08
quindi tornare a deop aciz Zare noi
00:35:11
stessi per scoprire quei principi è ciò
00:35:14
che ci permette poi di usare meglio
00:35:15
Questi strumenti Ma quanto è costoso
00:35:21
perché questo torna sul tema del ok Noi
00:35:25
qua viaggiamo sui massimi Siamo a due 2
00:35:28
km dal reale dir dirigibili no
00:35:30
dirigibili siamo dirigibili Ecco però
00:35:33
poi secondo me adesso non so Nel 500
00:35:36
penso che la vita non fosse proprio un
00:35:38
Bijou Però io credo che sia
00:35:41
davvero
00:35:43
costoso avere dei Principi Cioè secondo
00:35:46
me non essere razzista è davvero
00:35:49
faticoso m È super difficile non essere
00:35:52
razzista Cioè ti devi attivamente
00:35:55
impegnare perché un po' quello che vivi
00:35:59
nella tua giornata quotidiana un po'
00:36:01
quello che dicono i telegiornali un po'
00:36:03
tu devi proprio impegnarti a non essere
00:36:07
una merda in questo mondo secondo me ma
00:36:10
non in questo mondo Ma non in questo
00:36:11
mondo è sempre così è la condizione
00:36:12
umana leggi Platone Quando quando quando
00:36:16
scrive i suoi dialoghi Ok Socrate fa una
00:36:19
fatica bestiale anche alle persone
00:36:21
intelligenti a far fare loro un
00:36:23
ragionamento a far capire loro un
00:36:26
principio fa una fatica bestiale e anche
00:36:29
una volta fatta la fatica Sai cosa fanno
00:36:31
gli fanno bere il caffè corretto Alla
00:36:33
Cicuta gli stronzi lo ammazzano cioè è
00:36:36
da sempre Guarda veramente su questo io
00:36:38
credo che noi viviamo anche un po' di
00:36:41
illusione della contemporaneità del
00:36:43
fatto che Ah il sistema in cui viviamo è
00:36:45
quello più potente Ma no ma leggiamo la
00:36:48
storia guardiamo è sempre stato faticoso
00:36:50
adottare dei Principi era faticoso
00:36:52
nell'antica Roma quando gli imperatori
00:36:54
se volevano ti ti ammazzavano davanti
00:36:56
alla porta di casa nessuno rispondeva
00:36:58
delle delle di quelle nefandezze era
00:37:00
faticoso nel Medioevo quando è sempre
00:37:03
stato faticoso Anzi forse oggi da alcuni
00:37:05
aspetti è meno faticoso rispetto al
00:37:07
passato perché oggi abbiamo comunque una
00:37:09
libertà almeno di espressione e via
00:37:11
dicendo che non avevamo in passato però
00:37:14
Certo che è faticoso perché noi siamo
00:37:15
delle scimmie caro han siamo delle
00:37:17
scimmie di merda che ancora non si sono
00:37:19
rese conto di essere scese dagli alberi
00:37:21
e quindi appena percepiamo un pericolo
00:37:23
urliamo e quando abbiamo fame mangiamo
00:37:26
anche fino a copiare non c'è niente da
00:37:28
fare la cultura è proprio la serie di
00:37:32
strumenti che ti permette di fare quella
00:37:35
fatica in modo proficuo Cioè ho preso
00:37:37
l'esempio qua di di Jung 17 anni ci ha
00:37:40
messo per diventare una persona migliore
00:37:42
e lo è diventato Jung ha scritto delle
00:37:44
cose importantissime almeno cose che a
00:37:45
me hanno cambiato la vita 17 anni ci ha
00:37:47
messo 17 anni in cui neanche voleva
00:37:49
pubblicarlo il libro Pensati che
00:37:51
faticaccia a dire ok sta roba la faccio
00:37:53
solo per me perché devo scavare Devo
00:37:55
rendermi meno opaco per essere per non
00:37:58
essere razzista Certo devi far fatica
00:38:00
perché noi siamo tutti tendenzialmente
00:38:02
razzisti quando nasciamo Siamo
00:38:04
discriminatori xenofobi siamo xenofobi
00:38:07
perché perché siamo scimmie Le scimmie
00:38:09
il diverso lo guardano sempre con occhio
00:38:11
strano e quindi devi fare la fatica di
00:38:14
diventare antirazzista devi far la
00:38:16
fatica di non essere avido devi far la
00:38:18
fatica di non dare troppo ascolto alle
00:38:20
passioni perché in realtà devi ascoltare
00:38:22
un attimino di più il cervello però devi
00:38:24
anche dare il giusto ruolo alle passioni
00:38:26
perché se cancelli le passioni diventi
00:38:27
uno stronzo cinico psicotico Se però dai
00:38:30
troppo Ascolto le passioni diventi un
00:38:31
iracondo violento e scemo Capito Cioè
00:38:33
quell'equilibrio lì è una fatica
00:38:35
devastante Noi siamo nella situazione in
00:38:38
cui siamo perché quella fatica là non la
00:38:40
vogliamo più fare e abbiamo un sacco di
00:38:42
scuse per non farla
00:38:44
m non che sia necessariamente
00:38:47
interessante ma vorrei esplorare Questo
00:38:51
pezzettino Vai sul se è vero oppure no
00:38:56
che vivere a Princip Life eh sia
00:39:00
diventato più o meno complicato credo
00:39:03
che i pirulini di quest di che cosa
00:39:07
definisce la difficoltà siano si siano
00:39:09
spostati ti do dei pro e dei contro del
00:39:13
passato e e dimmi cosa ne pensi penso
00:39:16
che oggi eh le cose che
00:39:19
Eh ci stanno intorno sono a conoscenza
00:39:24
del fatto che siamo delle scimmie e
00:39:26
sanno
00:39:28
dove mirare incularsi lì cioè sfruttare
00:39:31
quella cosa al massimo Inoltre c'è
00:39:35
proprio una la velocità della vita cioè
00:39:38
il clock di noi tutti è diventato molto
00:39:41
più veloce
00:39:42
quindi credo che ci sia magari nel
00:39:46
passato c'era un dolore anche fisico
00:39:48
Cioè non mangiare sarà ben un problema
00:39:50
cazzo
00:39:53
però in un il respiro delle giornate
00:39:57
Immagino perché non c'ero 500 anni fa
00:39:59
Nonostante la mia grande
00:40:02
età credo che fosse comunque un respiro
00:40:05
diverso quindi ecco Una una cosa che
00:40:08
secondo me c'è adesso è una compressione
00:40:10
una compressione sia di esperienza di
00:40:13
chi vuole sfruttare il fatto che siamo
00:40:15
scimmie
00:40:16
e in generale di proprio di ritmo e poi
00:40:20
aggiungo questo che e qui mi tocca
00:40:23
citare una bomber non so che tu citi
00:40:26
Jung io cito una bomber ciascuno io ho
00:40:29
letto il manifesto di una bomber la
00:40:31
versione americana perché poi qua in
00:40:32
Italia l'hanno copiato ma non era
00:40:34
altrettanto Cool ehm Ted Kinski
00:40:38
matematico squilibrato che piazzava le
00:40:40
bombe nelle università per far
00:40:42
pubblicare questo manifesto parlava
00:40:44
proprio di tecnologia eccetera eccetera
00:40:47
e diceva questa cosa che finiti che
00:40:50
immagino non si sia inventato lui quindi
00:40:52
secondo me tu sai chi altro lo diceva Ma
00:40:54
finiti i bisogni primari l'umano si
00:40:56
trova dei nuovi bisogni Ecco credo che
00:40:59
nel passato
00:41:03
ehm la ricerca del del bisogno cioè la
00:41:08
semplicità decisionale era guidata da
00:41:11
bisogni più atavici e quindi in un certo
00:41:14
senso era più era più in linea con il
00:41:18
nostro essere scimmie Ecco
00:41:22
ehm però non lo so dimmi tu cosa ne
00:41:24
pensi allora penso due cose senso che
00:41:28
sono d'accordo soltanto in una piccola
00:41:30
parte io ho letto kazinski conosco il
00:41:33
suo manifesto contro l'er industriale
00:41:36
Penso che questo sia un ottimo
00:41:37
cliffhanger per la prossima puntata
00:41:39
perché sennò Cioè qua facciamo altre du
00:41:41
ore e mezza di discussione io stasera
00:41:43
c'ho un'altra live quindi non è proprio
00:41:45
il caso non è proprio il caso devi
00:41:46
tenere la voce devi tenere la voce Sì
00:41:48
cioè nel senso No questo è è un bel tema
00:41:51
quindi in passato c'era più facile
00:41:54
essere scimmie Oggi c'è più difficile
00:41:56
essere umani che non è mica male eh non
00:41:58
è mica male Madonna
00:42:01
brivido ma si vede che fa il filosofo e
00:42:04
lo scrittore Lo scrittore io scrivo
00:42:06
Paper ma
00:42:09
lui caro mio e io non so se siamo giunti
00:42:12
a conclusioni non so neanche se abbiamo
00:42:14
iniziato non non capisco ma è stato
00:42:16
molto bello Come come come come Sem sarà
00:42:18
una lunghissima conversazione sarà una
00:42:21
lunghissima conversazione che Ci
00:42:22
accompagnerà indefinitamente Quindi
00:42:25
grazie mille grazie mille A a chi ha
00:42:27
ascoltato Insomma voi che state
00:42:29
ascoltando in differita su YouTube
00:42:30
mettete mi piace abbonatevi sapete cosa
00:42:32
fare e ovviamente in descrizione il
00:42:34
canale Twitch di di di che per l'altro
00:42:36
mi sta riportando è uno è una di quelle
00:42:38
persone rare persone che mi riporta in
00:42:40
qualche modo su Twitch dove io cerco di
00:42:42
stare più lontano possibile invece pensa
00:42:44
che tu secondo me mi stai portando su
00:42:45
YouTube quindi non so forse ci ci
00:42:47
incontriamo nel corridoio e io ti
00:42:50
ringrazio è veramente
00:42:54
piacevole viaggiare senza un preciso
00:42:57
obiettivo Ma per il gusto di mettere le
00:43:00
mani in questa cosa che chiamiamo vita
00:43:02
Boh questa è molto più banale della tua
00:43:04
ma la buttiamo lo stesso via via via via
00:43:07
via cia ciao a tutti ciao Buona
00:43:11
continuazione