Beware online "filter bubbles" | Eli Pariser

00:09:05
https://www.youtube.com/watch?v=B8ofWFx525s

Sintesi

TLDRSu Internet, i filtri algoritmici invisibili personalizzano ciò che vediamo, modellando un'esperienza unica basata sulle nostre interazioni precedenti. Questo processo, pur vantaggioso in connettività, porta al rischio di limitare la nostra esposizione a idee differenti e a informazioni fondamentali, bloccando una visione ampia e democratica del mondo. La personalizzazione algoritmica avviene tramite piattaforme come Facebook e Google, che adattano i loro risultati attraverso una serie di segnali senza il nostro consenso esplicito. Si sottolinea la necessità di integrare nei loro codici una responsabilità civile, simile a quella dei redattori, per garantire un'informazione equilibrata e inclusiva. L'obiettivo è un web che amplifichi la nostra conoscenza e il nostro legame con prospettive diverse, anziché rinchiuderci in una bolla filtrata e limitata.

Punti di forza

  • 🔍 Gli algoritmi personalizzano le nostre ricerche, limitando l'esposizione a contenuti diversi.
  • 📱 Facebook e Google personalizzano i contenuti senza consenso esplicito.
  • 🌐 Internet originariamente era visto come un collegamento democratico globale.
  • ⚖️ È urgente incorporare responsabilità civiche nei codici degli algoritmi.
  • 📰 Un'informazione equilibrata è essenziale per una democrazia sana.
  • 🤖 Gli algoritmi attuali mancano di etica redazionale.
  • 🔄 Necessità di trasparenza e controllo sui filtri algoritmici.
  • 🚫 Gli utenti spesso non vedono ciò che viene escluso dalle loro visioni personalizzate.
  • 📰 Le differenze nei risultati di ricerca evidenziano le limitazioni algoritmiche.
  • 🤝 Il web dovrebbe promuovere legami e idee diversificate.

Linea temporale

  • 00:00:00 - 00:09:05

    Su Facebook e su altre piattaforme, gli algoritmi personalizzano il flusso di informazioni basandosi sui clic degli utenti. Questo può causare una 'bolla di filtri' dove le persone ricevono solo contenuti che riflettono le loro preferenze esistenti, piuttosto che una gamma equilibrata di informazioni."

Mappa mentale

Mind Map

Domande frequenti

  • Chi è l'autore del discorso?

    L'autore del discorso è il traduttore Besnik Bleta.

  • Cosa è la 'filter bubble'?

    La 'filter bubble' è un universo unico e personalizzato di informazioni creato dagli algoritmi basati sulle preferenze e attività online di una persona.

  • Che preoccupazioni vengono espresse riguardo agli algoritmi di personalizzazione?

    C'è preoccupazione che gli algoritmi di personalizzazione possano impedire l'accesso a informazioni rilevanti e a prospettive diverse, alimentando una visione ristretta del mondo.

  • Cosa si suggerisce per migliorare la situazione?

    Si suggerisce di incorporare un senso di responsabilità civica negli algoritmi, garantendo trasparenza e controllo sugli stessi.

  • Qual è un esempio di differenza nei risultati di ricerca?

    Un esempio di differenza riguarda due amici che hanno ottenuto risultati molto diversi su Google cercando 'Egitto', con uno che vede notizie delle proteste e l'altro no.

  • Come Internet viene visto dall'autore nel passato rispetto ad ora?

    In passato, l'autore vedeva Internet come un collegamento al mondo e una risorsa per la democrazia; ora vede preoccupazioni nelle modalità di distribuzione dell'informazione.

Visualizza altre sintesi video

Ottenete l'accesso immediato ai riassunti gratuiti dei video di YouTube grazie all'intelligenza artificiale!
Sottotitoli
sq
Scorrimento automatico:
  • 00:00:00
    Translator: Besnik Bleta Reviewer: Helena Bedalli
  • 00:00:15
    Një gazetar po pyeste
  • 00:00:17
    Mark Zuckerberg-un rreth prurjes së lajmeve.
  • 00:00:20
    Dhe gazetari e pyeti,
  • 00:00:22
    "Pse qenka kaq e rëndësishme?"
  • 00:00:24
    Zuckerberg-u u përgjigj,
  • 00:00:26
    "Një ketër që po ngordh në bahçen tuaj
  • 00:00:28
    mund të jetë më me rëndësi për ju këtë çast
  • 00:00:31
    sesa njerëzit që vdesin në Afrikë."
  • 00:00:34
    Dhe unë dua të flas mbi atë se
  • 00:00:36
    si do dukej Web-i i bazuar në këtë kuptim të rëndësisë.
  • 00:00:40
    Gjatë adoleshencës time
  • 00:00:42
    në një zonë vërtet rurale në Maine,
  • 00:00:44
    Interneti përfaqësonte diçka krejt të ndryshme për mua.
  • 00:00:47
    Përfaqësonte një lidhje me botën.
  • 00:00:49
    Përfaqësonte diçka që mund të na lidhte krejt ne me njëri-tjetrin.
  • 00:00:52
    Dhe isha i sigurt se do të ishte i shkëlqyer për demokracinë
  • 00:00:55
    dhe shoqërinë tonë.
  • 00:00:58
    Por ja ku ndodhi kthesa
  • 00:01:00
    në mënyrën se si përhapet informacioni online,
  • 00:01:02
    dhe që është e padukshme.
  • 00:01:05
    Dhe nëse nuk i vëmë rëndësi,
  • 00:01:07
    do të mund të bëhej problem real.
  • 00:01:10
    Së pari e vura re në një vend ku kaloj mjaft kohë --
  • 00:01:13
    në faqen time në Facebook.
  • 00:01:15
    Politikisht jam progresist -- surprizë e madhe --
  • 00:01:18
    por kam qenë përherë i hapur ndaj ideve konservatore.
  • 00:01:20
    Më pëlqen të dëgjoj se ç'mendojnë;
  • 00:01:22
    Më pëlqen të shoh se çfarë ndjekin;
  • 00:01:24
    Më pëlqen të mësoj ndopak gjëra.
  • 00:01:26
    Ndaj u befasova kur një ditë vura re
  • 00:01:29
    që konservatorët ishin zhdukur nga prurjet e mia në Facebook.
  • 00:01:33
    Dhe, siç u mor vesh, çka po ndodhte qe që
  • 00:01:35
    Facebook-u po shihte se ç'lidhje klikoja unë,
  • 00:01:39
    dhe kish vënë re se, në të vërtetë,
  • 00:01:41
    klikoja më tepër lidhje nga miq të mijtë liberalë
  • 00:01:43
    se sa lidhje nga miqtë e mi konservatorë.
  • 00:01:46
    Dhe pa më pyetur për këtë,
  • 00:01:48
    u pat rënë vizë atyre.
  • 00:01:50
    U zhdukën.
  • 00:01:54
    Por Facebook-u nuk është vendi i vetëm
  • 00:01:56
    që bën këtë përpunim të padukshëm,
  • 00:01:58
    algoritmik, në Web.
  • 00:02:01
    Edhe Google-i e bën.
  • 00:02:03
    Nëse kërkoj unë për diçka, dhe kërkoni edhe ju për diçka,
  • 00:02:06
    madje tani, në të njëjtin çast,
  • 00:02:08
    secili mund të marrë përfundime kërkimi shumë të ndryshme.
  • 00:02:11
    Edhe pse pa u futur te llogaria juaj, më tha një inxhinier,
  • 00:02:14
    ka 57 sinjale
  • 00:02:16
    që Google-i i vëzhgon --
  • 00:02:19
    gjithçka, nga lloji i kompjuterit që përdorni
  • 00:02:22
    deri te lloji i shfletuesit me të cilin punoni
  • 00:02:24
    dhe vendi ku gjendeni --
  • 00:02:26
    krejt kjo përdoret për t'ju personalizuar përfundimet tuaja të kërkimit.
  • 00:02:29
    Ja mendojeni për një sekondë:
  • 00:02:31
    nuk ka më Google standard.
  • 00:02:35
    Dhe më e bukura e kësaj është që është vështirë të shihet.
  • 00:02:38
    Nuk e shihni dot se sa të ndryshme janë përfundimet tuaja të kërkimit
  • 00:02:40
    nga ato të dikujt tjetër.
  • 00:02:42
    Por para pak javësh,
  • 00:02:44
    u kërkova një dorë shokëve të kërkonin në Google për "Egjipt"
  • 00:02:47
    dhe të më dërgonin foto ekrani me përfundimet e kërkimit.
  • 00:02:50
    Ja fotoja e shokut tim, Skotit.
  • 00:02:54
    Dhe ja edhe fotoja e mikut tim Daniel.
  • 00:02:57
    Po t'i vini krah më krah,
  • 00:02:59
    as që keni nevojë të lexoni lidhjet
  • 00:03:01
    për të parë se sa të ndryshme janë këto dy faqe.
  • 00:03:03
    Por po të lexoni lidhjet,
  • 00:03:05
    është vërtetë për t'u shënuar.
  • 00:03:09
    Danieli nuk mori gjë fare rreth protestave në Egjipt
  • 00:03:12
    në faqen e parë të përfundimeve nga Google-i për të.
  • 00:03:14
    Përfundimet për Skotin qenë plot me të tilla.
  • 00:03:16
    Dhe këtu bëhej fjalë për lajmin e ditës të atëhershëm.
  • 00:03:18
    Ja pra se sa të ndryshme po bëhen këto përfundimet.
  • 00:03:21
    Por nuk është vetëm Google-i apo Facebook-u.
  • 00:03:24
    Kjo është diçka që po bën kërdinë në Web.
  • 00:03:26
    Ka plot kompani që e bëjnë këtë lloj personalizimi.
  • 00:03:29
    Yahoo News, site-i më i madh për lajme në Internet,
  • 00:03:32
    tani është i personalizuar -- njerëz të ndryshëm marrim gjëra të ndryshme.
  • 00:03:36
    Huffington Post, Washington Post, New York Times --
  • 00:03:39
    të gjithë flirtojnë në mënyra të ndryshme me personalizimin.
  • 00:03:42
    Dhe kjo na shpie shumë shpejt
  • 00:03:45
    drejt një bote në të cilën
  • 00:03:47
    Interneti na tregon atë që ai mendon se duam të shohim,
  • 00:03:51
    por jo domosdoshmërisht atë çka ne duam të shohim.
  • 00:03:54
    Siç tha Eric Schmidt-i,
  • 00:03:57
    "Për njerëzit do të bëhet shumë e vështirë të shohin
  • 00:04:00
    apo konsumojnë diçka që,
  • 00:04:02
    në një farë mënyre, nuk është përshtatur për ta."
  • 00:04:05
    Mendoj se ky është problem.
  • 00:04:07
    Dhe mendoj se, po t'i bëni bashkë gjithë këta filtra,
  • 00:04:10
    po të merrni gjithë këto algoritme,
  • 00:04:12
    ju del ajo që unë e quaj flluska filtrash.
  • 00:04:16
    Dhe flluska juaj e filtrave është universi juaj unik,
  • 00:04:19
    personal, i informacionit
  • 00:04:21
    në të cilin banoni online.
  • 00:04:23
    Dhe se ç'përmban flluska juaj e filtrave
  • 00:04:26
    varet se kush jeni, dhe se çfarë bëni.
  • 00:04:29
    Por rëndësi ka fakti që nuk e vendosni ju se ç'hyn në të.
  • 00:04:33
    Dhe akoma më e rëndësishme,
  • 00:04:35
    ju nuk shihni në fakt se ç'u la jashtë.
  • 00:04:38
    Një nga problemet me flluskën e filtrave
  • 00:04:40
    u zbulua nga disa kërkues në Netflix.
  • 00:04:43
    Duke vëzhguar radhët e porosive për marrje filmash me qira te Netflix, vunë re diçka të çuditshme
  • 00:04:46
    që ndoshta e kanë vënë re shumë prej nesh,
  • 00:04:48
    se ka disa filma që sikur
  • 00:04:50
    i bëjnë bisht radhës e mbërrijnë në shtëpinë tuaj.
  • 00:04:53
    Dalin nga radha pa hyrë mirë në të.
  • 00:04:56
    P.sh. "Iron Man" fluturon prej radhe,
  • 00:04:58
    ndërsa "Waiting for Superman"
  • 00:05:00
    mund të presë për një kohë të gjatë.
  • 00:05:02
    Ajo çfarë zbuluan
  • 00:05:04
    qe që në radhët tona të porosive te Netflix-i
  • 00:05:06
    zhvillohet kjo betejë epike mes
  • 00:05:09
    asaj si e duam veten në të ardhmen
  • 00:05:12
    dhe asaj vetes më impulsive siç jemi faktikisht.
  • 00:05:15
    Dihet se të tërë duam të jemi nga ata
  • 00:05:17
    që e kanë parë "Rashomon,"-in
  • 00:05:19
    por mu tani duam
  • 00:05:21
    të shohim për të katërtën herë "Ace Ventura"-n.
  • 00:05:24
    (Të qeshura)
  • 00:05:27
    Në rastin më të mirë të përpunimit, na jepet pak nga të gjitha.
  • 00:05:29
    Na jepet pak Justin Bieber
  • 00:05:31
    dhe pak Afganistan.
  • 00:05:33
    Na jepet ca informacion për perimet;
  • 00:05:35
    na jepet dhe ca informacion për ëmbëlsirat.
  • 00:05:38
    Çështja me këta lloj filtrash algoritmikë,
  • 00:05:40
    këta filtra të personalizuar,
  • 00:05:42
    është se mund të ndikojnë në këtë ekuilibër,
  • 00:05:44
    ngaqë ata kryesisht vërejnë
  • 00:05:48
    së pari se çfarë klikoni ju.
  • 00:05:52
    Dhe në vend të një diete të baraspeshuar për informacionin,
  • 00:05:55
    përfundoni i rrethuar nga
  • 00:05:57
    informacion që është për t'u hedhur në kosh.
  • 00:05:59
    Kjo të bën të mendosh që ne,
  • 00:06:01
    në fakt, mund ta kemi zënë së prapthi punën me Internetin.
  • 00:06:04
    Në një shoqëri transmetimesh --
  • 00:06:06
    kështu thotë miti i themeleve të paktën --
  • 00:06:08
    në një shoqëri transmetimesh,
  • 00:06:10
    kishte roje, redaktorët,
  • 00:06:12
    dhe këta kontrollonin fluksin e informacionit.
  • 00:06:15
    Dhe më vonë erdh Interneti dhe i hoqi qafe ata,
  • 00:06:18
    u lejoi të tërëve të lidhen me njëri-tjetrin,
  • 00:06:20
    dhe deri këtu bukuri.
  • 00:06:22
    Por kjo nuk po ndodh tani.
  • 00:06:26
    Ajo që po shohim është më shumë kalim i stafetës
  • 00:06:29
    nga rojet njerëzore
  • 00:06:31
    te ato algoritmike.
  • 00:06:34
    Dhe puna është se algoritmet
  • 00:06:37
    ende nuk kanë të trupëzuar atë lloj etike
  • 00:06:40
    që kishin redaktorët.
  • 00:06:43
    Nëse për botën tonë do të kujdesen algoritmet,
  • 00:06:46
    nëse do të vendosin ata se çfarë të shohim dhe çfarë jo,
  • 00:06:49
    atëherë na duhet të sigurohemi
  • 00:06:51
    që nuk merren vetëm me gjërat e rëndësishme për dikë.
  • 00:06:54
    Na duhet të bëjmë të mundur që të na tregojnë edhe gjëra
  • 00:06:56
    që janë të sikletshme, dyshuese, me rëndësi --
  • 00:06:59
    kjo është ajo që bën TED-i --
  • 00:07:01
    këndvështrime të tjera.
  • 00:07:03
    Dhe çështja është që ne, si shoqëri,
  • 00:07:05
    e kemi kaluar një herë këtë.
  • 00:07:08
    Më 1915, gazetat nuk djersinin dhe aq shumë
  • 00:07:11
    lidhur me përgjegjësitë e tyre civile.
  • 00:07:14
    Dhe ja ku njerëzit vunë re
  • 00:07:16
    që ato po bënin diçka vërtet me rëndësi.
  • 00:07:19
    Që, në fakt, nuk mund të kishte
  • 00:07:21
    demokraci funksionale po qe se
  • 00:07:23
    qytetarëve nuk u shkonte një rrymë e shëndoshë informacioni,
  • 00:07:28
    që roli i gazetave ish kritik ngaqë funksiononin si filtër,
  • 00:07:31
    e kështu zuri fill etika e gazetarëve.
  • 00:07:33
    Nuk qe e përsosur,
  • 00:07:35
    por na bëri punë gjatë shekullit të kaluar.
  • 00:07:38
    Dhe sot në Web,
  • 00:07:40
    jemi paksa si më 1915-n.
  • 00:07:44
    Dhe na duhet që rojet e reja
  • 00:07:47
    ta fusin këtë lloj përgjegjësie
  • 00:07:49
    në kodin që po shkruajnë.
  • 00:07:51
    E di që ka plot nga Facebook-u dhe Google-i këtu --
  • 00:07:54
    Larry dhe Sergey --
  • 00:07:56
    persona që kanë dhënë ndihmesë në ndërtimin e Web siç është sot,
  • 00:07:58
    dhe u qofsha falë për këtë.
  • 00:08:00
    Por na duhet vërtet të sigurojmë
  • 00:08:03
    që në këto algoritme të kodohet
  • 00:08:06
    një ndjesi e jetës publike, një ndjesi e përgjegjësisë civile.
  • 00:08:09
    Kemi nevojë për ju që të bëjmë të mundur transparencën e mjaftueshme për to
  • 00:08:12
    që të mund të shohim se cilat janë rregullat
  • 00:08:14
    që përcaktojnë se çfarë kalon nëpër filtrin tonë.
  • 00:08:17
    Dhe është e nevojshme të na lejoni një farë kontrolli
  • 00:08:19
    që të mund të vendosim
  • 00:08:21
    çfarë kalon e çfarë jo.
  • 00:08:24
    Sepse mendoj
  • 00:08:26
    se kemi vërtet nevojë që Interneti të jetë ajo çka
  • 00:08:28
    krejt ne kemi ëndërruar të jetë.
  • 00:08:30
    Na duhet që të lidhemi me njëri-tjetrin.
  • 00:08:33
    Na duhet që të njihemi me ide të reja
  • 00:08:36
    dhe njerëz të rinj, këndvështrime të reja.
  • 00:08:40
    Dhe kjo nuk ka për t'u bërë, po qe se
  • 00:08:42
    lihemi të gjithë të izoluar në një Web individual.
  • 00:08:45
    Faleminderit.
  • 00:08:47
    (Duartrokitje)
Tag
  • filter bubble
  • personalizzazione algoritmica
  • responsabilità civica
  • equilibrio dell'informazione
  • trasparenza algoritmica
  • Facebook
  • Google
  • internet
  • democrazia
  • visione ristretta