Rabbit Holes, Virale Trends, Doomscrolling: Ist TikTok gefährlich? | 13 Fragen | unbubble

00:35:24
https://www.youtube.com/watch?v=36cwh1ti_RI

Résumé

TLDRDiskussionen om TikTok udforsker både dets potentielle risici som afhængighed og misinformation, samt de positive aspekter som muligheder for kreative udtryk og politisk engagement. Der er bekymring for, at TikTok kan fremme ekstremistisk indhold og skabe echo-kamre, hvilket kan påvirke brugernes verdensbillede. Deltagerne diskuterer også potentielle reguleringer og forslag til, hvordan man kan skabe et sundere socialt mediemiljø for unge, herunder styrkelse af faktatjek og begrænsninger for brugen af appen.

A retenir

  • 📱 TikTok kan skabe afhængighed, især blandt unge.
  • 🌐 Platformen er ofte kritiseret for at sprede misinformation.
  • 📣 TikTok giver mindre kendte stemmer mulighed for at blive hørt.
  • 💡 Der er behov for forbedrede faktatjek og reguleringer.
  • 🤝 Samfundet skal tage ansvar for brugerens engagement i sociale medier.

Chronologie

  • 00:00:00 - 00:05:00

    TikTok, der tilhører et kinesisk selskab, skaber bekymring på grund af sin evne til at fremme afhængighed, især blandt børn, samt risikoen for ekstremisme og mental sundhed. Diskussionen afspejler en bredere debat om sociale mediers indvirkninger.

  • 00:05:00 - 00:10:00

    Deltagerne indser, at de alle har brugt TikTok, og der diskuteres, om nutidens sociale mediers indflydelse skaber en afhængighed og kontroltab. Det understreges, at TikTok kan være både inspirerende og skadelig, afhængig af den enkeltes brug.

  • 00:10:00 - 00:15:00

    TikTok's design understøtter konstant forbrug, hvilket fører til en afhængighedseffekt. Deltagerne diskuterer, hvordan algoritmen skaber viralitet og muligheden for at skabe politiske bølger med #ReclaimTikTok, hvilket fremhæver både dets potentiale og risiko.

  • 00:15:00 - 00:20:00

    Det diskuteres, at selvom TikTok kan Fremme oplysning omkring sociale problemer, er der også en tendens til at populiere misinformation, hvilket kan føre til negative samfundsmæssige effekter. Komplekse emner får ikke samme opmærksomhed som klikbare, sensationelle indhold.

  • 00:20:00 - 00:25:00

    Der er en debat omkring platformens indflydelse på unges sikkerhed, med et fokus på nødvendigheden af at beskytte unge mod skadelig indhold og udfordringerne med regulering og ansvarlighed i sociale medier.

  • 00:25:00 - 00:30:00

    Lytterne er enige om, at der skal være foranstaltninger til at beskytte unge brugere, som potentielt kunne inkludere alderskontrol og begrænsninger for kontinuerlig scrolling. Der er også opfordringer til bedre metadata og fact-checking for at håndtere misinformation.

  • 00:30:00 - 00:35:24

    Afslutningsvis konkluderer deltagerne, at debatten om TikTok og dets indflydelse er kompleks og fremhæver behovet for en åbning om polarisering og regulering for at sikre, at sociale medier tjener demokratiske formål, snarere end at undergrave dem.

Afficher plus

Carte mentale

Vidéo Q&R

  • Er TikTok farligt for unge?

    Ja, der er bekymringer om afhængighed og påvirkning af unge på grund af platformens design.

  • Kan TikTok sprede misinformation?

    Ja, TikTok's algoritmer kan fremme populistisk indhold og misinformation.

  • Hvad er fordelene ved TikTok?

    TikTok giver mulighed for individuelle stemmer og stort indholdspotentiale.

  • Hvad gør TikTok for at beskytte brugere?

    TikTok implementerer funktioner som skærmtidspop-ups og algoritmeindstillinger.

  • Bør der være aldersbegrænsninger for TikTok?

    Mange mener, at der bør være aldersgrænser for brug af TikTok.

Voir plus de résumés vidéo

Accédez instantanément à des résumés vidéo gratuits sur YouTube grâce à l'IA !
Sous-titres
de
Défilement automatique:
  • 00:00:05
    Jede Generation hat ja so ihre
  • 00:00:07
    eigene Social Media Plattform.
  • 00:00:08
    Ob Snapchat, Instagram,
  • 00:00:10
    Facebook oder jetzt eben
  • 00:00:12
    TikTok. Und dieser wahnsinnig große
  • 00:00:14
    Erfolg von TikTok, der ist
  • 00:00:16
    für viele sehr beunruhigend.
  • 00:00:17
    Jetzt mal ganz abgesehen von
  • 00:00:19
    Suchtgefahr, von Fake News und
  • 00:00:21
    von gefährlichen Challenges.
  • 00:00:23
    TikTok gehört einem chinesischen
  • 00:00:25
    Konzern und dem wird immer wieder
  • 00:00:26
    vorgeworfen, diese App für
  • 00:00:29
    Propaganda und Spionage zu
  • 00:00:30
    missbrauchen.
  • 00:00:31
    Die USA will TikTok deswegen sogar
  • 00:00:33
    verbieten.
  • 00:00:34
    TikTok ist perfekt darauf ausgelegt,
  • 00:00:36
    Menschen möglichst lange auf der
  • 00:00:37
    Plattform zu halten.
  • 00:00:38
    Das birgt für Erwachsene, aber
  • 00:00:40
    besonders für Kinder eine große
  • 00:00:42
    Suchtgefahr.
  • 00:00:43
    TikTok ist eine Gefahr für unsere
  • 00:00:44
    Demokratie, weil
  • 00:00:45
    rechtsextremistische Kräfte dort wie
  • 00:00:47
    auf keiner anderen Social Media
  • 00:00:48
    Plattform Themen setzen können und
  • 00:00:49
    Menschen radikalisieren.
  • 00:00:51
    TikTok ist so gestaltet, dass
  • 00:00:52
    es Dauerkonsum begünstigt und bei
  • 00:00:54
    gefährdeten Personen zu einem
  • 00:00:56
    Kontrollverlust und mentalen
  • 00:00:57
    Problemen führen kann.
  • 00:00:59
    Aber es gibt auch viele, die das
  • 00:01:00
    ganz anders sehen und sagen: "TikTok
  • 00:01:02
    ist gerade die Plattform mit dem
  • 00:01:03
    größten Potenzial, die auch einfach
  • 00:01:05
    super viel Erfrischung und
  • 00:01:06
    Abwechslung bringt."
  • 00:01:08
    Auch wenn man keine große Reichweite
  • 00:01:09
    hat, hat man auf TikTok
  • 00:01:10
    wahrscheinlich die beste Chance,
  • 00:01:11
    sich eine Stimme zu verschaffen.
  • 00:01:13
    Bei TikTok zählt der individuelle
  • 00:01:14
    Content, jedes Video für sich.
  • 00:01:16
    Es muss nicht perfekt sein und auch
  • 00:01:18
    nicht überprofessionalisiert.
  • 00:01:19
    Für mich ist die Diskussion um
  • 00:01:21
    die Gefahren TikToks eher Symptom
  • 00:01:22
    dafür, dass wir als Gesellschaft
  • 00:01:24
    noch nicht stark genug reflektieren
  • 00:01:26
    über die Chancen, aber auch Risiken
  • 00:01:27
    von Social Media im Allgemeinen.
  • 00:01:29
    Jetzt erstmal die Frage an euch: Wo
  • 00:01:31
    auf dem Spielfeld würdet ihr stehen?
  • 00:01:33
    Grün für "TikTok ist super
  • 00:01:35
    gefährlich" oder gelb für:
  • 00:01:37
    "Nö. Ich bin Fan und das lasse
  • 00:01:39
    ich mir nicht nehmen." Schreib mir
  • 00:01:40
    das gerne mal in die Kommentare.
  • 00:01:41
    Wir starten mit einer kleinen
  • 00:01:43
    Bestandsaufnahme.
  • 00:01:43
    Und zwar möchte ich gerne erst mal
  • 00:01:45
    von euch wissen wer hat sich heute
  • 00:01:46
    schon bei TokTok ich sage es jetzt
  • 00:01:47
    richtig Boomer-mäßig eingeloggt.
  • 00:01:49
    Wer war schon online auf TikTok?
  • 00:01:51
    Wer hat schon gescrollt?
  • 00:01:52
    Oh fast alle.
  • 00:01:53
    Hey, warte mal.
  • 00:01:54
    Zu Recherchezwecken.
  • 00:01:56
    Okay?
  • 00:01:57
    Ich wollt grad sagen, du hast doch
  • 00:01:58
    kein TikTok mehr.
  • 00:01:59
    Ich hab's heute noch mal installiert um
  • 00:02:00
    noch mal reinzuschauen und up to
  • 00:02:01
    date zu sein.
  • 00:02:02
    Und? Ich habe es direkt bereut.
  • 00:02:04
    Okay.
  • 00:02:05
    Aber du.
  • 00:02:06
    Also, ihr habt mittlerweile so eine
  • 00:02:07
    Routine, dass sie wenn dann
  • 00:02:09
    reingehe, um mich selbst zu
  • 00:02:10
    inspirieren, was ich für Videos
  • 00:02:11
    machen möchte.
  • 00:02:12
    Ja, sonst versuche ich es auch
  • 00:02:14
    zu limitieren, weil es sonst
  • 00:02:16
    doom-scrolling.
  • 00:02:17
    Okay, Levi? Du?
  • 00:02:19
    Ich öffne Ticktack um zu arbeiten,
  • 00:02:21
    also sowohl zu Entertainment-Zwecken
  • 00:02:23
    als auch um Videos selbst zu
  • 00:02:25
    erstellen.
  • 00:02:26
    Alicia, warum hast du denn in the
  • 00:02:27
    first place TikTok überhaupt
  • 00:02:28
    gelöscht?
  • 00:02:29
    In erster Linie, weil ich gemerkt
  • 00:02:30
    habe, dass es eine riesen
  • 00:02:31
    Zeitverschwendung ist in meinem
  • 00:02:33
    Leben. Also ich habe teilweise mich
  • 00:02:34
    wiedergefunden nach einer Stunde
  • 00:02:36
    scrollen, obwohl ich nur mal kurz
  • 00:02:37
    reingucken wollte und ich wollte
  • 00:02:39
    einfach nicht mehr diesen
  • 00:02:40
    Kontrollverlust haben über meine
  • 00:02:42
    Lebenszeit und hab dann gedacht,
  • 00:02:43
    dann lösche ich es komplett.
  • 00:02:45
    Anna, was findest du auf TikTok
  • 00:02:47
    jetzt privat, wenn du dir den
  • 00:02:49
    Content anguckst, was du da spannend
  • 00:02:51
    findest. Was dir auf anderen
  • 00:02:52
    Plattformen fehlt oder vielleicht
  • 00:02:54
    früher gefehlt hat?
  • 00:02:54
    Ich lese extrem viel.
  • 00:02:56
    Und da kriege die beste Inspiration
  • 00:02:58
    von Leuten, die sehr, "relateable"
  • 00:03:00
    sind. Man spürt, es sind jetzt nicht
  • 00:03:01
    irgendwelche Firmen, wo man merkt,
  • 00:03:03
    okay, das ist schon alles sehr
  • 00:03:05
    professionell, sondern es sind
  • 00:03:06
    einfach so Menschen wie ich, die
  • 00:03:08
    Bücher feiern und dann über ihre
  • 00:03:09
    Erfahrung sprechen.
  • 00:03:10
    Und dann zeigt mir das TikTok
  • 00:03:12
    massenhaft an und das habe ich auf
  • 00:03:13
    keiner anderen Plattform.
  • 00:03:14
    Patrick, dass so viele von uns heute
  • 00:03:16
    schon an dieser App waren, auch wenn
  • 00:03:17
    es nur aus Arbeitsgründen war, das
  • 00:03:19
    zeigt ja schon mal, dass wir uns
  • 00:03:21
    irgendwie nicht ganz davon lösen
  • 00:03:22
    können. Was löst diese App in uns
  • 00:03:24
    aus? Was macht das in unserem...
  • 00:03:25
    was passiert in unserem Kopf, wenn
  • 00:03:26
    wir auf TikTok sind?
  • 00:03:27
    Was ich jetzt gehört habe, ist ja
  • 00:03:29
    ein bewusster Umgang, eine bewusste
  • 00:03:30
    Nutzung oder auch Nichtnutzung.
  • 00:03:32
    Ja, aber natürlich kann TikTok
  • 00:03:34
    das Belohnungssystem ansprechen.
  • 00:03:35
    Man kann dann so in einen Strudel
  • 00:03:37
    gelangen, dass man gar nicht mehr
  • 00:03:38
    aufhören will.
  • 00:03:39
    Auch durch die Kürze der Videos gar
  • 00:03:41
    nicht mehr bewusst reflektiert,
  • 00:03:42
    möchte ich das überhaupt?
  • 00:03:43
    Sondern sich quasi mit rein
  • 00:03:45
    lullen lässt und immer weiter
  • 00:03:46
    konsumiert ohne Ende.
  • 00:03:48
    Adil, das TikTok überhaupt so groß
  • 00:03:50
    wurde, wie es heute ist, das ist das
  • 00:03:52
    erste Mal in meinem Alltag so
  • 00:03:53
    richtig aufgetaucht 2020,
  • 00:03:55
    als wir alle zu Hause auf der Couch
  • 00:03:56
    saßen.
  • 00:03:57
    Und das war aber ein Zeitpunkt, wo
  • 00:03:59
    du schon komplett am Start warst,
  • 00:04:01
    da dir ein Business mit aufgebaut
  • 00:04:02
    hast und zwar die erste
  • 00:04:04
    TikTok-Agentur gegründet hast, wo du
  • 00:04:05
    unter anderem auch mit Levi
  • 00:04:07
    zusammenarbeitest, den du managt.
  • 00:04:08
    Einmal hier kleiner Disclaimer
  • 00:04:10
    was macht den TikTok so erfolgreich
  • 00:04:12
    aus deinen Augen?
  • 00:04:13
    TikTok war die erste Plattform, die
  • 00:04:15
    die Architektur der Algorithmen
  • 00:04:18
    angepasst hat.
  • 00:04:19
    Es wurde inhaltsbasiert
  • 00:04:21
    ausgespielt, contentbasiert
  • 00:04:22
    ausgespielt und nicht mehr statusbasiert,
  • 00:04:24
    wie es früher auf Instagram war.
  • 00:04:25
    Und das war damals sehr radikal
  • 00:04:27
    und neu. Und das führt zu
  • 00:04:29
    einem zu einer Art von Viralität,
  • 00:04:31
    wie es in der Form nie zuvor gab,
  • 00:04:33
    die aber mittlerweile auch von allen
  • 00:04:34
    anderen Plattformen übernommen
  • 00:04:35
    wurde.
  • 00:04:36
    Maggy, du hast dich ganz gezielt bei
  • 00:04:38
    TikTok angemeldet und dort ein
  • 00:04:39
    Account gemacht, mit dem du
  • 00:04:41
    eigentlich TikTok verändern
  • 00:04:42
    wolltest. Mit "ReClaim TikTok",
  • 00:04:44
    #reclaimTikTok. Kannst das einmal
  • 00:04:46
    erklären, was es damit auf sich hat.
  • 00:04:47
    Wir haben im Vorfeld der
  • 00:04:48
    Europawahlen gemerkt, dass es ein
  • 00:04:50
    unglaubliches Ungleichgewicht darin
  • 00:04:51
    gibt, worüber auf TikTok politisch
  • 00:04:53
    kommuniziert wird und worüber auch
  • 00:04:54
    nicht und dass rechtsextremistische
  • 00:04:56
    Accounts dort einfach klar im
  • 00:04:57
    Vorteil sind.
  • 00:04:59
    Deswegen haben wir so ein bisschen
  • 00:04:59
    versucht, mit der Initiative, andere
  • 00:05:02
    Stimmen irgendwie auf die Plattform
  • 00:05:03
    zu tragen. Haben Aktivist*innen
  • 00:05:04
    gezeigt, wie sie die App bedienen
  • 00:05:05
    und eben eine Welle gestartet,
  • 00:05:07
    wo sich Menschen auch angemeldet
  • 00:05:09
    haben auf TikTok und
  • 00:05:11
    Gegenposition bezogen.
  • 00:05:13
    Und das lief am Anfang auch sehr
  • 00:05:14
    gut. Da kam auf jeden Fall einiges
  • 00:05:16
    an Viralität zusammen.
  • 00:05:17
    Wir haben aber auch sehr schnell
  • 00:05:18
    gemerkt, dass TikTok einfach von der
  • 00:05:20
    Art und Weise, wie es funktioniert,
  • 00:05:22
    Populismus begünstigt,
  • 00:05:23
    Falschinformationen begünstigt und
  • 00:05:25
    Verknappung begünstigt und man
  • 00:05:27
    es sehr, sehr schwer hat, da seriöse
  • 00:05:29
    und gute politische Kommunikation zu
  • 00:05:30
    betreiben. Und dass Inhalte, die zum
  • 00:05:32
    Beispiel
  • 00:05:35
    sehr schnell sehr viel Aufmerksamkeit
  • 00:05:36
    ziehen, besser funktionieren als
  • 00:05:38
    die, die vielleicht ein bisschen
  • 00:05:39
    trockener oder langweiliger sind,
  • 00:05:40
    schafft einfach eine Inbalance.
  • 00:05:42
    Okay, Maggy sagt, TikTok bzw der
  • 00:05:44
    TikTok-Algorithmus befördert
  • 00:05:45
    Populismus.
  • 00:05:46
    Levi, da bist du ein Schritt nach
  • 00:05:47
    hinten gegangen. Die ganze gelbe
  • 00:05:48
    Seite eigentlich. Warum?
  • 00:05:49
    Ja, also mein subjektiver
  • 00:05:51
    Eindruck. Ich mache ja jetzt auch
  • 00:05:52
    seit einem halben Jahr TikTok Videos
  • 00:05:54
    und ich mache TikTok Videos,
  • 00:05:56
    die tatsächlich aufklären, also
  • 00:05:58
    beispielsweise in Bezug auf
  • 00:05:59
    Schneeballsysteme.
  • 00:06:00
    Aber auch wenn Leute behaupten,
  • 00:06:02
    ich bin der Typ aus dem Video
  • 00:06:04
    übrigens, da mache ich da gerne
  • 00:06:06
    Videos zu, wo ich darauf reagiere
  • 00:06:07
    und prüf: Ist das denn wirklich so?
  • 00:06:09
    Und das sind tatsächlich auch die
  • 00:06:10
    Videos, die bei mir am meisten am
  • 00:06:11
    besten laufen, am meisten Klicks
  • 00:06:12
    bekommen. Das sind auch meistens
  • 00:06:14
    Videos, die sind relativ lang, zwei,
  • 00:06:15
    drei Minuten.
  • 00:06:17
    Und trotzdem ist Aufklärungsarbeit,
  • 00:06:20
    auch wissenschaftsbasierte Videos
  • 00:06:23
    die Grundlage meines Erfolgs und
  • 00:06:26
    wie Maggy vollkommen richtig gesagt
  • 00:06:27
    hat, man muss die Leute davon
  • 00:06:29
    überzeugen in den ersten Sekunden,
  • 00:06:30
    dass sie sich dieses Video anschauen
  • 00:06:31
    sollen.
  • 00:06:32
    Aber man kann auch Interesse an
  • 00:06:34
    Videos wecken, ohne dass man sagt:
  • 00:06:35
    "Ausländer raus!"
  • 00:06:37
    Maggy, überzeugt dich das?
  • 00:06:39
    Also ich würde zustimmen, dass man
  • 00:06:40
    das erfolgreich tun
  • 00:06:42
    kann. Es ist einfach schwierig,
  • 00:06:43
    darauf angewiesen zu sein.
  • 00:06:44
    Und es ist schwierig, wenn es dann
  • 00:06:46
    Traffic weg von seriösen
  • 00:06:47
    Nachrichtenplattform gibt, die eben
  • 00:06:49
    auch den Anspruch haben, umfassend
  • 00:06:50
    zu informieren, weil eben bei TikTok
  • 00:06:52
    regelmäßig Themen untergehen.
  • 00:06:53
    Und False-Balancing passiert, selbst
  • 00:06:55
    wenn nur 20 % Falschinformation auf
  • 00:06:57
    80 % richtige Informationen kommen.
  • 00:06:59
    Die 20 % Falschinformationen sind
  • 00:07:01
    ein Problem und sind ein Thema
  • 00:07:03
    und dürfen einfach... und richten in
  • 00:07:04
    der Masse ein Schaden an.
  • 00:07:06
    Levi, da gehst du wieder einen Schritt auf Maggy zu.
  • 00:07:07
    Ja also es stimmt, es hat zwei
  • 00:07:09
    Seiten der Medaille. Es ist
  • 00:07:10
    vollkommen klar, Falschnachrichten
  • 00:07:13
    haben meistens...
  • 00:07:15
    lösen eher eine Neugier aus
  • 00:07:17
    als in Anführungszeichen "sachliche
  • 00:07:19
    Informationsauseinandersetzung".
  • 00:07:21
    Ich habe das auch selber bei mir
  • 00:07:22
    gemerkt. Relativ am Anfang, als ich
  • 00:07:23
    angefangen hab, Videos hochzuladen,
  • 00:07:25
    habe ich scherzhaft erzählt: "Leute,
  • 00:07:27
    saugt eure Decken, weil es
  • 00:07:28
    Weißlichtmilben gibt." Und die
  • 00:07:30
    Videos haben in kurzer Zeit
  • 00:07:32
    Millionen von Aufrufen bekommen und
  • 00:07:34
    das ganze Internet war voll von
  • 00:07:35
    Leuten, die sich gefragt haben,
  • 00:07:38
    ob man jetzt wirklich die Decke
  • 00:07:39
    saugen muss, wegen Weißlichtmilben.
  • 00:07:40
    Lass uns das Fake News Thema noch
  • 00:07:41
    ganz ganz kurz aufheben, weil
  • 00:07:42
    darüber werden wir auf jeden Fall
  • 00:07:43
    noch detailliert sprechen.
  • 00:07:45
    Hast du mit diesem Erfolg so
  • 00:07:46
    gerechnet, den du jetzt auf Tiktok
  • 00:07:48
    hast?
  • 00:07:48
    Nein, überhaupt nicht.
  • 00:07:49
    Also ich hab am Anfang habe ich mir
  • 00:07:50
    auch den extra einen neuen
  • 00:07:52
    Account erstellt, weil ich nicht
  • 00:07:53
    wollte, dass meine Freunde, die mir
  • 00:07:54
    auf meinem alten Account gefolgt
  • 00:07:55
    sind, die Videos sehen, weil ich
  • 00:07:57
    dachte, das wird total peinlich.
  • 00:07:58
    Ich glaube aber auch, dass der
  • 00:07:59
    Algorithmus von TikTok nicht ganz so
  • 00:08:01
    stark personenfokussiert ist, also
  • 00:08:03
    dass auch Personen schnell eine hohe
  • 00:08:04
    Reichweite gewinnen können, auch
  • 00:08:06
    wenn man sie nicht kennt.
  • 00:08:07
    Alicia, klingt ja erst mal super
  • 00:08:09
    gut, was Levi da jetzt erzählt, gehst auch einen
  • 00:08:10
    Schritt auf ihn zu.
  • 00:08:11
    Kann man das wie so eine Art
  • 00:08:12
    Liberalisierung, vielleicht auch der
  • 00:08:14
    Content-Creator-Blase
  • 00:08:16
    verstehen?
  • 00:08:16
    Total. Und da würde ich auch
  • 00:08:17
    zustimmen, dass diese
  • 00:08:19
    Liberalisierung des Marktes was
  • 00:08:20
    sehr, sehr Positives ist.
  • 00:08:22
    Also dass teilweise Menschen auch
  • 00:08:24
    in irgendwelchen Notsituationen
  • 00:08:25
    schnell auf ihr Problem aufmerksam
  • 00:08:27
    machen können und dass das dann
  • 00:08:29
    schnell viral geht.
  • 00:08:30
    Aber das ist auch ein
  • 00:08:31
    zweischneidiges Schwert, weil
  • 00:08:32
    genauso schnell kann eben
  • 00:08:34
    irgendein Mist viral gehen.
  • 00:08:36
    Anna, ein Video kann
  • 00:08:38
    ohne Reichweite viral gehen, aber
  • 00:08:40
    man muss um diese Reichweite
  • 00:08:41
    natürlich kämpfen.
  • 00:08:42
    Und es gibt Challenges, von denen
  • 00:08:43
    wir alle sicher schon gehört haben.
  • 00:08:44
    Eine, die ganz prominent besprochen
  • 00:08:46
    wurde, nenne ich einmal kurz als
  • 00:08:47
    Beispiel, ist die Blackout
  • 00:08:48
    Challenge, bei der Teilnehmende
  • 00:08:50
    versucht haben, sich selbst zu
  • 00:08:51
    strangulieren, um dann kurzen
  • 00:08:53
    Blackout zu erleben.
  • 00:08:54
    Also Mutproben, die es aber
  • 00:08:56
    ja vorher auch schon im Internet
  • 00:08:58
    gab. So schlimm das eben auch ist.
  • 00:09:00
    Du hast auch auf YouTube schon so
  • 00:09:01
    Mutproben früher gemacht oder?
  • 00:09:02
    Damals hab ich mit 13 auch diese
  • 00:09:04
    ganzen Challenges gemacht, wo man
  • 00:09:06
    sich so viel Marshmallows wie
  • 00:09:07
    möglich reingestopft hat.
  • 00:09:09
    Oder diese Cinnamon-Challenge, wo
  • 00:09:10
    man so einen richtig großen Löffel
  • 00:09:12
    Zimt isst.
  • 00:09:13
    Und das ist auch gefährlich
  • 00:09:15
    und blöd und hat es halt damals
  • 00:09:17
    auch schon geben. Natürlich, das ist
  • 00:09:18
    ein ganz anderes Level jetzt mit
  • 00:09:20
    diesem Strangulieren oder so, also
  • 00:09:22
    da muss ich auch sagen, da muss was
  • 00:09:24
    gemacht werden von Seiten TikToks,
  • 00:09:25
    dass die da viel mehr das
  • 00:09:27
    kontrollieren und so was verhindern
  • 00:09:29
    können gleich.
  • 00:09:31
    Ich finde das auch so ein bisschen
  • 00:09:32
    der Diskurs-Verzerrung, weil es
  • 00:09:34
    diese Challenges und dumme Mutproben
  • 00:09:36
    bei Jugendlichen schon immer gab.
  • 00:09:37
    Und das ist meistens so, dass da
  • 00:09:38
    irgendwelche Randphänomene groß
  • 00:09:40
    gemacht werden. Aber das sind
  • 00:09:41
    meistens tragische Einzelfälle und
  • 00:09:43
    im Regelfall kommt es auch
  • 00:09:44
    eigentlich nicht in der breiten
  • 00:09:45
    Masse an. Also ich glaube,
  • 00:09:46
    Jugendliche haben
  • 00:09:48
    einfach im Generellen eine
  • 00:09:50
    Tendenz zu Risikoverhalten in
  • 00:09:52
    Gruppen was auch immer, sich
  • 00:09:53
    gegenseitig auszustechen.
  • 00:09:54
    Okay, ich fasse trotzdem mal
  • 00:09:55
    zusammen: Ich glaube alle auf dem
  • 00:09:56
    Spielfeld sind sich einig, dass
  • 00:09:57
    Challenges nicht das größte Problem
  • 00:10:00
    von TikTok sind.
  • 00:10:01
    Alicia, ein anderes Thema was
  • 00:10:03
    trotzdem immer wieder kritisiert
  • 00:10:04
    wird, ist die Suchtgefahr.
  • 00:10:05
    Du hast gesagt, du hast TikTok
  • 00:10:07
    gelöscht. Gab es so einen gezielten
  • 00:10:08
    Moment, wo du gemerkt hast: "Boah,
  • 00:10:10
    jetzt wird es mir zu viel, mein
  • 00:10:12
    eigener Konsum davon oder
  • 00:10:13
    irgendwann, wo es dir mal super
  • 00:10:14
    schwer gefallen ist, die App
  • 00:10:16
    zu schließen?"
  • 00:10:16
    Ja, also es ist mir eigentlich
  • 00:10:18
    permanent schwergefallen, die App zu
  • 00:10:19
    schließen.
  • 00:10:20
    Ein Moment war,
  • 00:10:22
    als ich mir nach so einem ewigen
  • 00:10:24
    Suchtscrollen mal die Frage gestellt
  • 00:10:25
    habe: "Was habe ich eigentlich
  • 00:10:26
    gerade gesehen und an was erinnere
  • 00:10:28
    ich mich?" Und im Gegensatz dazu,
  • 00:10:30
    wenn ich jetzt zwei Stunde Doku im
  • 00:10:31
    Fernsehen gucke, wusste ich
  • 00:10:33
    eigentlich nicht mehr, was es war
  • 00:10:33
    wie schwarze Materie.
  • 00:10:35
    Anna, stimmst du Alicia da zu? Ich
  • 00:10:36
    glaub, du bist ein Schritt auf sie
  • 00:10:37
    zugegangen.
  • 00:10:38
    Ja, es ist halt bei TikTok
  • 00:10:40
    extrem dieses Belohnungssystem.
  • 00:10:41
    Wie schon angesprochen, das Dopamin
  • 00:10:43
    und auch selbst als Creator.
  • 00:10:44
    Im Endeffekt sucht man ja
  • 00:10:47
    das Dopamin von anderen.
  • 00:10:48
    Man möchte, dass die sich das
  • 00:10:49
    anschauen. Und es geht ja
  • 00:10:51
    auch darum, dass die da irgendwo
  • 00:10:52
    dieses High haben, dass die dann
  • 00:10:53
    nach sich denken: "Oh, das war ein
  • 00:10:54
    krasses Video."
  • 00:10:55
    Patrick, du bist selbst
  • 00:10:57
    Suchtmediziner und wenn
  • 00:10:59
    ich jetzt diesen Begriff
  • 00:11:00
    Suchtmediziner höre, dann würde ich
  • 00:11:02
    jetzt erst mal so an klassische
  • 00:11:03
    Süchte denken, wenn man das so
  • 00:11:04
    nennen kann. Also an Drogen,
  • 00:11:06
    Alkohol usw.
  • 00:11:08
    Inwiefern spielt denn TikTok auch
  • 00:11:10
    eine Rolle bei deiner Arbeit?
  • 00:11:11
    Ja, ganz generell sehen wir
  • 00:11:12
    natürlich, dass Verhaltenssüchte
  • 00:11:13
    mittlerweile ja auch offizielle
  • 00:11:15
    Diagnosen sind, in unserem
  • 00:11:16
    Diagnosystem.
  • 00:11:17
    Und TikTok ist im Moment keine
  • 00:11:19
    offizielle Diagnose.
  • 00:11:20
    Aber und das muss man auch sehen,
  • 00:11:22
    wenn wir schauen nach Kriterien,
  • 00:11:23
    also was sind denn Charakteristiken
  • 00:11:25
    für abhängiges Verhalten,
  • 00:11:27
    dann ist dieser Kontrollverlust, das
  • 00:11:28
    heißt, ich mache es, ich mache es,
  • 00:11:30
    ich mache es, und danach frage ich
  • 00:11:31
    mich, warum habe ich das überhaupt
  • 00:11:32
    gemacht, ganz klare Kriterien.
  • 00:11:34
    Dürfte ich fragen, wie groß das
  • 00:11:35
    Thema Einsamkeit dabei auch
  • 00:11:38
    eine Rolle spielt.
  • 00:11:39
    Weil ich hatte eine Phase meinem
  • 00:11:40
    Leben, da hatte ich kaum Freunde, da
  • 00:11:41
    habe ich irgendwie viel durchlebt.
  • 00:11:43
    Und dann hab ich gemerkt, war das
  • 00:11:44
    ganz schlimm.
  • 00:11:45
    Also aus persönlicher Erfahrung, aus
  • 00:11:46
    der klinischen Behandlung würde ich
  • 00:11:47
    sagen, das spielt absolut eine Rolle
  • 00:11:49
    und das zeigen auch große Studien.
  • 00:11:50
    Ja, gibt es vor allem aus China.
  • 00:11:51
    Ja, Studien sozusagen zum dortigen
  • 00:11:53
    Pendant. Dass Einsamkeit,
  • 00:11:55
    aber auch fliehen aus negativen
  • 00:11:56
    Gefühlen. Dann sind natürlich auch
  • 00:11:58
    Personen anfälliger, die eh schon zu
  • 00:11:59
    kämpfen haben mit sozialer
  • 00:12:00
    Isolation, mit Depression
  • 00:12:02
    und Ähnlichem gefährdet.
  • 00:12:03
    Ja, das ist ein großer, sozusagen
  • 00:12:05
    Treibstoff auf diese TikTok-Nutzung.
  • 00:12:07
    Ja, also die Einsamkeit wird dadurch
  • 00:12:09
    nicht gelöst, wird nur gedämpft
  • 00:12:11
    oder man entflieht dem Ganzen, aber
  • 00:12:13
    es wird nicht besser.
  • 00:12:14
    Aber jetzt kann man natürlich auch
  • 00:12:15
    sagen, jede Person ist selbst
  • 00:12:17
    verantwortlich für ihren eigenen
  • 00:12:18
    Social Media Konsum und es gehört
  • 00:12:19
    halt mittlerweile zu unserem Leben
  • 00:12:21
    dazu. Das heißt, wir müssen eben
  • 00:12:22
    einen Weg finden, wie wir damit
  • 00:12:23
    umgehen. Was wirfst du denn
  • 00:12:25
    spezifisch zu diesem Thema
  • 00:12:26
    Abhängigkeit, TikTok vor?
  • 00:12:29
    Genau. Also ich glaube, man kann
  • 00:12:31
    jetzt TikTok erst mal, da
  • 00:12:32
    bin ich relativ klar, gar kein
  • 00:12:34
    Vorwurf machen. Das ist ein
  • 00:12:35
    gewinnorientiertes Unternehmen, das
  • 00:12:36
    davon lebt, viele Nutzer auf der
  • 00:12:38
    Plattform zu halten.
  • 00:12:40
    Das finde ich erst mal völlig
  • 00:12:41
    neutral, muss man es sehen.
  • 00:12:43
    Wir müssen uns eben überlegen,
  • 00:12:45
    wollen wir analog zu anderen Formen,
  • 00:12:48
    wie Glücksspiel und Ähnlichem,
  • 00:12:49
    Regulierung vornehmen, um die
  • 00:12:51
    gefährdeten Gruppen und das sind
  • 00:12:53
    ja nicht alle Personen.
  • 00:12:54
    Viele nutzen TikTok sehr bewusst
  • 00:12:56
    und ich glaube unproblematisch.
  • 00:12:58
    Aber es gibt eben Personen, die sind
  • 00:13:00
    gefährdet. Und wir müssen uns
  • 00:13:01
    natürlich fragen, wie wollen wir
  • 00:13:02
    diese gefährdeten Personen schützen
  • 00:13:04
    und was können wir dafür tun?
  • 00:13:05
    Ein Verbot ist natürlich eine
  • 00:13:07
    Sache, aber Regeln
  • 00:13:09
    und Aufklärung ist eine andere
  • 00:13:10
    Sache, die glaube ich, sinnvoller
  • 00:13:11
    ist noch mal.
  • 00:13:11
    Adil, was wäre denn deiner Meinung
  • 00:13:13
    nach die Lösung dafür, junge
  • 00:13:15
    Menschen nicht in diese Social Media
  • 00:13:16
    Sucht zu treiben?
  • 00:13:17
    Ich bin auch gegen ein Verbot.
  • 00:13:20
    Ich finde es aber vollkommen valide,
  • 00:13:21
    darüber zu diskutieren, wie man
  • 00:13:24
    junge, vor allem junge Zielgruppen
  • 00:13:25
    schützen muss.
  • 00:13:27
    Ich sehe schon, dass TikTok etwas
  • 00:13:28
    tut. Also es gibt
  • 00:13:30
    Pop-Ups bei Bildschirmzeit, es gibt
  • 00:13:32
    die Möglichkeit, den Algorithmus zu
  • 00:13:34
    "unlearnen", also
  • 00:13:37
    zurückzustellen.
  • 00:13:38
    Es gibt die Möglichkeit, Videos, die
  • 00:13:39
    dem Rabbit-Hole entsprechen, zu
  • 00:13:41
    "unliken", damit das nicht mehr
  • 00:13:42
    angezeigt wird. Und so wie
  • 00:13:44
    ich das sehe bei vielen Creatorn,
  • 00:13:46
    aber auch Nutzern, funktioniert das.
  • 00:13:48
    Man muss es aber nutzen und alle
  • 00:13:49
    müssen natürlich wissen, also da
  • 00:13:50
    braucht es noch Aufklärung.
  • 00:13:52
    Das sieht Alicia nicht so.
  • 00:13:54
    Das letzte schon, aber
  • 00:13:56
    davor hattest du gesagt, dass viele
  • 00:13:58
    Nutzer das für sich auch schon gut
  • 00:13:59
    nutzen können.
  • 00:14:00
    Das würde ich so ein bisschen
  • 00:14:01
    anzweifeln. Ich habe da so ein
  • 00:14:02
    bisschen eine radikalere Meinung.
  • 00:14:04
    Ich würde behaupten, wir bräuchten
  • 00:14:06
    vielleicht sogar eine Altersgrenze
  • 00:14:07
    für TikTok, weil
  • 00:14:09
    mit 16 ist man vielleicht irgendwann
  • 00:14:11
    selbst dafür verantwortlich, mit 13
  • 00:14:12
    vielleicht auch. Aber was man ja
  • 00:14:14
    aktuell erlebt, ist, dass teilweise
  • 00:14:15
    Kinder im Alter von 10,11,12
  • 00:14:18
    Jahren schon auch aus Gruppendruck
  • 00:14:20
    irgendwie in der Klasse sagen: "Ich
  • 00:14:22
    will auf der App sein." Und
  • 00:14:23
    oft haben die Eltern nicht die
  • 00:14:24
    Medienkompetenz.
  • 00:14:25
    Die Schule kann es auch nicht
  • 00:14:26
    leisten, das noch gleichzeitig zu
  • 00:14:28
    vermitteln.
  • 00:14:28
    Und meiner Ansicht nach müssten wir
  • 00:14:30
    vielleicht einfach mal überlegen, ob
  • 00:14:32
    wir das nicht wie bei anderen
  • 00:14:33
    süchtig-machenden Substanzen
  • 00:14:35
    machen, dass wir da einen Riegel
  • 00:14:37
    vorschieben.
  • 00:14:38
    Ich muss da widersprechen, weil es
  • 00:14:40
    gibt eine Altersbeschränkung und die
  • 00:14:41
    ist 13 und TikTok.
  • 00:14:43
    Ich hab die Zahl vergessen, aber ich
  • 00:14:44
    glaube, es wird eine achtstellige
  • 00:14:45
    Anzahl an Accounts gelöscht, ich
  • 00:14:47
    meine im Monat, also für eine sehr
  • 00:14:49
    hohe Zahl.
  • 00:14:50
    Deshalb gibt es diese
  • 00:14:52
    Regelung.
  • 00:14:52
    Maggy, überzeugt dich das?.
  • 00:14:53
    Nicht wirklich.
  • 00:14:54
    Ich habe selber meine Erfahrung mit
  • 00:14:55
    diesem Alterserkennungsmechanismus
  • 00:14:57
    gemacht und habe erlebt, dass
  • 00:14:59
    keine Ahnung, teilweise Leute,
  • 00:15:01
    die sehr wohl im richtigen Alter
  • 00:15:03
    waren, um die App zu nutzen runter
  • 00:15:04
    gebannt wurden. Ich glaube nicht,
  • 00:15:05
    dass das außergewöhnlich gut
  • 00:15:06
    funktioniert. Ich glaube außerdem,
  • 00:15:07
    dass das halt nicht dann gemacht
  • 00:15:08
    wird, wenn es heißt, relevante
  • 00:15:10
    Mengen Aufmerksamkeit zu verlieren,
  • 00:15:11
    weil da schaltet TikTok tatsächlich
  • 00:15:13
    meistens nicht so souverän.
  • 00:15:14
    Was ich ganz häufig mache, wenn ich
  • 00:15:16
    durch den Feed scrolle und wenn
  • 00:15:17
    irgendwie gerade wieder eine
  • 00:15:18
    internationale Krise oder irgendwas
  • 00:15:20
    passiert, dann klick ich immer drauf
  • 00:15:21
    auf "Nicht interessiert", sobald der
  • 00:15:23
    Inhalt politisch wird, weil ich
  • 00:15:24
    nicht möchte, dass TikTok mir
  • 00:15:25
    überhaupt anfängt, zum Beispiel
  • 00:15:26
    Kriegsvideos anzuzeigen.
  • 00:15:28
    Ich möchte gar nicht erst in diesen
  • 00:15:29
    Propagandastrudel reinkommen.
  • 00:15:31
    Frage an euch mal zurückgegeben: Ist
  • 00:15:33
    euch das schon mal passiert, dass
  • 00:15:34
    ihr in so ein radikales Rabbit-Hole
  • 00:15:37
    reingesogen wurde, dass euch so
  • 00:15:39
    radikale Inhalte angezeigt wurden?
  • 00:15:40
    Ihr nickt...
  • 00:15:42
    Ich habe da eine Zahl zu. Die findet
  • 00:15:43
    man auch Netz. Und zwar wurde allein
  • 00:15:45
    im Dachraum 8 Millionen
  • 00:15:47
    mal dieser "Nicht-Liken"
  • 00:15:49
    oder "Gefällt-Mir-Nicht-Button"
  • 00:15:50
    angeklickt. Also jetzt kann man
  • 00:15:52
    nicht sagen 8 Millionen mal wie viel
  • 00:15:53
    waren das dann im Endeffekt.
  • 00:15:54
    Aber mein Feedback
  • 00:15:56
    ist, dass das schon funktioniert.
  • 00:15:57
    Es gibt diesen Button und er wird
  • 00:15:58
    auch genutzt. Die Frage ist, ob zur
  • 00:16:00
    Genüge.
  • 00:16:01
    Ihr habt gerade alle genickt bei den
  • 00:16:02
    extremen Inhalten.
  • 00:16:04
    Alicia. Wie war das bei dir?
  • 00:16:05
    Ich würde noch was ergänzen.
  • 00:16:06
    Ich habe zum Beispiel schon krasse
  • 00:16:08
    Autounfälle,
  • 00:16:11
    Szenen wo Menschen sterben auf
  • 00:16:12
    TikTok gesehen.
  • 00:16:14
    Ich habe die Täterin von
  • 00:16:15
    diesem ganz schlimmen Attentat
  • 00:16:17
    auf die 12-jährige Louise gesehen,
  • 00:16:19
    wie sie einen Tag nach der Tat
  • 00:16:20
    gepostet hat.
  • 00:16:21
    Ich glaube einfach, selbst
  • 00:16:23
    wenn man hinterher ist, ist man
  • 00:16:25
    nicht davor gefeit, irgendwelche
  • 00:16:26
    Inhalte zu sehen, die man vielleicht
  • 00:16:28
    nicht sehen sollte.
  • 00:16:28
    Und da auch wieder bezogen auf das
  • 00:16:30
    Alter.
  • 00:16:31
    Mit 18 verkraftet man das vielleicht
  • 00:16:32
    eher als mit 13.
  • 00:16:34
    Ja, ich wollte noch mal auf den
  • 00:16:35
    Punkt eingehen. Ich glaube, diese
  • 00:16:36
    ganzen Mechanismen,
  • 00:16:39
    wo der Nutzer aktiv werden muss, die
  • 00:16:41
    sind schön und gut, aber
  • 00:16:43
    genau die laufen quasi vorbei
  • 00:16:45
    an der gefährdeten Gruppe, die es
  • 00:16:47
    eben nämlich nicht schafft, die es
  • 00:16:48
    möglicherweise nicht schafft zu
  • 00:16:50
    kontrollieren, die sich gar nicht
  • 00:16:51
    bewusst ist sozusagen.
  • 00:16:53
    Und da bräuchte man passive
  • 00:16:54
    Mechanismen, also beispielsweise
  • 00:16:56
    Pausen nach X Videos,
  • 00:16:58
    dass man dann nicht mehr einfach
  • 00:17:00
    nur weiter scrollt um ein bewusstes
  • 00:17:02
    Reflektieren und Entscheiden: Möchte
  • 00:17:03
    ich überhaupt weitermachen?
  • 00:17:04
    Ermöglicht.
  • 00:17:04
    Wenn ich mir jetzt vorstelle, dass
  • 00:17:05
    jetzt 13-jährige mit solchen krassen
  • 00:17:08
    Algorithmen zu tun haben, wie
  • 00:17:09
    sie jetzt eben TikTok und Instagram
  • 00:17:12
    und so haben, dann würd ich
  • 00:17:13
    auch sagen, man kann nicht denen die
  • 00:17:15
    Verantwortung geben, wenn ich schon
  • 00:17:17
    damit Probleme habe.
  • 00:17:18
    Aber ist nicht, was ich mich gerade
  • 00:17:20
    frage, ist nicht aus Content
  • 00:17:21
    CreatorPerspektive, aus der ihr drei
  • 00:17:22
    ja auch alle sprecht.
  • 00:17:23
    Ist es nicht auch gewünscht, die
  • 00:17:25
    Leute ein bisschen in dieses
  • 00:17:26
    Rabbit-Hole sich ziehen zu lassen,
  • 00:17:27
    damit sie eben eure Videos
  • 00:17:29
    angezeigt bekommen?
  • 00:17:30
    Es ist immer die Frage, welche Art
  • 00:17:32
    von Rabbit-Hole. Wenn das
  • 00:17:32
    Rabbit-Hole jetzt Malte Zierden ist,
  • 00:17:35
    der Tierheime baut im Ausland, dann
  • 00:17:36
    ist das erst mal eine gute Sache,
  • 00:17:37
    die man unterstützt.
  • 00:17:38
    Oder Nadine, die größte TikTokerin in Deutschland,
  • 00:17:40
    die über Selbstliebe spricht und
  • 00:17:41
    mentale Gesundheit. Also das sind
  • 00:17:42
    alles gute Themen, die jungen
  • 00:17:44
    Menschen auch Mut schenken.
  • 00:17:46
    Auf der anderen Seite sehe ich
  • 00:17:48
    natürlich schon die Gefahr dessen
  • 00:17:49
    und bin auch gar nicht gegen eine
  • 00:17:51
    Art von Regulierung, die glaubeich,
  • 00:17:53
    also langfristig auch im Interesse
  • 00:17:54
    aller sein sollte, weil man Social
  • 00:17:55
    Media auf die Weise gesünder nutzen
  • 00:17:57
    kann. Deshalb will ich der Seite gar
  • 00:17:58
    nicht per se widersprechen.
  • 00:18:00
    Levi, Adil hat es gerade gesagt,
  • 00:18:02
    diese krass zugeschnittenen
  • 00:18:04
    Inhalte, also dass manche sagen, der
  • 00:18:06
    Algorithmus, der kennt mich
  • 00:18:07
    irgendwie besser als meine beste
  • 00:18:08
    Freundin oder so.
  • 00:18:09
    Das kann ja auch positive Aspekte
  • 00:18:11
    haben. Hast du selbst schon dieses
  • 00:18:12
    Gefühl gehabt von, "Oh TikTok gibt
  • 00:18:14
    mir so eine Art Zugehörigkeit.
  • 00:18:15
    Ich finde eine Community, ich finde
  • 00:18:17
    vielleicht neue Freunde,
  • 00:18:18
    Freundinnen."
  • 00:18:18
    Ich glaube was ich oft hatte,
  • 00:18:20
    ist auch ein Gefühl, verstanden
  • 00:18:23
    zu werden und gehört zu werden von
  • 00:18:24
    Personen, die vielleicht auch in
  • 00:18:25
    ähnlichen Situationen sind wie ich.
  • 00:18:27
    Vielleicht auch in emotionalen,
  • 00:18:28
    belastenden Situationen.
  • 00:18:30
    Beispielsweise als meine Freundin
  • 00:18:31
    und ich sich getrennt haben, habe
  • 00:18:33
    ich wahnsinnig viele Break-Up-Videos in
  • 00:18:34
    meine Timeline gespielt
  • 00:18:35
    bekommen.
  • 00:18:37
    Was aber für mich eigentlich total
  • 00:18:40
    passend war, weil ich gemerkt habe,
  • 00:18:41
    ich bin nicht alleine, wie ich mich
  • 00:18:43
    fühle. Es gibt andere Personen in
  • 00:18:44
    meiner Situation und
  • 00:18:47
    ich würde dieses Rabbit-Hole und
  • 00:18:50
    in Bubbles rutschen, gerade
  • 00:18:52
    in Bezug auf Politik auch gar nicht
  • 00:18:53
    so in schwarz und weiß sehen,
  • 00:18:56
    weil ich mich noch erinnern kann.
  • 00:18:57
    Vor zehn Jahren haben wir noch
  • 00:18:58
    gesagt die Jugend, die ist heute so
  • 00:18:59
    unpolitisch.
  • 00:19:00
    Und jetzt haben wir durch TikTok
  • 00:19:02
    auch durch andere Soziale Medien
  • 00:19:04
    starke Politisierungsprozesse
  • 00:19:06
    unter Jugendlichen.
  • 00:19:07
    Wir sehen auch steigende
  • 00:19:08
    Wahlbeteiligung bei jungen Personen.
  • 00:19:10
    Und wenn wir über radikale Parteien
  • 00:19:13
    extremistischer Bestrebungen
  • 00:19:14
    sprechen, müssen wir auch darüber
  • 00:19:16
    sprechen. Also TikTok,
  • 00:19:18
    Instagram Reels und Co, sind ganz
  • 00:19:19
    real auch einfach, können auch ganz
  • 00:19:21
    real einfach unsere Demokratie
  • 00:19:22
    bereichern.
  • 00:19:25
    Wenn wir jetzt den Rabbit-Hole-Effekt
  • 00:19:27
    übertragen auf politische Inhalte
  • 00:19:29
    und es wurden ja gerade auch schon
  • 00:19:30
    rechtsextreme Inhalte genannt,
  • 00:19:32
    inwiefern kann der dann gefährlich
  • 00:19:33
    sein?
  • 00:19:34
    Weil man nur noch eine Seite
  • 00:19:36
    der Medaille gezeigt bekommt, weil
  • 00:19:37
    man Informationen von einer Seite
  • 00:19:39
    bekommt, Weil man immer tiefer
  • 00:19:41
    in Disinformationsschleifen
  • 00:19:42
    reinkommt. Vielleicht, weil man
  • 00:19:44
    irgendwie einen Influencer gesehen
  • 00:19:45
    hat, der leicht am rechten Rand
  • 00:19:47
    unterwegs ist und davon dann nur
  • 00:19:49
    noch ein paar Stunden braucht, bis
  • 00:19:50
    man plötzlich bei der Identitären
  • 00:19:51
    Bewegung ist, was Videos angeht.
  • 00:19:53
    Das ist auf TikTok einfach sehr sehr
  • 00:19:55
    schnell möglich und es gibt einfach
  • 00:19:56
    keinen Gegensteuerungsmechanismus,
  • 00:19:58
    weil das nicht wirklich diskussionsbasiert
  • 00:19:59
    ist und weil es keinen
  • 00:20:00
    Fact-Checking-Mechanismus gibt.
  • 00:20:02
    Siehst du da das Problem auch, Adil?
  • 00:20:04
    Jein.
  • 00:20:04
    Der Grundgedanke ist richtig.
  • 00:20:06
    Die Konklusion ist, finde
  • 00:20:08
    ich, die Falsche.
  • 00:20:09
    Ich finde schon wichtig, dass wir
  • 00:20:10
    uns die richtige Frage stellen, weil
  • 00:20:12
    wir sollten eher darüber reden, wie
  • 00:20:13
    wir gesünder mit Social Media
  • 00:20:14
    umgehen und wie wir auf allen
  • 00:20:15
    Ebenen, wir haben über Bildung
  • 00:20:16
    gesprochen, wir haben über Regulierung
  • 00:20:18
    gesprochen, also über rechtliche
  • 00:20:19
    Basis, dafür sorgen,
  • 00:20:21
    dass es
  • 00:20:23
    Awareness gibt, dass es Education
  • 00:20:24
    gibt und dass wir vielleicht auch
  • 00:20:26
    Regeln schaffen. Aber das am
  • 00:20:27
    Beispiel TikTok zu manifestieren,
  • 00:20:29
    finde ich, führt in die falsche
  • 00:20:31
    Richtung.
  • 00:20:32
    Patrick.
  • 00:20:32
    Genau.
  • 00:20:33
    Zur Conclusio.
  • 00:20:34
    Ich glaube, das ist ja kein
  • 00:20:35
    Gegenbeweis, wenn man sagt: "Na ja,
  • 00:20:36
    auf YouTube war es auch schon mal
  • 00:20:37
    Thema oder auf anderen Plattformen."
  • 00:20:39
    Ich glaube, es ist weiterhin Thema
  • 00:20:41
    und es ist noch nicht wirklich
  • 00:20:42
    gelöst. Das ist glaube ich und
  • 00:20:43
    deshalb ist die Diskussion so
  • 00:20:45
    wichtig, darüber zu sprechen.
  • 00:20:46
    Levi, du hast ja auch...
  • 00:20:47
    Ja, und ergänzend dazu: Wir
  • 00:20:49
    erleben einfach nur auf verschiedenen
  • 00:20:50
    Social Media Plattformen, wie
  • 00:20:51
    rechtsextremistische Netzwerke es
  • 00:20:53
    schaffen, diese Plattform für sich
  • 00:20:54
    zu nutzen, die Algorithmen
  • 00:20:56
    perfekt zu verstehen und das Ganze
  • 00:20:57
    irgendwie auszunutzen, um eben
  • 00:20:59
    Diskurshoheit zu gewinnen.
  • 00:21:00
    Und das alles hat uns diese
  • 00:21:01
    Situation gebracht, in der weltweit
  • 00:21:03
    rechtsextremistische Kräfte auf dem
  • 00:21:04
    Vormarsch sind.
  • 00:21:05
    Was macht denn die AfD und
  • 00:21:07
    andere rechte Propagandisten?
  • 00:21:09
    Was machen die denn besser?
  • 00:21:10
    Ich würde mal sagen besser, die
  • 00:21:12
    können sich einfach aussuchen, was
  • 00:21:13
    ist gerade die Informationen sind,
  • 00:21:14
    die zu ihrer Weltsicht passen.
  • 00:21:16
    Die können sich aussuchen, was
  • 00:21:18
    passiert sein soll, also die Welt
  • 00:21:19
    sich zurecht lügen ist immer ein
  • 00:21:20
    bisschen leichter und das kann man
  • 00:21:21
    in alle möglichen politischen
  • 00:21:23
    Richtungen machen. Das ist halt ein
  • 00:21:24
    Grundelement von extremistischen
  • 00:21:26
    Ideologien, dass das passiert.
  • 00:21:27
    Ich glaube zwar, demokratische
  • 00:21:28
    Parteien sollten besser darauf
  • 00:21:30
    achten, TikTok irgendwie auch als
  • 00:21:31
    wichtigen Teil ihrer Arbeit
  • 00:21:33
    aufzunehmen und auch besser auf
  • 00:21:34
    TikTok vertreten zu sein.
  • 00:21:36
    Aber eine Arbeit, die nur darauf
  • 00:21:37
    ausgerichtet ist, auf TikTok gut
  • 00:21:39
    zu klicken, wird ja einfach auch
  • 00:21:41
    unserem sehr komplexen politischen
  • 00:21:42
    System nicht gerecht.
  • 00:21:44
    Was ich noch mal in dieser
  • 00:21:45
    Diskussion um Blasenbildung
  • 00:21:46
    einwerfen würde.
  • 00:21:47
    Blasen gibt es ja nicht nur auf
  • 00:21:48
    Social Media. Also wenn ich jetzt in
  • 00:21:49
    einem ostdeutschen Dorf aufwachse
  • 00:21:51
    und da die ganze Zeit meiner
  • 00:21:52
    rechtsradikalen, rechtsextremen
  • 00:21:53
    Eltern hab und dann vielleicht noch
  • 00:21:56
    die Eltern, dann vielleicht doch
  • 00:21:57
    noch abends zum Stammtisch gehen,
  • 00:21:58
    dann ist das ja auch eine Blase.
  • 00:21:59
    Und da kann dann Social Media,
  • 00:22:01
    TikTok, vielleicht sogar eine Chance
  • 00:22:02
    sein, dass man auch mal einen
  • 00:22:03
    anderen Blick auf die Welt bekommt.
  • 00:22:05
    Das ist jetzt natürlich ein sehr,
  • 00:22:07
    sehr stereotypisch.
  • 00:22:08
    Aber Blasen durchbrechen,
  • 00:22:10
    das ist nicht nur eine Herausforderung,
  • 00:22:11
    die wir in Bezug auf TikTok und
  • 00:22:13
    Social Media haben.
  • 00:22:14
    Maggy, da stimmst du zu.
  • 00:22:15
    Finde ich absolut überzeugend.
  • 00:22:16
    Würde ich auch so sehen.
  • 00:22:17
    Ich glaube außerdem, dass soziale
  • 00:22:18
    Netzwerke da generell den ganz
  • 00:22:19
    positiven Effekt haben.
  • 00:22:20
    Ich meine, ich selber habe politisch
  • 00:22:22
    angefangen bei Fridays of Future.
  • 00:22:24
    Das hätte es ohne Social Media nicht
  • 00:22:25
    gegeben. Und darüber überhaupt
  • 00:22:26
    einfach politisch mal raus zu
  • 00:22:28
    drängen und eben auch in die breite
  • 00:22:30
    Welt raus zu drängen.
  • 00:22:30
    Und in dem Sinne, da ist
  • 00:22:32
    Social Media einfach auch ein
  • 00:22:33
    "enabler" auf jeden Fall.
  • 00:22:35
    Gefährlich wird es halt dann, wenn
  • 00:22:37
    keine Regulierung erfolgt.
  • 00:22:38
    Ja, und mich würde auch total
  • 00:22:40
    noch mal interessieren, wie das ein
  • 00:22:41
    Weltbild beeinflussen kann, gerade
  • 00:22:43
    in dem jungen Alter.
  • 00:22:44
    Patrick an dich: Welchen Einfluss
  • 00:22:46
    kann denn Propaganda, Fake
  • 00:22:48
    News, Desinformation auf Personen
  • 00:22:50
    haben, die noch mitten in der
  • 00:22:52
    Persönlichkeitsentwicklung sind?
  • 00:22:53
    Das kann das Weltbild beeinflussen.
  • 00:22:54
    Es kann natürlich sozusagen aus
  • 00:22:56
    Sicht des Mediziners natürlich auch
  • 00:22:57
    Gesundheitsverhalten möglicherweise
  • 00:22:59
    negativ beeinflussen.
  • 00:23:00
    Das heißt, wenn ich beispielsweise
  • 00:23:02
    an einer Essstörung leide und
  • 00:23:04
    sehe, je dünner,
  • 00:23:06
    je dünner, desto besser, dann kann
  • 00:23:08
    ich natürlich in dieser Sicht und in
  • 00:23:09
    diesem sozusagen falschen
  • 00:23:11
    Selbstbild, das sehen wir auch
  • 00:23:12
    häufig, sozusagen, dass ich mich
  • 00:23:13
    selbst eigentlich als viel zu dick
  • 00:23:15
    wahrnehme, ja befeuern.
  • 00:23:17
    Aber eben ehrlicherweise sich gerade
  • 00:23:19
    auf TikTok sehr viel
  • 00:23:21
    Content zu Body Positivity und
  • 00:23:23
    kein toxisches Schönheitsideal
  • 00:23:25
    mehr, wie es vielleicht noch
  • 00:23:26
    Instagram zugeschrieben wurde.
  • 00:23:28
    Ich bekomme immer die Videos
  • 00:23:29
    ausgespielt, wo Leute darauf
  • 00:23:31
    reagieren und sagen: "What the fuck
  • 00:23:33
    ist jetzt dieser neue Trend schon
  • 00:23:34
    wieder?" Es gibt gute Creator,
  • 00:23:36
    die sich nur darauf spezialisiert
  • 00:23:39
    haben und die Millionen Follower
  • 00:23:40
    haben, was ja ein positives
  • 00:23:42
    Anzeichen ist, dass das schon sehr
  • 00:23:43
    beliebt ist. Aber es gibt halt
  • 00:23:44
    leider auch immer noch die
  • 00:23:45
    Gegenbewegung.
  • 00:23:46
    Zum Abschluss müssen wir natürlich
  • 00:23:47
    noch mal über die politische Debatte
  • 00:23:49
    dahinter sprechen.
  • 00:23:50
    TikTok, einmal an euch alle, wurde
  • 00:23:53
    in den USA ein Ultimatum gestellt
  • 00:23:55
    mit der Forderung nach einem
  • 00:23:56
    Eigentümerwechsel.
  • 00:23:57
    Wenn das nicht passiert, dann droht
  • 00:23:59
    TikTok ein Verbot in den USA.
  • 00:24:01
    Mich würde einmal von euch
  • 00:24:02
    interessieren, einmal so in den Raum
  • 00:24:03
    gefragt: Wie nehmt ihr diese Debatte
  • 00:24:05
    wahr? Levi, einmal du vielleicht.
  • 00:24:07
    Also es ist eine komplizierte
  • 00:24:09
    Situation.
  • 00:24:10
    China besitzt TikTok und China
  • 00:24:12
    ist ein totalitärer Staat.
  • 00:24:14
    Da führt kein Weg dran vorbei.
  • 00:24:15
    Und da kann man noch so viel
  • 00:24:17
    Transparenz schaffen, da ist ein
  • 00:24:18
    gewisses Misstrauen mit verbunden.
  • 00:24:20
    Und ich kann dieses Misstrauen
  • 00:24:21
    persönlich auch nachvollziehen.
  • 00:24:24
    Ich glaube, dass der Diskurs
  • 00:24:26
    jetzt auch in Hinblick auf die
  • 00:24:27
    Wahlen in den USA etwas
  • 00:24:29
    zu populistisch geführt wird
  • 00:24:32
    und dass sich da auch Dinge
  • 00:24:34
    vermischen. Ich glaube, da geht es
  • 00:24:35
    nicht nur um den Besitzer in China,
  • 00:24:37
    sondern da geht es auch um gewisse
  • 00:24:40
    andere Vorbehalte, die man der
  • 00:24:42
    gegenüber anderen Plattform auch hat
  • 00:24:44
    und das dann vielleicht auf TikTok
  • 00:24:45
    so ein bisschen kanalisiert.
  • 00:24:46
    Aber am Ende ist das eine
  • 00:24:48
    Diskussion, von der ich auch glaube,
  • 00:24:50
    dass wir sie führen müssen.
  • 00:24:51
    Alicia, wie nimmst du die Debatte
  • 00:24:52
    um?
  • 00:24:53
    Auf jeden Fall in großen Teilen
  • 00:24:55
    zustimmen.
  • 00:24:56
    Ich finde es manchmal auch ein
  • 00:24:57
    bisschen scheinheilig, weil ich mir
  • 00:24:58
    denke, Facebook und Co sind
  • 00:25:01
    auch ähnliche Datenkraken.
  • 00:25:02
    Ich finde, wir machen das in der EU
  • 00:25:04
    eigentlich schon ganz okay
  • 00:25:06
    im Vergleich zu dem Rest der Welt,
  • 00:25:08
    dass wir zumindest so ein paar
  • 00:25:09
    Richtlinien an Plattform stellen.
  • 00:25:10
    Das war jetzt zum Beispiel so, dass
  • 00:25:12
    Threads viel länger gebraucht hat,
  • 00:25:13
    in der EU durchzukommen, als es
  • 00:25:15
    jetzt in anderen Ländern war.
  • 00:25:16
    Und ich glaube, da müssen wir
  • 00:25:17
    einfach so ein bisschen noch
  • 00:25:18
    nachbessern, dass wir
  • 00:25:20
    an alle, auch an TikTok vor allem,
  • 00:25:22
    weil es eben ganz extrem ist, aber
  • 00:25:24
    auch an die amerikanischen
  • 00:25:25
    Unternehmen einfach krassere
  • 00:25:27
    Anforderungen stellen, damit eben
  • 00:25:29
    das sich nicht negativ
  • 00:25:30
    verselbstständigt.
  • 00:25:31
    Nimmst du das auch so wahr, dass es
  • 00:25:32
    scheinheilig ist, dass man dann auf
  • 00:25:34
    einmal kritischer darauf schaut,
  • 00:25:35
    wenn es außerhalb der USA verortet
  • 00:25:36
    ist, so ein Konzern?
  • 00:25:38
    Na ja, also dass China ein
  • 00:25:39
    systematisches Interesse daran hat,
  • 00:25:41
    westliche Demokratien zu
  • 00:25:42
    destabilisieren, ist ja einfach
  • 00:25:43
    tragischerweise ein Fakt.
  • 00:25:44
    Das ist ja noch mal was anderes,
  • 00:25:45
    einfach. Als diese US
  • 00:25:47
    Unternehmer, die in dem Sinne
  • 00:25:49
    ein Interesse daran haben Profite zu
  • 00:25:50
    machen. Und das kann man gut oder
  • 00:25:52
    schlecht finden, aber das ist
  • 00:25:53
    einfach noch mal weniger
  • 00:25:54
    systematisch.
  • 00:25:55
    Aber Elon Musk hat ja zum Beispiel
  • 00:25:56
    auch Einfluss darauf gehabt, ob
  • 00:25:57
    Trump jetzt auf Twitter auf X
  • 00:25:59
    aktiv sein kann oder nicht.
  • 00:26:01
    Ja, und das finde ich furchtbar.
  • 00:26:01
    Ich finde nicht, dass große
  • 00:26:02
    Plattformen von Rechtsextremisten in
  • 00:26:04
    Deutschland so frei unterwegs sein
  • 00:26:06
    sollten. Und das ist ein richtig
  • 00:26:07
    großes Problem. Und ich
  • 00:26:09
    habe auf jeden Fall auch zu Twitter
  • 00:26:10
    sehr ambivalente Gefühle.
  • 00:26:11
    Ich habe das Gefühl, das sind nur
  • 00:26:12
    Debatten, die für mich jetzt nicht
  • 00:26:13
    unbedingt gegeneinander
  • 00:26:15
    stehen. Ich finde einfach, an und
  • 00:26:17
    für sich genommen ist einfach die
  • 00:26:18
    chinesische Regierung kein guter
  • 00:26:20
    Speicher für unsere Daten.
  • 00:26:21
    Und ist es einfach immer noch nicht
  • 00:26:23
    klar, wie die chinesische Regierung
  • 00:26:25
    auch aktiv eingreift, weil
  • 00:26:26
    es dazu keine Daten gibt, weil
  • 00:26:28
    TikTok die Daten selbst nicht
  • 00:26:29
    rausrückt. Es gibt Indizien dafür,
  • 00:26:31
    dass an manchen Stellen eingegriffen
  • 00:26:33
    wird, beispielsweise bei
  • 00:26:34
    Berichterstattung, die kritisch an
  • 00:26:36
    die Umstände in China rangeht,
  • 00:26:38
    irgendwie runter reguliert wird,
  • 00:26:39
    nicht durchkommt oder so was
  • 00:26:40
    beispielsweise aber auch Begriffe
  • 00:26:41
    wie Wahlen performen teilweise
  • 00:26:43
    schlechter. Das ist etwas, was man
  • 00:26:45
    dringend untersuchen müsste.
  • 00:26:46
    Aber TikTok schafft da nicht die
  • 00:26:47
    nötige Transparenz.
  • 00:26:48
    Fake News. Das sind Fake
  • 00:26:50
    News, muss ich so sagen.
  • 00:26:52
    Also da können wir gerne nach der
  • 00:26:54
    Sendung darüber reden, welche
  • 00:26:55
    Quellen du da hast. Aber ich halte
  • 00:26:56
    das für Hanebüchen. Also
  • 00:26:59
    TikTok hat sehr sehr starke Regularien.
  • 00:27:00
    Und TikTok baut gerade
  • 00:27:02
    ein Datencenter für, ich glaube 12
  • 00:27:03
    Milliarden Invest in Europa.
  • 00:27:05
    Das aber systematisch, weil hier
  • 00:27:06
    wurde ja wirklich von systematisch
  • 00:27:07
    gesprochen und dem chinesischen
  • 00:27:09
    Staat, der Interesse hat,
  • 00:27:10
    Demokratien zu destabilisieren.
  • 00:27:11
    Das halte ich für wirklich
  • 00:27:12
    gefährlich, weil damit führen wir
  • 00:27:14
    die falsche Debatte und dann sind
  • 00:27:15
    wir wieder weg von, wie können wir
  • 00:27:17
    gemeinsam Lösungen finden und
  • 00:27:18
    Regularien erarbeiten, hinzu, aus
  • 00:27:20
    meiner Sicht wirklich Fake News.
  • 00:27:22
    Die chinesische Regierung an und für
  • 00:27:23
    sich ist eine Autokratie, ist eine
  • 00:27:25
    Diktatur in dem Sinne und hat
  • 00:27:27
    einfach kein Interesse an
  • 00:27:29
    demokratischen Regimen in der Welt
  • 00:27:31
    und demokratischen Ländern
  • 00:27:32
    usw und hat ein Interesse
  • 00:27:34
    daran, dass die irgendwie in der
  • 00:27:35
    Form destabilisiert werden.
  • 00:27:37
    Arbeitet ja teilweise auch mit
  • 00:27:38
    Russland zusammen usw.
  • 00:27:39
    Das sind ja Fälle die man kennt.
  • 00:27:40
    Und bei den anderen Sachen habe ich
  • 00:27:42
    gesagt, dass es Indizien gibt.
  • 00:27:43
    Ich weiß nicht genau, ob das stimmt
  • 00:27:45
    oder nicht stimmt oder so was.
  • 00:27:46
    Ich glaube nur, dass das halt
  • 00:27:47
    geprüft werden muss. Und wenn das
  • 00:27:48
    tatsächlich stimmt, ist es einfach
  • 00:27:50
    eine Katastrophe.
  • 00:27:51
    Was ich selbst oft erlebe ist es ist
  • 00:27:53
    einfach tatsächlich, dass
  • 00:27:54
    Desinformation nicht genug
  • 00:27:55
    entgegengetreten wird.
  • 00:27:56
    Und das ist manchmal außergewöhnlich
  • 00:27:58
    schwierig ist, mit wichtigen
  • 00:28:00
    Themen durchzudringen.
  • 00:28:02
    Anna, was sagst du dazu?
  • 00:28:03
    Ich glaube jetzt zum Thema, dass die
  • 00:28:04
    das jetzt machen, denk ich mir okay,
  • 00:28:06
    jetzt, wie lang gibt es generell
  • 00:28:08
    jetzt schon Ticktack, wie lange gibt
  • 00:28:10
    es schon Social Media Plattformen?
  • 00:28:11
    Also es ist halt jetzt relativ
  • 00:28:13
    spät erst, würde
  • 00:28:15
    ich sagen, eigentlich sollte man da
  • 00:28:16
    vorher schon sicherstellen, dass die
  • 00:28:17
    Daten von uns gut
  • 00:28:19
    aufbewahrt werden.
  • 00:28:20
    Ich muss da intervenieren, weil es
  • 00:28:22
    gibt einen Transparency-Report von
  • 00:28:23
    TikTok, den kann sich jeder im
  • 00:28:24
    Internet anschauen und da sagen die
  • 00:28:25
    ganz genau, was mit den Daten
  • 00:28:26
    passiert, wer Einblick hat, welche
  • 00:28:27
    Mitarbeiter Zugriff haben usw.
  • 00:28:29
    Und ich glaube, bei allem Respekt,
  • 00:28:30
    dass das nicht jeder hier gelesen
  • 00:28:31
    hat und sonst würde es ....Nein ich
  • 00:28:33
    meine nicht dich Anna.
  • 00:28:35
    Sonst würden nicht solche Gerüchte gestreut, weil
  • 00:28:36
    aus meiner Sicht Indizien mag sein,
  • 00:28:37
    Einzelfälle oder so was, aber nicht
  • 00:28:39
    wirklich systematisch und nicht der
  • 00:28:40
    chinesische Staat und das ist für
  • 00:28:41
    mich fast schon eine Verschwörungstheorie, to be honest.
  • 00:28:44
    Es ist keine Verschwörungstheorie,
  • 00:28:45
    sonst würde sich nicht die USA und
  • 00:28:47
    die Europäische Kommission damit
  • 00:28:48
    auseinandersetzen. Aber du hast
  • 00:28:49
    natürlich recht damit..
  • 00:28:50
    Für mich ist das politisch motiviert.
  • 00:28:51
    ...aktuell keine Beweise dafür
  • 00:28:52
    haben. Aber es gibt natürlich die
  • 00:28:53
    Befürchtung, die auch berechtigt
  • 00:28:55
    ist und deswegen müssen wir auch
  • 00:28:56
    darüber sprechen.
  • 00:28:57
    Lass uns weiter ziehen, weil ich
  • 00:28:59
    glaube, ihr werdet euch an der
  • 00:29:00
    Stelle nicht einig.
  • 00:29:01
    Das ist okay.
  • 00:29:02
    Kompromisse.
  • 00:29:03
    Ich habe zuerst einen ersten,
  • 00:29:05
    ich nenne ihn mal Minimalkonsens.
  • 00:29:08
    Die Jugendschutzkontrolle muss
  • 00:29:09
    ernster genommen werden.
  • 00:29:11
    User*innen müssen ihr Alter bei der
  • 00:29:12
    Registrierung nachweisen.
  • 00:29:14
    Videocontent sollte je nach Inhalt
  • 00:29:16
    eine Altersbegrenzung haben.
  • 00:29:18
    Das wäre mein Vorschlag.
  • 00:29:20
    Wenn ihr mir zustimmt, könnt ihr ein
  • 00:29:21
    Schritt auf mich zugehen.
  • 00:29:23
    Wie nachweisen?
  • 00:29:25
    Na, das müssten wir uns dann überlegen.
  • 00:29:26
    Ausweisdokumente zum Beispiel.
  • 00:29:27
    Zum Beispiel.
  • 00:29:28
    Das finde ich, glaube ich, nicht so
  • 00:29:29
    gut. Also noch zusätzlich
  • 00:29:31
    das Ausweisdokument.
  • 00:29:33
    Zig Millionen Ausweisdokumente.
  • 00:29:34
    Also, wir müssen uns da etwas
  • 00:29:36
    überlegen. Das wäre jetzt erst mal
  • 00:29:37
    der Vorschlag. Wie genau das dann
  • 00:29:39
    aussieht, habe ich mir jetzt nicht
  • 00:29:40
    überlegt, aber ist ja erst mal nur
  • 00:29:41
    ein Impuls.
  • 00:29:43
    Okay, ihr stimmt mir zu.
  • 00:29:44
    Den Rest könnt ihr jetzt gerne
  • 00:29:45
    ausarbeiten, weil mein Job ist das
  • 00:29:46
    nicht. Also steckt ihr immer die
  • 00:29:48
    Köpfe zusammen und ihr und überlegt
  • 00:29:49
    euch einen Kompromissvorschlag.
  • 00:29:58
    Wir haben jetzt einige Argumente von
  • 00:29:59
    beiden Seiten gehört und mich würde
  • 00:30:01
    interessieren, was wäre euer
  • 00:30:02
    Kompromissvorschlag, wenn ihr jetzt
  • 00:30:04
    hier auf dem Feld stehen würdet.
  • 00:30:05
    Schreibt mir das gerne mal in die
  • 00:30:06
    Kommentare.
  • 00:30:08
    Gelb. Ihr war zuerst fertig.
  • 00:30:10
    Was habt ihr euch überlegt?
  • 00:30:11
    Wir glauben, dass es notwendig
  • 00:30:14
    ist, die Debatte ein bisschen
  • 00:30:15
    wegzubewegen von TikTok, weil die
  • 00:30:17
    meisten Punkte, die wir angesprochen
  • 00:30:18
    haben, sich eigentlich auch auf
  • 00:30:19
    andere Social Media Kanäle,
  • 00:30:20
    Plattformen übertragen lassen.
  • 00:30:23
    Und dass, wenn wir über die
  • 00:30:25
    einzelnen Punkte unabhängig davon
  • 00:30:28
    diskutieren, auf welcher Plattform
  • 00:30:29
    sie tatsächlich stattfinden, wird
  • 00:30:31
    die Ursache auch besser anpacken
  • 00:30:32
    können.
  • 00:30:33
    Und der zweite Punkt ist tatsächlich
  • 00:30:35
    konkreter und praktischer.
  • 00:30:36
    Und zwar, dass es in der
  • 00:30:37
    Verantwortung vom Gesetzgeber auch
  • 00:30:39
    sein soll, und zwar nicht nur
  • 00:30:40
    auf TikTok bezogen, sondern bei
  • 00:30:42
    allen Kurzvideo oder Social Media
  • 00:30:43
    Plattformen, die Suchtpotenzial
  • 00:30:45
    haben. Dass man sagt zum Beispiel
  • 00:30:46
    bei der Anmeldung, dass man angeben
  • 00:30:48
    muss, wie viele Videos am Tag man
  • 00:30:50
    maximal schaut, dass es
  • 00:30:52
    natürlich trotzdem eine Eigenverantwortung
  • 00:30:53
    ist, zu einem gewissen Grad.
  • 00:30:54
    Aber man muss das angeben oder das
  • 00:30:56
    man zum Beispiel auswählen kann.
  • 00:30:57
    Nach drei Videos kommt ein Black
  • 00:30:59
    Screen für fünf Sekunden, der
  • 00:31:01
    einen so auf die Art aufruft zu
  • 00:31:02
    fragen: "Möchte ich weiterschauen."
  • 00:31:04
    Was wir glauben, was passieren würde
  • 00:31:05
    ist das, wenn zum Beispiel jemand
  • 00:31:06
    sagt 300 Videos, dann erscheint
  • 00:31:08
    das erst mal mega viel.
  • 00:31:09
    Aber es gibt ja sehr viele, die
  • 00:31:10
    wirklich so viele Videos schauen und
  • 00:31:11
    dass die dann denken: "Oh wow, ich
  • 00:31:13
    habe ja schon 300 Videos geschaut
  • 00:31:14
    und dann noch so eine Art Lerneffekt
  • 00:31:15
    einsetzt."
  • 00:31:16
    Okay, das sind die zwei Vorschläge
  • 00:31:18
    vom gelben Feld.
  • 00:31:19
    Ich würde sagen besser als nichts.
  • 00:31:22
    Ich denke das Dauerkonsum
  • 00:31:24
    beschränken ist richtig.
  • 00:31:25
    Gleichzeitig reicht das, was ihr
  • 00:31:27
    vorgeschlagen habt, glaube ich nicht
  • 00:31:28
    aus.
  • 00:31:29
    Vor allem die Personen, die schon
  • 00:31:31
    gefährdet sind, die Kontrolle zu
  • 00:31:32
    verlieren oder die Kontrolle
  • 00:31:33
    verloren haben.
  • 00:31:34
    Die schaffen es nämlich nicht,
  • 00:31:36
    quasi über diese Maßnahmen
  • 00:31:38
    das dann bewusst zu nutzen.
  • 00:31:40
    Und ich glaube, da muss man mehr
  • 00:31:42
    Maßnahmen etablieren.
  • 00:31:44
    Doofe Frage. Also wäre das
  • 00:31:45
    realistisch, vielleicht mal an dich
  • 00:31:46
    als der Business Profi an der
  • 00:31:48
    Stelle, dass TikTok so was überhaupt
  • 00:31:49
    einführen würde? Weil es ist ja in
  • 00:31:50
    deren Interesse, dass wir die App
  • 00:31:52
    nicht verlassen.
  • 00:31:52
    Deswegen ist der Algorithmus ja auch
  • 00:31:54
    wie er ist.
  • 00:31:54
    Also das Geschäftsmodell einer
  • 00:31:56
    Social Media Plattform beißt sich
  • 00:31:57
    ein stückweit mit Regulierung.
  • 00:31:59
    Deshalb bin ich auch per se dafür,
  • 00:32:01
    dass wir uns als Gesellschaft
  • 00:32:02
    Gedanken machen Was können wir denn
  • 00:32:03
    tun?
  • 00:32:04
    Was ist denn euer
  • 00:32:04
    Kompromissvorschlag?
  • 00:32:05
    Ich fange einfach mit dem ersten
  • 00:32:08
    an, das wäre so ein bisschen
  • 00:32:10
    im Persönlichen und das wäre so
  • 00:32:12
    suchtfreie Räume vielleicht
  • 00:32:13
    schaffen. Das vielleicht auch
  • 00:32:15
    Schulen, sagen: "Bei uns ist einfach
  • 00:32:16
    kein Smartphone an der Schule, damit
  • 00:32:18
    zumindest in der Pause die Kinder
  • 00:32:19
    sich miteinander unterhalten."
  • 00:32:21
    Also es wäre sehr sinnvoll,
  • 00:32:23
    Mechanismen abzubauen, die
  • 00:32:25
    süchtiges Verhalten fördern.
  • 00:32:26
    Wir sehen das am Beispiel von TikTok
  • 00:32:28
    Lite finde ich sehr schön, was durch
  • 00:32:30
    EU Intervention auch zurückgerollt
  • 00:32:32
    wurde, zumindest für mein
  • 00:32:33
    Verständnis zum aktuellen Zeitpunkt,
  • 00:32:35
    wo Belohnungen monetär
  • 00:32:37
    zum Teil für Videos gucken eben
  • 00:32:38
    abgebaut wurden.
  • 00:32:39
    Und das gleiche brauchen wir jetzt
  • 00:32:41
    noch auf anderer Ebene.
  • 00:32:42
    Was sagt ihr? Überzeugt euch?
  • 00:32:43
    Der Kompromissvorschlag?
  • 00:32:44
    Ihr wart euch eigentlich beim
  • 00:32:45
    zweiten Punkt, hattet ihr nicht
  • 00:32:46
    irgendwie den gleichen, mit
  • 00:32:48
    diesem...
  • 00:32:48
    Es war schon sehr ähnlich.
  • 00:32:49
    ...quasi irgendwann den Algorithmus
  • 00:32:50
    zu unterbrechen. Da seid ihr euch ja
  • 00:32:51
    einig, wenn ich es richtig
  • 00:32:52
    verstanden habe.
  • 00:32:53
    Und ich würde als dritten Punkt noch
  • 00:32:54
    einwerfen, dass man
  • 00:32:55
    Factchecking-Mechanismus braucht in
  • 00:32:57
    irgendeiner Form.
  • 00:32:58
    Also heißt, dass zum Beispiel unter
  • 00:32:59
    Videos, die Desinformation
  • 00:33:00
    verbreiten, entweder eine kleine
  • 00:33:02
    Anmerkung kommt, dass
  • 00:33:03
    eine Art Community Note, die einmal
  • 00:33:05
    klarstellt, dass das nicht stimmt
  • 00:33:06
    oder was tatsächlich die Sachlage
  • 00:33:08
    ist. Oder alternativ eben auch,
  • 00:33:10
    Desinformation leichter runter
  • 00:33:11
    genommen wird.
  • 00:33:12
    Also Factchecking war euer dritter
  • 00:33:14
    Punkt und im zweiten wart ihr euch
  • 00:33:15
    einig und der erste war suchtfreie
  • 00:33:16
    Räume, zum Beispiel an Schulen.
  • 00:33:18
    Stimmt ihr da zu?
  • 00:33:20
    Geht ihr einen Schritt aufs grüne
  • 00:33:21
    Feld zu?
  • 00:33:21
    Also ich glaube drei gibt es schon
  • 00:33:24
    und es ist natürlich eine Frage, wie
  • 00:33:25
    weit man gehen will. Ist ein
  • 00:33:26
    schmaler Grat zwischen Zensur
  • 00:33:28
    und Kuration.
  • 00:33:29
    Punkt 1 mit der Regulierung in der
  • 00:33:31
    Schule, bis wir darüber nachdenken,
  • 00:33:33
    wie weit und wie doll und bis zu
  • 00:33:34
    welchem Alter. Weil es natürlich
  • 00:33:35
    auch eine krasse Einschränkung der
  • 00:33:36
    Freiheit ist.
  • 00:33:36
    Anna, Levi, was denkt ihr?
  • 00:33:38
    Also, was mich gerade so ein
  • 00:33:39
    bisschen stört an diesem, in dieser
  • 00:33:40
    Kompromissdiskussion.
  • 00:33:41
    Die Frage ist macht TikTok unsere
  • 00:33:43
    Gesellschaft kaputt und am Ende
  • 00:33:44
    reden wir nur darüber, wie können
  • 00:33:46
    wir individuelles Nutzerverhalten
  • 00:33:48
    im Risiko reduzieren?
  • 00:33:49
    Wie können wir die Plattformen dazu
  • 00:33:50
    in die Pflicht nehmen, dass sie
  • 00:33:51
    vielleicht irgendwelche Maßnahmen
  • 00:33:52
    einschränken?
  • 00:33:53
    Und da müssen wir uns, glaube ich,
  • 00:33:55
    auch einfach, also den Gesetzgeber,
  • 00:33:57
    auch einfach stärker in die Pflicht
  • 00:33:58
    nehmen, dass wir uns überlegen, wie
  • 00:33:59
    können wir für alle Plattformen
  • 00:34:00
    einheitliche Standards schaffen, um
  • 00:34:02
    sowohl den individuellen Menschen
  • 00:34:03
    als auch unsere Demokratie zu
  • 00:34:05
    schützen? Und wie können wir
  • 00:34:06
    vielleicht am Ende auch die Chancen,
  • 00:34:07
    die Sozialen Medien ja auch bieten?
  • 00:34:09
    Wie können wir die besser nutzen?
  • 00:34:12
    Maggy stimmt dir da glaube ich zu. Alicia auch. Patrick auch?
  • 00:34:14
    Genau, partiell würde ich sagen,
  • 00:34:15
    weil ich glaube, es ist immer leicht
  • 00:34:17
    zu sagen, die Politik muss etwas
  • 00:34:19
    tun.
  • 00:34:20
    Ich glaube, man muss sich auch als
  • 00:34:21
    Gesellschaft oder als verschiedene
  • 00:34:22
    Mitglieder der Gesellschaft
  • 00:34:24
    positionieren.
  • 00:34:24
    Dafür haben wir ja die Diskussion
  • 00:34:26
    jetzt auch geführt, um zumindest mal
  • 00:34:27
    herauszufinden, was es uns sechs
  • 00:34:29
    oder sieben, wenn ich mich jetzt
  • 00:34:30
    einfach mal frech mit zähle, was ist
  • 00:34:31
    uns wichtig?
  • 00:34:32
    Deswegen vielen Dank für die
  • 00:34:33
    Diskussion. Wir werden ja auch
  • 00:34:34
    sehen, wie es weitergeht.
  • 00:34:35
    Also TikTok hat Klage gegen das
  • 00:34:37
    Verbot eingereicht.
  • 00:34:38
    Das ganze Thema ist ja noch nicht
  • 00:34:39
    vorbei und das Ultimatum für
  • 00:34:41
    TikTok selbst läuft übrigens, das
  • 00:34:43
    ist ein ganz spannendes Datum am 19.
  • 00:34:45
    Januar 2025 aus, was einen
  • 00:34:47
    Tag vor der Amtsübergabe nach der US
  • 00:34:49
    Wahl ist. Und Trump hat ja seine
  • 00:34:50
    Meinung zu TikTok jetzt auch schon
  • 00:34:51
    wieder geändert und sieht das
  • 00:34:53
    Problem jetzt gar nicht mehr so
  • 00:34:54
    groß. Das heißt es wird sich jetzt
  • 00:34:56
    wahrscheinlich in den nächsten
  • 00:34:57
    Monaten auch immer mal wieder,
  • 00:34:58
    werden wir sehen, wie sich die
  • 00:34:59
    Entwicklungen verändern.
  • 00:35:00
    Das heißt, wir bleiben dran.
  • 00:35:02
    Danke für die Diskussion.
  • 00:35:03
    Das war 13 Fragen.
  • 00:35:07
    Danke euch!.
  • 00:35:09
    Wenn euch diese Folge 13 Fragen
  • 00:35:11
    gefallen hat, dann dürft ihr sehr
  • 00:35:12
    gerne hier unseren Kanal unbubble
  • 00:35:14
    abonnieren, um keine weitere
  • 00:35:15
    Diskussion zu verpassen.
  • 00:35:17
    Und hier oben gibt es ein weiteres
  • 00:35:18
    Video von 13 Fragen.
  • 00:35:20
    Hier unten findet ihr ein weiteres
  • 00:35:22
    Video zum Thema.
Tags
  • TikTok
  • Sociale medier
  • Afhængighed
  • Misinformation
  • Ekstremisme
  • Regulering
  • Unge
  • Skærmtid
  • Politisk indhold
  • Indholdsskabere