Rabbit Holes, Virale Trends, Doomscrolling: Ist TikTok gefährlich? | 13 Fragen | unbubble
Zusammenfassung
TLDRDiskussionen om TikTok udforsker både dets potentielle risici som afhængighed og misinformation, samt de positive aspekter som muligheder for kreative udtryk og politisk engagement. Der er bekymring for, at TikTok kan fremme ekstremistisk indhold og skabe echo-kamre, hvilket kan påvirke brugernes verdensbillede. Deltagerne diskuterer også potentielle reguleringer og forslag til, hvordan man kan skabe et sundere socialt mediemiljø for unge, herunder styrkelse af faktatjek og begrænsninger for brugen af appen.
Mitbringsel
- 📱 TikTok kan skabe afhængighed, især blandt unge.
- 🌐 Platformen er ofte kritiseret for at sprede misinformation.
- 📣 TikTok giver mindre kendte stemmer mulighed for at blive hørt.
- 💡 Der er behov for forbedrede faktatjek og reguleringer.
- 🤝 Samfundet skal tage ansvar for brugerens engagement i sociale medier.
Zeitleiste
- 00:00:00 - 00:05:00
TikTok, der tilhører et kinesisk selskab, skaber bekymring på grund af sin evne til at fremme afhængighed, især blandt børn, samt risikoen for ekstremisme og mental sundhed. Diskussionen afspejler en bredere debat om sociale mediers indvirkninger.
- 00:05:00 - 00:10:00
Deltagerne indser, at de alle har brugt TikTok, og der diskuteres, om nutidens sociale mediers indflydelse skaber en afhængighed og kontroltab. Det understreges, at TikTok kan være både inspirerende og skadelig, afhængig af den enkeltes brug.
- 00:10:00 - 00:15:00
TikTok's design understøtter konstant forbrug, hvilket fører til en afhængighedseffekt. Deltagerne diskuterer, hvordan algoritmen skaber viralitet og muligheden for at skabe politiske bølger med #ReclaimTikTok, hvilket fremhæver både dets potentiale og risiko.
- 00:15:00 - 00:20:00
Det diskuteres, at selvom TikTok kan Fremme oplysning omkring sociale problemer, er der også en tendens til at populiere misinformation, hvilket kan føre til negative samfundsmæssige effekter. Komplekse emner får ikke samme opmærksomhed som klikbare, sensationelle indhold.
- 00:20:00 - 00:25:00
Der er en debat omkring platformens indflydelse på unges sikkerhed, med et fokus på nødvendigheden af at beskytte unge mod skadelig indhold og udfordringerne med regulering og ansvarlighed i sociale medier.
- 00:25:00 - 00:30:00
Lytterne er enige om, at der skal være foranstaltninger til at beskytte unge brugere, som potentielt kunne inkludere alderskontrol og begrænsninger for kontinuerlig scrolling. Der er også opfordringer til bedre metadata og fact-checking for at håndtere misinformation.
- 00:30:00 - 00:35:24
Afslutningsvis konkluderer deltagerne, at debatten om TikTok og dets indflydelse er kompleks og fremhæver behovet for en åbning om polarisering og regulering for at sikre, at sociale medier tjener demokratiske formål, snarere end at undergrave dem.
Mind Map
Video-Fragen und Antworten
Er TikTok farligt for unge?
Ja, der er bekymringer om afhængighed og påvirkning af unge på grund af platformens design.
Kan TikTok sprede misinformation?
Ja, TikTok's algoritmer kan fremme populistisk indhold og misinformation.
Hvad er fordelene ved TikTok?
TikTok giver mulighed for individuelle stemmer og stort indholdspotentiale.
Hvad gør TikTok for at beskytte brugere?
TikTok implementerer funktioner som skærmtidspop-ups og algoritmeindstillinger.
Bør der være aldersbegrænsninger for TikTok?
Mange mener, at der bør være aldersgrænser for brug af TikTok.
Weitere Video-Zusammenfassungen anzeigen
8 Undeniable SIGNS You & Your Ex Are Meant To Be
Aprenda a interpretar o HEMOGRAMA de forma FÁCIL
LG OLED Secrets You Wont Find Anywhere Else!
The Simple Mindset That Makes You Attractive AF! Dr. Robert Glover
Final Vendetta Review! A New Classic Beat Em' Up!
Find Your Signature Makeup Style | 8 MAKEUP ARCHETYPES Explained!
- 00:00:05Jede Generation hat ja so ihre
- 00:00:07eigene Social Media Plattform.
- 00:00:08Ob Snapchat, Instagram,
- 00:00:10Facebook oder jetzt eben
- 00:00:12TikTok. Und dieser wahnsinnig große
- 00:00:14Erfolg von TikTok, der ist
- 00:00:16für viele sehr beunruhigend.
- 00:00:17Jetzt mal ganz abgesehen von
- 00:00:19Suchtgefahr, von Fake News und
- 00:00:21von gefährlichen Challenges.
- 00:00:23TikTok gehört einem chinesischen
- 00:00:25Konzern und dem wird immer wieder
- 00:00:26vorgeworfen, diese App für
- 00:00:29Propaganda und Spionage zu
- 00:00:30missbrauchen.
- 00:00:31Die USA will TikTok deswegen sogar
- 00:00:33verbieten.
- 00:00:34TikTok ist perfekt darauf ausgelegt,
- 00:00:36Menschen möglichst lange auf der
- 00:00:37Plattform zu halten.
- 00:00:38Das birgt für Erwachsene, aber
- 00:00:40besonders für Kinder eine große
- 00:00:42Suchtgefahr.
- 00:00:43TikTok ist eine Gefahr für unsere
- 00:00:44Demokratie, weil
- 00:00:45rechtsextremistische Kräfte dort wie
- 00:00:47auf keiner anderen Social Media
- 00:00:48Plattform Themen setzen können und
- 00:00:49Menschen radikalisieren.
- 00:00:51TikTok ist so gestaltet, dass
- 00:00:52es Dauerkonsum begünstigt und bei
- 00:00:54gefährdeten Personen zu einem
- 00:00:56Kontrollverlust und mentalen
- 00:00:57Problemen führen kann.
- 00:00:59Aber es gibt auch viele, die das
- 00:01:00ganz anders sehen und sagen: "TikTok
- 00:01:02ist gerade die Plattform mit dem
- 00:01:03größten Potenzial, die auch einfach
- 00:01:05super viel Erfrischung und
- 00:01:06Abwechslung bringt."
- 00:01:08Auch wenn man keine große Reichweite
- 00:01:09hat, hat man auf TikTok
- 00:01:10wahrscheinlich die beste Chance,
- 00:01:11sich eine Stimme zu verschaffen.
- 00:01:13Bei TikTok zählt der individuelle
- 00:01:14Content, jedes Video für sich.
- 00:01:16Es muss nicht perfekt sein und auch
- 00:01:18nicht überprofessionalisiert.
- 00:01:19Für mich ist die Diskussion um
- 00:01:21die Gefahren TikToks eher Symptom
- 00:01:22dafür, dass wir als Gesellschaft
- 00:01:24noch nicht stark genug reflektieren
- 00:01:26über die Chancen, aber auch Risiken
- 00:01:27von Social Media im Allgemeinen.
- 00:01:29Jetzt erstmal die Frage an euch: Wo
- 00:01:31auf dem Spielfeld würdet ihr stehen?
- 00:01:33Grün für "TikTok ist super
- 00:01:35gefährlich" oder gelb für:
- 00:01:37"Nö. Ich bin Fan und das lasse
- 00:01:39ich mir nicht nehmen." Schreib mir
- 00:01:40das gerne mal in die Kommentare.
- 00:01:41Wir starten mit einer kleinen
- 00:01:43Bestandsaufnahme.
- 00:01:43Und zwar möchte ich gerne erst mal
- 00:01:45von euch wissen wer hat sich heute
- 00:01:46schon bei TokTok ich sage es jetzt
- 00:01:47richtig Boomer-mäßig eingeloggt.
- 00:01:49Wer war schon online auf TikTok?
- 00:01:51Wer hat schon gescrollt?
- 00:01:52Oh fast alle.
- 00:01:53Hey, warte mal.
- 00:01:54Zu Recherchezwecken.
- 00:01:56Okay?
- 00:01:57Ich wollt grad sagen, du hast doch
- 00:01:58kein TikTok mehr.
- 00:01:59Ich hab's heute noch mal installiert um
- 00:02:00noch mal reinzuschauen und up to
- 00:02:01date zu sein.
- 00:02:02Und? Ich habe es direkt bereut.
- 00:02:04Okay.
- 00:02:05Aber du.
- 00:02:06Also, ihr habt mittlerweile so eine
- 00:02:07Routine, dass sie wenn dann
- 00:02:09reingehe, um mich selbst zu
- 00:02:10inspirieren, was ich für Videos
- 00:02:11machen möchte.
- 00:02:12Ja, sonst versuche ich es auch
- 00:02:14zu limitieren, weil es sonst
- 00:02:16doom-scrolling.
- 00:02:17Okay, Levi? Du?
- 00:02:19Ich öffne Ticktack um zu arbeiten,
- 00:02:21also sowohl zu Entertainment-Zwecken
- 00:02:23als auch um Videos selbst zu
- 00:02:25erstellen.
- 00:02:26Alicia, warum hast du denn in the
- 00:02:27first place TikTok überhaupt
- 00:02:28gelöscht?
- 00:02:29In erster Linie, weil ich gemerkt
- 00:02:30habe, dass es eine riesen
- 00:02:31Zeitverschwendung ist in meinem
- 00:02:33Leben. Also ich habe teilweise mich
- 00:02:34wiedergefunden nach einer Stunde
- 00:02:36scrollen, obwohl ich nur mal kurz
- 00:02:37reingucken wollte und ich wollte
- 00:02:39einfach nicht mehr diesen
- 00:02:40Kontrollverlust haben über meine
- 00:02:42Lebenszeit und hab dann gedacht,
- 00:02:43dann lösche ich es komplett.
- 00:02:45Anna, was findest du auf TikTok
- 00:02:47jetzt privat, wenn du dir den
- 00:02:49Content anguckst, was du da spannend
- 00:02:51findest. Was dir auf anderen
- 00:02:52Plattformen fehlt oder vielleicht
- 00:02:54früher gefehlt hat?
- 00:02:54Ich lese extrem viel.
- 00:02:56Und da kriege die beste Inspiration
- 00:02:58von Leuten, die sehr, "relateable"
- 00:03:00sind. Man spürt, es sind jetzt nicht
- 00:03:01irgendwelche Firmen, wo man merkt,
- 00:03:03okay, das ist schon alles sehr
- 00:03:05professionell, sondern es sind
- 00:03:06einfach so Menschen wie ich, die
- 00:03:08Bücher feiern und dann über ihre
- 00:03:09Erfahrung sprechen.
- 00:03:10Und dann zeigt mir das TikTok
- 00:03:12massenhaft an und das habe ich auf
- 00:03:13keiner anderen Plattform.
- 00:03:14Patrick, dass so viele von uns heute
- 00:03:16schon an dieser App waren, auch wenn
- 00:03:17es nur aus Arbeitsgründen war, das
- 00:03:19zeigt ja schon mal, dass wir uns
- 00:03:21irgendwie nicht ganz davon lösen
- 00:03:22können. Was löst diese App in uns
- 00:03:24aus? Was macht das in unserem...
- 00:03:25was passiert in unserem Kopf, wenn
- 00:03:26wir auf TikTok sind?
- 00:03:27Was ich jetzt gehört habe, ist ja
- 00:03:29ein bewusster Umgang, eine bewusste
- 00:03:30Nutzung oder auch Nichtnutzung.
- 00:03:32Ja, aber natürlich kann TikTok
- 00:03:34das Belohnungssystem ansprechen.
- 00:03:35Man kann dann so in einen Strudel
- 00:03:37gelangen, dass man gar nicht mehr
- 00:03:38aufhören will.
- 00:03:39Auch durch die Kürze der Videos gar
- 00:03:41nicht mehr bewusst reflektiert,
- 00:03:42möchte ich das überhaupt?
- 00:03:43Sondern sich quasi mit rein
- 00:03:45lullen lässt und immer weiter
- 00:03:46konsumiert ohne Ende.
- 00:03:48Adil, das TikTok überhaupt so groß
- 00:03:50wurde, wie es heute ist, das ist das
- 00:03:52erste Mal in meinem Alltag so
- 00:03:53richtig aufgetaucht 2020,
- 00:03:55als wir alle zu Hause auf der Couch
- 00:03:56saßen.
- 00:03:57Und das war aber ein Zeitpunkt, wo
- 00:03:59du schon komplett am Start warst,
- 00:04:01da dir ein Business mit aufgebaut
- 00:04:02hast und zwar die erste
- 00:04:04TikTok-Agentur gegründet hast, wo du
- 00:04:05unter anderem auch mit Levi
- 00:04:07zusammenarbeitest, den du managt.
- 00:04:08Einmal hier kleiner Disclaimer
- 00:04:10was macht den TikTok so erfolgreich
- 00:04:12aus deinen Augen?
- 00:04:13TikTok war die erste Plattform, die
- 00:04:15die Architektur der Algorithmen
- 00:04:18angepasst hat.
- 00:04:19Es wurde inhaltsbasiert
- 00:04:21ausgespielt, contentbasiert
- 00:04:22ausgespielt und nicht mehr statusbasiert,
- 00:04:24wie es früher auf Instagram war.
- 00:04:25Und das war damals sehr radikal
- 00:04:27und neu. Und das führt zu
- 00:04:29einem zu einer Art von Viralität,
- 00:04:31wie es in der Form nie zuvor gab,
- 00:04:33die aber mittlerweile auch von allen
- 00:04:34anderen Plattformen übernommen
- 00:04:35wurde.
- 00:04:36Maggy, du hast dich ganz gezielt bei
- 00:04:38TikTok angemeldet und dort ein
- 00:04:39Account gemacht, mit dem du
- 00:04:41eigentlich TikTok verändern
- 00:04:42wolltest. Mit "ReClaim TikTok",
- 00:04:44#reclaimTikTok. Kannst das einmal
- 00:04:46erklären, was es damit auf sich hat.
- 00:04:47Wir haben im Vorfeld der
- 00:04:48Europawahlen gemerkt, dass es ein
- 00:04:50unglaubliches Ungleichgewicht darin
- 00:04:51gibt, worüber auf TikTok politisch
- 00:04:53kommuniziert wird und worüber auch
- 00:04:54nicht und dass rechtsextremistische
- 00:04:56Accounts dort einfach klar im
- 00:04:57Vorteil sind.
- 00:04:59Deswegen haben wir so ein bisschen
- 00:04:59versucht, mit der Initiative, andere
- 00:05:02Stimmen irgendwie auf die Plattform
- 00:05:03zu tragen. Haben Aktivist*innen
- 00:05:04gezeigt, wie sie die App bedienen
- 00:05:05und eben eine Welle gestartet,
- 00:05:07wo sich Menschen auch angemeldet
- 00:05:09haben auf TikTok und
- 00:05:11Gegenposition bezogen.
- 00:05:13Und das lief am Anfang auch sehr
- 00:05:14gut. Da kam auf jeden Fall einiges
- 00:05:16an Viralität zusammen.
- 00:05:17Wir haben aber auch sehr schnell
- 00:05:18gemerkt, dass TikTok einfach von der
- 00:05:20Art und Weise, wie es funktioniert,
- 00:05:22Populismus begünstigt,
- 00:05:23Falschinformationen begünstigt und
- 00:05:25Verknappung begünstigt und man
- 00:05:27es sehr, sehr schwer hat, da seriöse
- 00:05:29und gute politische Kommunikation zu
- 00:05:30betreiben. Und dass Inhalte, die zum
- 00:05:32Beispiel
- 00:05:35sehr schnell sehr viel Aufmerksamkeit
- 00:05:36ziehen, besser funktionieren als
- 00:05:38die, die vielleicht ein bisschen
- 00:05:39trockener oder langweiliger sind,
- 00:05:40schafft einfach eine Inbalance.
- 00:05:42Okay, Maggy sagt, TikTok bzw der
- 00:05:44TikTok-Algorithmus befördert
- 00:05:45Populismus.
- 00:05:46Levi, da bist du ein Schritt nach
- 00:05:47hinten gegangen. Die ganze gelbe
- 00:05:48Seite eigentlich. Warum?
- 00:05:49Ja, also mein subjektiver
- 00:05:51Eindruck. Ich mache ja jetzt auch
- 00:05:52seit einem halben Jahr TikTok Videos
- 00:05:54und ich mache TikTok Videos,
- 00:05:56die tatsächlich aufklären, also
- 00:05:58beispielsweise in Bezug auf
- 00:05:59Schneeballsysteme.
- 00:06:00Aber auch wenn Leute behaupten,
- 00:06:02ich bin der Typ aus dem Video
- 00:06:04übrigens, da mache ich da gerne
- 00:06:06Videos zu, wo ich darauf reagiere
- 00:06:07und prüf: Ist das denn wirklich so?
- 00:06:09Und das sind tatsächlich auch die
- 00:06:10Videos, die bei mir am meisten am
- 00:06:11besten laufen, am meisten Klicks
- 00:06:12bekommen. Das sind auch meistens
- 00:06:14Videos, die sind relativ lang, zwei,
- 00:06:15drei Minuten.
- 00:06:17Und trotzdem ist Aufklärungsarbeit,
- 00:06:20auch wissenschaftsbasierte Videos
- 00:06:23die Grundlage meines Erfolgs und
- 00:06:26wie Maggy vollkommen richtig gesagt
- 00:06:27hat, man muss die Leute davon
- 00:06:29überzeugen in den ersten Sekunden,
- 00:06:30dass sie sich dieses Video anschauen
- 00:06:31sollen.
- 00:06:32Aber man kann auch Interesse an
- 00:06:34Videos wecken, ohne dass man sagt:
- 00:06:35"Ausländer raus!"
- 00:06:37Maggy, überzeugt dich das?
- 00:06:39Also ich würde zustimmen, dass man
- 00:06:40das erfolgreich tun
- 00:06:42kann. Es ist einfach schwierig,
- 00:06:43darauf angewiesen zu sein.
- 00:06:44Und es ist schwierig, wenn es dann
- 00:06:46Traffic weg von seriösen
- 00:06:47Nachrichtenplattform gibt, die eben
- 00:06:49auch den Anspruch haben, umfassend
- 00:06:50zu informieren, weil eben bei TikTok
- 00:06:52regelmäßig Themen untergehen.
- 00:06:53Und False-Balancing passiert, selbst
- 00:06:55wenn nur 20 % Falschinformation auf
- 00:06:5780 % richtige Informationen kommen.
- 00:06:59Die 20 % Falschinformationen sind
- 00:07:01ein Problem und sind ein Thema
- 00:07:03und dürfen einfach... und richten in
- 00:07:04der Masse ein Schaden an.
- 00:07:06Levi, da gehst du wieder einen Schritt auf Maggy zu.
- 00:07:07Ja also es stimmt, es hat zwei
- 00:07:09Seiten der Medaille. Es ist
- 00:07:10vollkommen klar, Falschnachrichten
- 00:07:13haben meistens...
- 00:07:15lösen eher eine Neugier aus
- 00:07:17als in Anführungszeichen "sachliche
- 00:07:19Informationsauseinandersetzung".
- 00:07:21Ich habe das auch selber bei mir
- 00:07:22gemerkt. Relativ am Anfang, als ich
- 00:07:23angefangen hab, Videos hochzuladen,
- 00:07:25habe ich scherzhaft erzählt: "Leute,
- 00:07:27saugt eure Decken, weil es
- 00:07:28Weißlichtmilben gibt." Und die
- 00:07:30Videos haben in kurzer Zeit
- 00:07:32Millionen von Aufrufen bekommen und
- 00:07:34das ganze Internet war voll von
- 00:07:35Leuten, die sich gefragt haben,
- 00:07:38ob man jetzt wirklich die Decke
- 00:07:39saugen muss, wegen Weißlichtmilben.
- 00:07:40Lass uns das Fake News Thema noch
- 00:07:41ganz ganz kurz aufheben, weil
- 00:07:42darüber werden wir auf jeden Fall
- 00:07:43noch detailliert sprechen.
- 00:07:45Hast du mit diesem Erfolg so
- 00:07:46gerechnet, den du jetzt auf Tiktok
- 00:07:48hast?
- 00:07:48Nein, überhaupt nicht.
- 00:07:49Also ich hab am Anfang habe ich mir
- 00:07:50auch den extra einen neuen
- 00:07:52Account erstellt, weil ich nicht
- 00:07:53wollte, dass meine Freunde, die mir
- 00:07:54auf meinem alten Account gefolgt
- 00:07:55sind, die Videos sehen, weil ich
- 00:07:57dachte, das wird total peinlich.
- 00:07:58Ich glaube aber auch, dass der
- 00:07:59Algorithmus von TikTok nicht ganz so
- 00:08:01stark personenfokussiert ist, also
- 00:08:03dass auch Personen schnell eine hohe
- 00:08:04Reichweite gewinnen können, auch
- 00:08:06wenn man sie nicht kennt.
- 00:08:07Alicia, klingt ja erst mal super
- 00:08:09gut, was Levi da jetzt erzählt, gehst auch einen
- 00:08:10Schritt auf ihn zu.
- 00:08:11Kann man das wie so eine Art
- 00:08:12Liberalisierung, vielleicht auch der
- 00:08:14Content-Creator-Blase
- 00:08:16verstehen?
- 00:08:16Total. Und da würde ich auch
- 00:08:17zustimmen, dass diese
- 00:08:19Liberalisierung des Marktes was
- 00:08:20sehr, sehr Positives ist.
- 00:08:22Also dass teilweise Menschen auch
- 00:08:24in irgendwelchen Notsituationen
- 00:08:25schnell auf ihr Problem aufmerksam
- 00:08:27machen können und dass das dann
- 00:08:29schnell viral geht.
- 00:08:30Aber das ist auch ein
- 00:08:31zweischneidiges Schwert, weil
- 00:08:32genauso schnell kann eben
- 00:08:34irgendein Mist viral gehen.
- 00:08:36Anna, ein Video kann
- 00:08:38ohne Reichweite viral gehen, aber
- 00:08:40man muss um diese Reichweite
- 00:08:41natürlich kämpfen.
- 00:08:42Und es gibt Challenges, von denen
- 00:08:43wir alle sicher schon gehört haben.
- 00:08:44Eine, die ganz prominent besprochen
- 00:08:46wurde, nenne ich einmal kurz als
- 00:08:47Beispiel, ist die Blackout
- 00:08:48Challenge, bei der Teilnehmende
- 00:08:50versucht haben, sich selbst zu
- 00:08:51strangulieren, um dann kurzen
- 00:08:53Blackout zu erleben.
- 00:08:54Also Mutproben, die es aber
- 00:08:56ja vorher auch schon im Internet
- 00:08:58gab. So schlimm das eben auch ist.
- 00:09:00Du hast auch auf YouTube schon so
- 00:09:01Mutproben früher gemacht oder?
- 00:09:02Damals hab ich mit 13 auch diese
- 00:09:04ganzen Challenges gemacht, wo man
- 00:09:06sich so viel Marshmallows wie
- 00:09:07möglich reingestopft hat.
- 00:09:09Oder diese Cinnamon-Challenge, wo
- 00:09:10man so einen richtig großen Löffel
- 00:09:12Zimt isst.
- 00:09:13Und das ist auch gefährlich
- 00:09:15und blöd und hat es halt damals
- 00:09:17auch schon geben. Natürlich, das ist
- 00:09:18ein ganz anderes Level jetzt mit
- 00:09:20diesem Strangulieren oder so, also
- 00:09:22da muss ich auch sagen, da muss was
- 00:09:24gemacht werden von Seiten TikToks,
- 00:09:25dass die da viel mehr das
- 00:09:27kontrollieren und so was verhindern
- 00:09:29können gleich.
- 00:09:31Ich finde das auch so ein bisschen
- 00:09:32der Diskurs-Verzerrung, weil es
- 00:09:34diese Challenges und dumme Mutproben
- 00:09:36bei Jugendlichen schon immer gab.
- 00:09:37Und das ist meistens so, dass da
- 00:09:38irgendwelche Randphänomene groß
- 00:09:40gemacht werden. Aber das sind
- 00:09:41meistens tragische Einzelfälle und
- 00:09:43im Regelfall kommt es auch
- 00:09:44eigentlich nicht in der breiten
- 00:09:45Masse an. Also ich glaube,
- 00:09:46Jugendliche haben
- 00:09:48einfach im Generellen eine
- 00:09:50Tendenz zu Risikoverhalten in
- 00:09:52Gruppen was auch immer, sich
- 00:09:53gegenseitig auszustechen.
- 00:09:54Okay, ich fasse trotzdem mal
- 00:09:55zusammen: Ich glaube alle auf dem
- 00:09:56Spielfeld sind sich einig, dass
- 00:09:57Challenges nicht das größte Problem
- 00:10:00von TikTok sind.
- 00:10:01Alicia, ein anderes Thema was
- 00:10:03trotzdem immer wieder kritisiert
- 00:10:04wird, ist die Suchtgefahr.
- 00:10:05Du hast gesagt, du hast TikTok
- 00:10:07gelöscht. Gab es so einen gezielten
- 00:10:08Moment, wo du gemerkt hast: "Boah,
- 00:10:10jetzt wird es mir zu viel, mein
- 00:10:12eigener Konsum davon oder
- 00:10:13irgendwann, wo es dir mal super
- 00:10:14schwer gefallen ist, die App
- 00:10:16zu schließen?"
- 00:10:16Ja, also es ist mir eigentlich
- 00:10:18permanent schwergefallen, die App zu
- 00:10:19schließen.
- 00:10:20Ein Moment war,
- 00:10:22als ich mir nach so einem ewigen
- 00:10:24Suchtscrollen mal die Frage gestellt
- 00:10:25habe: "Was habe ich eigentlich
- 00:10:26gerade gesehen und an was erinnere
- 00:10:28ich mich?" Und im Gegensatz dazu,
- 00:10:30wenn ich jetzt zwei Stunde Doku im
- 00:10:31Fernsehen gucke, wusste ich
- 00:10:33eigentlich nicht mehr, was es war
- 00:10:33wie schwarze Materie.
- 00:10:35Anna, stimmst du Alicia da zu? Ich
- 00:10:36glaub, du bist ein Schritt auf sie
- 00:10:37zugegangen.
- 00:10:38Ja, es ist halt bei TikTok
- 00:10:40extrem dieses Belohnungssystem.
- 00:10:41Wie schon angesprochen, das Dopamin
- 00:10:43und auch selbst als Creator.
- 00:10:44Im Endeffekt sucht man ja
- 00:10:47das Dopamin von anderen.
- 00:10:48Man möchte, dass die sich das
- 00:10:49anschauen. Und es geht ja
- 00:10:51auch darum, dass die da irgendwo
- 00:10:52dieses High haben, dass die dann
- 00:10:53nach sich denken: "Oh, das war ein
- 00:10:54krasses Video."
- 00:10:55Patrick, du bist selbst
- 00:10:57Suchtmediziner und wenn
- 00:10:59ich jetzt diesen Begriff
- 00:11:00Suchtmediziner höre, dann würde ich
- 00:11:02jetzt erst mal so an klassische
- 00:11:03Süchte denken, wenn man das so
- 00:11:04nennen kann. Also an Drogen,
- 00:11:06Alkohol usw.
- 00:11:08Inwiefern spielt denn TikTok auch
- 00:11:10eine Rolle bei deiner Arbeit?
- 00:11:11Ja, ganz generell sehen wir
- 00:11:12natürlich, dass Verhaltenssüchte
- 00:11:13mittlerweile ja auch offizielle
- 00:11:15Diagnosen sind, in unserem
- 00:11:16Diagnosystem.
- 00:11:17Und TikTok ist im Moment keine
- 00:11:19offizielle Diagnose.
- 00:11:20Aber und das muss man auch sehen,
- 00:11:22wenn wir schauen nach Kriterien,
- 00:11:23also was sind denn Charakteristiken
- 00:11:25für abhängiges Verhalten,
- 00:11:27dann ist dieser Kontrollverlust, das
- 00:11:28heißt, ich mache es, ich mache es,
- 00:11:30ich mache es, und danach frage ich
- 00:11:31mich, warum habe ich das überhaupt
- 00:11:32gemacht, ganz klare Kriterien.
- 00:11:34Dürfte ich fragen, wie groß das
- 00:11:35Thema Einsamkeit dabei auch
- 00:11:38eine Rolle spielt.
- 00:11:39Weil ich hatte eine Phase meinem
- 00:11:40Leben, da hatte ich kaum Freunde, da
- 00:11:41habe ich irgendwie viel durchlebt.
- 00:11:43Und dann hab ich gemerkt, war das
- 00:11:44ganz schlimm.
- 00:11:45Also aus persönlicher Erfahrung, aus
- 00:11:46der klinischen Behandlung würde ich
- 00:11:47sagen, das spielt absolut eine Rolle
- 00:11:49und das zeigen auch große Studien.
- 00:11:50Ja, gibt es vor allem aus China.
- 00:11:51Ja, Studien sozusagen zum dortigen
- 00:11:53Pendant. Dass Einsamkeit,
- 00:11:55aber auch fliehen aus negativen
- 00:11:56Gefühlen. Dann sind natürlich auch
- 00:11:58Personen anfälliger, die eh schon zu
- 00:11:59kämpfen haben mit sozialer
- 00:12:00Isolation, mit Depression
- 00:12:02und Ähnlichem gefährdet.
- 00:12:03Ja, das ist ein großer, sozusagen
- 00:12:05Treibstoff auf diese TikTok-Nutzung.
- 00:12:07Ja, also die Einsamkeit wird dadurch
- 00:12:09nicht gelöst, wird nur gedämpft
- 00:12:11oder man entflieht dem Ganzen, aber
- 00:12:13es wird nicht besser.
- 00:12:14Aber jetzt kann man natürlich auch
- 00:12:15sagen, jede Person ist selbst
- 00:12:17verantwortlich für ihren eigenen
- 00:12:18Social Media Konsum und es gehört
- 00:12:19halt mittlerweile zu unserem Leben
- 00:12:21dazu. Das heißt, wir müssen eben
- 00:12:22einen Weg finden, wie wir damit
- 00:12:23umgehen. Was wirfst du denn
- 00:12:25spezifisch zu diesem Thema
- 00:12:26Abhängigkeit, TikTok vor?
- 00:12:29Genau. Also ich glaube, man kann
- 00:12:31jetzt TikTok erst mal, da
- 00:12:32bin ich relativ klar, gar kein
- 00:12:34Vorwurf machen. Das ist ein
- 00:12:35gewinnorientiertes Unternehmen, das
- 00:12:36davon lebt, viele Nutzer auf der
- 00:12:38Plattform zu halten.
- 00:12:40Das finde ich erst mal völlig
- 00:12:41neutral, muss man es sehen.
- 00:12:43Wir müssen uns eben überlegen,
- 00:12:45wollen wir analog zu anderen Formen,
- 00:12:48wie Glücksspiel und Ähnlichem,
- 00:12:49Regulierung vornehmen, um die
- 00:12:51gefährdeten Gruppen und das sind
- 00:12:53ja nicht alle Personen.
- 00:12:54Viele nutzen TikTok sehr bewusst
- 00:12:56und ich glaube unproblematisch.
- 00:12:58Aber es gibt eben Personen, die sind
- 00:13:00gefährdet. Und wir müssen uns
- 00:13:01natürlich fragen, wie wollen wir
- 00:13:02diese gefährdeten Personen schützen
- 00:13:04und was können wir dafür tun?
- 00:13:05Ein Verbot ist natürlich eine
- 00:13:07Sache, aber Regeln
- 00:13:09und Aufklärung ist eine andere
- 00:13:10Sache, die glaube ich, sinnvoller
- 00:13:11ist noch mal.
- 00:13:11Adil, was wäre denn deiner Meinung
- 00:13:13nach die Lösung dafür, junge
- 00:13:15Menschen nicht in diese Social Media
- 00:13:16Sucht zu treiben?
- 00:13:17Ich bin auch gegen ein Verbot.
- 00:13:20Ich finde es aber vollkommen valide,
- 00:13:21darüber zu diskutieren, wie man
- 00:13:24junge, vor allem junge Zielgruppen
- 00:13:25schützen muss.
- 00:13:27Ich sehe schon, dass TikTok etwas
- 00:13:28tut. Also es gibt
- 00:13:30Pop-Ups bei Bildschirmzeit, es gibt
- 00:13:32die Möglichkeit, den Algorithmus zu
- 00:13:34"unlearnen", also
- 00:13:37zurückzustellen.
- 00:13:38Es gibt die Möglichkeit, Videos, die
- 00:13:39dem Rabbit-Hole entsprechen, zu
- 00:13:41"unliken", damit das nicht mehr
- 00:13:42angezeigt wird. Und so wie
- 00:13:44ich das sehe bei vielen Creatorn,
- 00:13:46aber auch Nutzern, funktioniert das.
- 00:13:48Man muss es aber nutzen und alle
- 00:13:49müssen natürlich wissen, also da
- 00:13:50braucht es noch Aufklärung.
- 00:13:52Das sieht Alicia nicht so.
- 00:13:54Das letzte schon, aber
- 00:13:56davor hattest du gesagt, dass viele
- 00:13:58Nutzer das für sich auch schon gut
- 00:13:59nutzen können.
- 00:14:00Das würde ich so ein bisschen
- 00:14:01anzweifeln. Ich habe da so ein
- 00:14:02bisschen eine radikalere Meinung.
- 00:14:04Ich würde behaupten, wir bräuchten
- 00:14:06vielleicht sogar eine Altersgrenze
- 00:14:07für TikTok, weil
- 00:14:09mit 16 ist man vielleicht irgendwann
- 00:14:11selbst dafür verantwortlich, mit 13
- 00:14:12vielleicht auch. Aber was man ja
- 00:14:14aktuell erlebt, ist, dass teilweise
- 00:14:15Kinder im Alter von 10,11,12
- 00:14:18Jahren schon auch aus Gruppendruck
- 00:14:20irgendwie in der Klasse sagen: "Ich
- 00:14:22will auf der App sein." Und
- 00:14:23oft haben die Eltern nicht die
- 00:14:24Medienkompetenz.
- 00:14:25Die Schule kann es auch nicht
- 00:14:26leisten, das noch gleichzeitig zu
- 00:14:28vermitteln.
- 00:14:28Und meiner Ansicht nach müssten wir
- 00:14:30vielleicht einfach mal überlegen, ob
- 00:14:32wir das nicht wie bei anderen
- 00:14:33süchtig-machenden Substanzen
- 00:14:35machen, dass wir da einen Riegel
- 00:14:37vorschieben.
- 00:14:38Ich muss da widersprechen, weil es
- 00:14:40gibt eine Altersbeschränkung und die
- 00:14:41ist 13 und TikTok.
- 00:14:43Ich hab die Zahl vergessen, aber ich
- 00:14:44glaube, es wird eine achtstellige
- 00:14:45Anzahl an Accounts gelöscht, ich
- 00:14:47meine im Monat, also für eine sehr
- 00:14:49hohe Zahl.
- 00:14:50Deshalb gibt es diese
- 00:14:52Regelung.
- 00:14:52Maggy, überzeugt dich das?.
- 00:14:53Nicht wirklich.
- 00:14:54Ich habe selber meine Erfahrung mit
- 00:14:55diesem Alterserkennungsmechanismus
- 00:14:57gemacht und habe erlebt, dass
- 00:14:59keine Ahnung, teilweise Leute,
- 00:15:01die sehr wohl im richtigen Alter
- 00:15:03waren, um die App zu nutzen runter
- 00:15:04gebannt wurden. Ich glaube nicht,
- 00:15:05dass das außergewöhnlich gut
- 00:15:06funktioniert. Ich glaube außerdem,
- 00:15:07dass das halt nicht dann gemacht
- 00:15:08wird, wenn es heißt, relevante
- 00:15:10Mengen Aufmerksamkeit zu verlieren,
- 00:15:11weil da schaltet TikTok tatsächlich
- 00:15:13meistens nicht so souverän.
- 00:15:14Was ich ganz häufig mache, wenn ich
- 00:15:16durch den Feed scrolle und wenn
- 00:15:17irgendwie gerade wieder eine
- 00:15:18internationale Krise oder irgendwas
- 00:15:20passiert, dann klick ich immer drauf
- 00:15:21auf "Nicht interessiert", sobald der
- 00:15:23Inhalt politisch wird, weil ich
- 00:15:24nicht möchte, dass TikTok mir
- 00:15:25überhaupt anfängt, zum Beispiel
- 00:15:26Kriegsvideos anzuzeigen.
- 00:15:28Ich möchte gar nicht erst in diesen
- 00:15:29Propagandastrudel reinkommen.
- 00:15:31Frage an euch mal zurückgegeben: Ist
- 00:15:33euch das schon mal passiert, dass
- 00:15:34ihr in so ein radikales Rabbit-Hole
- 00:15:37reingesogen wurde, dass euch so
- 00:15:39radikale Inhalte angezeigt wurden?
- 00:15:40Ihr nickt...
- 00:15:42Ich habe da eine Zahl zu. Die findet
- 00:15:43man auch Netz. Und zwar wurde allein
- 00:15:45im Dachraum 8 Millionen
- 00:15:47mal dieser "Nicht-Liken"
- 00:15:49oder "Gefällt-Mir-Nicht-Button"
- 00:15:50angeklickt. Also jetzt kann man
- 00:15:52nicht sagen 8 Millionen mal wie viel
- 00:15:53waren das dann im Endeffekt.
- 00:15:54Aber mein Feedback
- 00:15:56ist, dass das schon funktioniert.
- 00:15:57Es gibt diesen Button und er wird
- 00:15:58auch genutzt. Die Frage ist, ob zur
- 00:16:00Genüge.
- 00:16:01Ihr habt gerade alle genickt bei den
- 00:16:02extremen Inhalten.
- 00:16:04Alicia. Wie war das bei dir?
- 00:16:05Ich würde noch was ergänzen.
- 00:16:06Ich habe zum Beispiel schon krasse
- 00:16:08Autounfälle,
- 00:16:11Szenen wo Menschen sterben auf
- 00:16:12TikTok gesehen.
- 00:16:14Ich habe die Täterin von
- 00:16:15diesem ganz schlimmen Attentat
- 00:16:17auf die 12-jährige Louise gesehen,
- 00:16:19wie sie einen Tag nach der Tat
- 00:16:20gepostet hat.
- 00:16:21Ich glaube einfach, selbst
- 00:16:23wenn man hinterher ist, ist man
- 00:16:25nicht davor gefeit, irgendwelche
- 00:16:26Inhalte zu sehen, die man vielleicht
- 00:16:28nicht sehen sollte.
- 00:16:28Und da auch wieder bezogen auf das
- 00:16:30Alter.
- 00:16:31Mit 18 verkraftet man das vielleicht
- 00:16:32eher als mit 13.
- 00:16:34Ja, ich wollte noch mal auf den
- 00:16:35Punkt eingehen. Ich glaube, diese
- 00:16:36ganzen Mechanismen,
- 00:16:39wo der Nutzer aktiv werden muss, die
- 00:16:41sind schön und gut, aber
- 00:16:43genau die laufen quasi vorbei
- 00:16:45an der gefährdeten Gruppe, die es
- 00:16:47eben nämlich nicht schafft, die es
- 00:16:48möglicherweise nicht schafft zu
- 00:16:50kontrollieren, die sich gar nicht
- 00:16:51bewusst ist sozusagen.
- 00:16:53Und da bräuchte man passive
- 00:16:54Mechanismen, also beispielsweise
- 00:16:56Pausen nach X Videos,
- 00:16:58dass man dann nicht mehr einfach
- 00:17:00nur weiter scrollt um ein bewusstes
- 00:17:02Reflektieren und Entscheiden: Möchte
- 00:17:03ich überhaupt weitermachen?
- 00:17:04Ermöglicht.
- 00:17:04Wenn ich mir jetzt vorstelle, dass
- 00:17:05jetzt 13-jährige mit solchen krassen
- 00:17:08Algorithmen zu tun haben, wie
- 00:17:09sie jetzt eben TikTok und Instagram
- 00:17:12und so haben, dann würd ich
- 00:17:13auch sagen, man kann nicht denen die
- 00:17:15Verantwortung geben, wenn ich schon
- 00:17:17damit Probleme habe.
- 00:17:18Aber ist nicht, was ich mich gerade
- 00:17:20frage, ist nicht aus Content
- 00:17:21CreatorPerspektive, aus der ihr drei
- 00:17:22ja auch alle sprecht.
- 00:17:23Ist es nicht auch gewünscht, die
- 00:17:25Leute ein bisschen in dieses
- 00:17:26Rabbit-Hole sich ziehen zu lassen,
- 00:17:27damit sie eben eure Videos
- 00:17:29angezeigt bekommen?
- 00:17:30Es ist immer die Frage, welche Art
- 00:17:32von Rabbit-Hole. Wenn das
- 00:17:32Rabbit-Hole jetzt Malte Zierden ist,
- 00:17:35der Tierheime baut im Ausland, dann
- 00:17:36ist das erst mal eine gute Sache,
- 00:17:37die man unterstützt.
- 00:17:38Oder Nadine, die größte TikTokerin in Deutschland,
- 00:17:40die über Selbstliebe spricht und
- 00:17:41mentale Gesundheit. Also das sind
- 00:17:42alles gute Themen, die jungen
- 00:17:44Menschen auch Mut schenken.
- 00:17:46Auf der anderen Seite sehe ich
- 00:17:48natürlich schon die Gefahr dessen
- 00:17:49und bin auch gar nicht gegen eine
- 00:17:51Art von Regulierung, die glaubeich,
- 00:17:53also langfristig auch im Interesse
- 00:17:54aller sein sollte, weil man Social
- 00:17:55Media auf die Weise gesünder nutzen
- 00:17:57kann. Deshalb will ich der Seite gar
- 00:17:58nicht per se widersprechen.
- 00:18:00Levi, Adil hat es gerade gesagt,
- 00:18:02diese krass zugeschnittenen
- 00:18:04Inhalte, also dass manche sagen, der
- 00:18:06Algorithmus, der kennt mich
- 00:18:07irgendwie besser als meine beste
- 00:18:08Freundin oder so.
- 00:18:09Das kann ja auch positive Aspekte
- 00:18:11haben. Hast du selbst schon dieses
- 00:18:12Gefühl gehabt von, "Oh TikTok gibt
- 00:18:14mir so eine Art Zugehörigkeit.
- 00:18:15Ich finde eine Community, ich finde
- 00:18:17vielleicht neue Freunde,
- 00:18:18Freundinnen."
- 00:18:18Ich glaube was ich oft hatte,
- 00:18:20ist auch ein Gefühl, verstanden
- 00:18:23zu werden und gehört zu werden von
- 00:18:24Personen, die vielleicht auch in
- 00:18:25ähnlichen Situationen sind wie ich.
- 00:18:27Vielleicht auch in emotionalen,
- 00:18:28belastenden Situationen.
- 00:18:30Beispielsweise als meine Freundin
- 00:18:31und ich sich getrennt haben, habe
- 00:18:33ich wahnsinnig viele Break-Up-Videos in
- 00:18:34meine Timeline gespielt
- 00:18:35bekommen.
- 00:18:37Was aber für mich eigentlich total
- 00:18:40passend war, weil ich gemerkt habe,
- 00:18:41ich bin nicht alleine, wie ich mich
- 00:18:43fühle. Es gibt andere Personen in
- 00:18:44meiner Situation und
- 00:18:47ich würde dieses Rabbit-Hole und
- 00:18:50in Bubbles rutschen, gerade
- 00:18:52in Bezug auf Politik auch gar nicht
- 00:18:53so in schwarz und weiß sehen,
- 00:18:56weil ich mich noch erinnern kann.
- 00:18:57Vor zehn Jahren haben wir noch
- 00:18:58gesagt die Jugend, die ist heute so
- 00:18:59unpolitisch.
- 00:19:00Und jetzt haben wir durch TikTok
- 00:19:02auch durch andere Soziale Medien
- 00:19:04starke Politisierungsprozesse
- 00:19:06unter Jugendlichen.
- 00:19:07Wir sehen auch steigende
- 00:19:08Wahlbeteiligung bei jungen Personen.
- 00:19:10Und wenn wir über radikale Parteien
- 00:19:13extremistischer Bestrebungen
- 00:19:14sprechen, müssen wir auch darüber
- 00:19:16sprechen. Also TikTok,
- 00:19:18Instagram Reels und Co, sind ganz
- 00:19:19real auch einfach, können auch ganz
- 00:19:21real einfach unsere Demokratie
- 00:19:22bereichern.
- 00:19:25Wenn wir jetzt den Rabbit-Hole-Effekt
- 00:19:27übertragen auf politische Inhalte
- 00:19:29und es wurden ja gerade auch schon
- 00:19:30rechtsextreme Inhalte genannt,
- 00:19:32inwiefern kann der dann gefährlich
- 00:19:33sein?
- 00:19:34Weil man nur noch eine Seite
- 00:19:36der Medaille gezeigt bekommt, weil
- 00:19:37man Informationen von einer Seite
- 00:19:39bekommt, Weil man immer tiefer
- 00:19:41in Disinformationsschleifen
- 00:19:42reinkommt. Vielleicht, weil man
- 00:19:44irgendwie einen Influencer gesehen
- 00:19:45hat, der leicht am rechten Rand
- 00:19:47unterwegs ist und davon dann nur
- 00:19:49noch ein paar Stunden braucht, bis
- 00:19:50man plötzlich bei der Identitären
- 00:19:51Bewegung ist, was Videos angeht.
- 00:19:53Das ist auf TikTok einfach sehr sehr
- 00:19:55schnell möglich und es gibt einfach
- 00:19:56keinen Gegensteuerungsmechanismus,
- 00:19:58weil das nicht wirklich diskussionsbasiert
- 00:19:59ist und weil es keinen
- 00:20:00Fact-Checking-Mechanismus gibt.
- 00:20:02Siehst du da das Problem auch, Adil?
- 00:20:04Jein.
- 00:20:04Der Grundgedanke ist richtig.
- 00:20:06Die Konklusion ist, finde
- 00:20:08ich, die Falsche.
- 00:20:09Ich finde schon wichtig, dass wir
- 00:20:10uns die richtige Frage stellen, weil
- 00:20:12wir sollten eher darüber reden, wie
- 00:20:13wir gesünder mit Social Media
- 00:20:14umgehen und wie wir auf allen
- 00:20:15Ebenen, wir haben über Bildung
- 00:20:16gesprochen, wir haben über Regulierung
- 00:20:18gesprochen, also über rechtliche
- 00:20:19Basis, dafür sorgen,
- 00:20:21dass es
- 00:20:23Awareness gibt, dass es Education
- 00:20:24gibt und dass wir vielleicht auch
- 00:20:26Regeln schaffen. Aber das am
- 00:20:27Beispiel TikTok zu manifestieren,
- 00:20:29finde ich, führt in die falsche
- 00:20:31Richtung.
- 00:20:32Patrick.
- 00:20:32Genau.
- 00:20:33Zur Conclusio.
- 00:20:34Ich glaube, das ist ja kein
- 00:20:35Gegenbeweis, wenn man sagt: "Na ja,
- 00:20:36auf YouTube war es auch schon mal
- 00:20:37Thema oder auf anderen Plattformen."
- 00:20:39Ich glaube, es ist weiterhin Thema
- 00:20:41und es ist noch nicht wirklich
- 00:20:42gelöst. Das ist glaube ich und
- 00:20:43deshalb ist die Diskussion so
- 00:20:45wichtig, darüber zu sprechen.
- 00:20:46Levi, du hast ja auch...
- 00:20:47Ja, und ergänzend dazu: Wir
- 00:20:49erleben einfach nur auf verschiedenen
- 00:20:50Social Media Plattformen, wie
- 00:20:51rechtsextremistische Netzwerke es
- 00:20:53schaffen, diese Plattform für sich
- 00:20:54zu nutzen, die Algorithmen
- 00:20:56perfekt zu verstehen und das Ganze
- 00:20:57irgendwie auszunutzen, um eben
- 00:20:59Diskurshoheit zu gewinnen.
- 00:21:00Und das alles hat uns diese
- 00:21:01Situation gebracht, in der weltweit
- 00:21:03rechtsextremistische Kräfte auf dem
- 00:21:04Vormarsch sind.
- 00:21:05Was macht denn die AfD und
- 00:21:07andere rechte Propagandisten?
- 00:21:09Was machen die denn besser?
- 00:21:10Ich würde mal sagen besser, die
- 00:21:12können sich einfach aussuchen, was
- 00:21:13ist gerade die Informationen sind,
- 00:21:14die zu ihrer Weltsicht passen.
- 00:21:16Die können sich aussuchen, was
- 00:21:18passiert sein soll, also die Welt
- 00:21:19sich zurecht lügen ist immer ein
- 00:21:20bisschen leichter und das kann man
- 00:21:21in alle möglichen politischen
- 00:21:23Richtungen machen. Das ist halt ein
- 00:21:24Grundelement von extremistischen
- 00:21:26Ideologien, dass das passiert.
- 00:21:27Ich glaube zwar, demokratische
- 00:21:28Parteien sollten besser darauf
- 00:21:30achten, TikTok irgendwie auch als
- 00:21:31wichtigen Teil ihrer Arbeit
- 00:21:33aufzunehmen und auch besser auf
- 00:21:34TikTok vertreten zu sein.
- 00:21:36Aber eine Arbeit, die nur darauf
- 00:21:37ausgerichtet ist, auf TikTok gut
- 00:21:39zu klicken, wird ja einfach auch
- 00:21:41unserem sehr komplexen politischen
- 00:21:42System nicht gerecht.
- 00:21:44Was ich noch mal in dieser
- 00:21:45Diskussion um Blasenbildung
- 00:21:46einwerfen würde.
- 00:21:47Blasen gibt es ja nicht nur auf
- 00:21:48Social Media. Also wenn ich jetzt in
- 00:21:49einem ostdeutschen Dorf aufwachse
- 00:21:51und da die ganze Zeit meiner
- 00:21:52rechtsradikalen, rechtsextremen
- 00:21:53Eltern hab und dann vielleicht noch
- 00:21:56die Eltern, dann vielleicht doch
- 00:21:57noch abends zum Stammtisch gehen,
- 00:21:58dann ist das ja auch eine Blase.
- 00:21:59Und da kann dann Social Media,
- 00:22:01TikTok, vielleicht sogar eine Chance
- 00:22:02sein, dass man auch mal einen
- 00:22:03anderen Blick auf die Welt bekommt.
- 00:22:05Das ist jetzt natürlich ein sehr,
- 00:22:07sehr stereotypisch.
- 00:22:08Aber Blasen durchbrechen,
- 00:22:10das ist nicht nur eine Herausforderung,
- 00:22:11die wir in Bezug auf TikTok und
- 00:22:13Social Media haben.
- 00:22:14Maggy, da stimmst du zu.
- 00:22:15Finde ich absolut überzeugend.
- 00:22:16Würde ich auch so sehen.
- 00:22:17Ich glaube außerdem, dass soziale
- 00:22:18Netzwerke da generell den ganz
- 00:22:19positiven Effekt haben.
- 00:22:20Ich meine, ich selber habe politisch
- 00:22:22angefangen bei Fridays of Future.
- 00:22:24Das hätte es ohne Social Media nicht
- 00:22:25gegeben. Und darüber überhaupt
- 00:22:26einfach politisch mal raus zu
- 00:22:28drängen und eben auch in die breite
- 00:22:30Welt raus zu drängen.
- 00:22:30Und in dem Sinne, da ist
- 00:22:32Social Media einfach auch ein
- 00:22:33"enabler" auf jeden Fall.
- 00:22:35Gefährlich wird es halt dann, wenn
- 00:22:37keine Regulierung erfolgt.
- 00:22:38Ja, und mich würde auch total
- 00:22:40noch mal interessieren, wie das ein
- 00:22:41Weltbild beeinflussen kann, gerade
- 00:22:43in dem jungen Alter.
- 00:22:44Patrick an dich: Welchen Einfluss
- 00:22:46kann denn Propaganda, Fake
- 00:22:48News, Desinformation auf Personen
- 00:22:50haben, die noch mitten in der
- 00:22:52Persönlichkeitsentwicklung sind?
- 00:22:53Das kann das Weltbild beeinflussen.
- 00:22:54Es kann natürlich sozusagen aus
- 00:22:56Sicht des Mediziners natürlich auch
- 00:22:57Gesundheitsverhalten möglicherweise
- 00:22:59negativ beeinflussen.
- 00:23:00Das heißt, wenn ich beispielsweise
- 00:23:02an einer Essstörung leide und
- 00:23:04sehe, je dünner,
- 00:23:06je dünner, desto besser, dann kann
- 00:23:08ich natürlich in dieser Sicht und in
- 00:23:09diesem sozusagen falschen
- 00:23:11Selbstbild, das sehen wir auch
- 00:23:12häufig, sozusagen, dass ich mich
- 00:23:13selbst eigentlich als viel zu dick
- 00:23:15wahrnehme, ja befeuern.
- 00:23:17Aber eben ehrlicherweise sich gerade
- 00:23:19auf TikTok sehr viel
- 00:23:21Content zu Body Positivity und
- 00:23:23kein toxisches Schönheitsideal
- 00:23:25mehr, wie es vielleicht noch
- 00:23:26Instagram zugeschrieben wurde.
- 00:23:28Ich bekomme immer die Videos
- 00:23:29ausgespielt, wo Leute darauf
- 00:23:31reagieren und sagen: "What the fuck
- 00:23:33ist jetzt dieser neue Trend schon
- 00:23:34wieder?" Es gibt gute Creator,
- 00:23:36die sich nur darauf spezialisiert
- 00:23:39haben und die Millionen Follower
- 00:23:40haben, was ja ein positives
- 00:23:42Anzeichen ist, dass das schon sehr
- 00:23:43beliebt ist. Aber es gibt halt
- 00:23:44leider auch immer noch die
- 00:23:45Gegenbewegung.
- 00:23:46Zum Abschluss müssen wir natürlich
- 00:23:47noch mal über die politische Debatte
- 00:23:49dahinter sprechen.
- 00:23:50TikTok, einmal an euch alle, wurde
- 00:23:53in den USA ein Ultimatum gestellt
- 00:23:55mit der Forderung nach einem
- 00:23:56Eigentümerwechsel.
- 00:23:57Wenn das nicht passiert, dann droht
- 00:23:59TikTok ein Verbot in den USA.
- 00:24:01Mich würde einmal von euch
- 00:24:02interessieren, einmal so in den Raum
- 00:24:03gefragt: Wie nehmt ihr diese Debatte
- 00:24:05wahr? Levi, einmal du vielleicht.
- 00:24:07Also es ist eine komplizierte
- 00:24:09Situation.
- 00:24:10China besitzt TikTok und China
- 00:24:12ist ein totalitärer Staat.
- 00:24:14Da führt kein Weg dran vorbei.
- 00:24:15Und da kann man noch so viel
- 00:24:17Transparenz schaffen, da ist ein
- 00:24:18gewisses Misstrauen mit verbunden.
- 00:24:20Und ich kann dieses Misstrauen
- 00:24:21persönlich auch nachvollziehen.
- 00:24:24Ich glaube, dass der Diskurs
- 00:24:26jetzt auch in Hinblick auf die
- 00:24:27Wahlen in den USA etwas
- 00:24:29zu populistisch geführt wird
- 00:24:32und dass sich da auch Dinge
- 00:24:34vermischen. Ich glaube, da geht es
- 00:24:35nicht nur um den Besitzer in China,
- 00:24:37sondern da geht es auch um gewisse
- 00:24:40andere Vorbehalte, die man der
- 00:24:42gegenüber anderen Plattform auch hat
- 00:24:44und das dann vielleicht auf TikTok
- 00:24:45so ein bisschen kanalisiert.
- 00:24:46Aber am Ende ist das eine
- 00:24:48Diskussion, von der ich auch glaube,
- 00:24:50dass wir sie führen müssen.
- 00:24:51Alicia, wie nimmst du die Debatte
- 00:24:52um?
- 00:24:53Auf jeden Fall in großen Teilen
- 00:24:55zustimmen.
- 00:24:56Ich finde es manchmal auch ein
- 00:24:57bisschen scheinheilig, weil ich mir
- 00:24:58denke, Facebook und Co sind
- 00:25:01auch ähnliche Datenkraken.
- 00:25:02Ich finde, wir machen das in der EU
- 00:25:04eigentlich schon ganz okay
- 00:25:06im Vergleich zu dem Rest der Welt,
- 00:25:08dass wir zumindest so ein paar
- 00:25:09Richtlinien an Plattform stellen.
- 00:25:10Das war jetzt zum Beispiel so, dass
- 00:25:12Threads viel länger gebraucht hat,
- 00:25:13in der EU durchzukommen, als es
- 00:25:15jetzt in anderen Ländern war.
- 00:25:16Und ich glaube, da müssen wir
- 00:25:17einfach so ein bisschen noch
- 00:25:18nachbessern, dass wir
- 00:25:20an alle, auch an TikTok vor allem,
- 00:25:22weil es eben ganz extrem ist, aber
- 00:25:24auch an die amerikanischen
- 00:25:25Unternehmen einfach krassere
- 00:25:27Anforderungen stellen, damit eben
- 00:25:29das sich nicht negativ
- 00:25:30verselbstständigt.
- 00:25:31Nimmst du das auch so wahr, dass es
- 00:25:32scheinheilig ist, dass man dann auf
- 00:25:34einmal kritischer darauf schaut,
- 00:25:35wenn es außerhalb der USA verortet
- 00:25:36ist, so ein Konzern?
- 00:25:38Na ja, also dass China ein
- 00:25:39systematisches Interesse daran hat,
- 00:25:41westliche Demokratien zu
- 00:25:42destabilisieren, ist ja einfach
- 00:25:43tragischerweise ein Fakt.
- 00:25:44Das ist ja noch mal was anderes,
- 00:25:45einfach. Als diese US
- 00:25:47Unternehmer, die in dem Sinne
- 00:25:49ein Interesse daran haben Profite zu
- 00:25:50machen. Und das kann man gut oder
- 00:25:52schlecht finden, aber das ist
- 00:25:53einfach noch mal weniger
- 00:25:54systematisch.
- 00:25:55Aber Elon Musk hat ja zum Beispiel
- 00:25:56auch Einfluss darauf gehabt, ob
- 00:25:57Trump jetzt auf Twitter auf X
- 00:25:59aktiv sein kann oder nicht.
- 00:26:01Ja, und das finde ich furchtbar.
- 00:26:01Ich finde nicht, dass große
- 00:26:02Plattformen von Rechtsextremisten in
- 00:26:04Deutschland so frei unterwegs sein
- 00:26:06sollten. Und das ist ein richtig
- 00:26:07großes Problem. Und ich
- 00:26:09habe auf jeden Fall auch zu Twitter
- 00:26:10sehr ambivalente Gefühle.
- 00:26:11Ich habe das Gefühl, das sind nur
- 00:26:12Debatten, die für mich jetzt nicht
- 00:26:13unbedingt gegeneinander
- 00:26:15stehen. Ich finde einfach, an und
- 00:26:17für sich genommen ist einfach die
- 00:26:18chinesische Regierung kein guter
- 00:26:20Speicher für unsere Daten.
- 00:26:21Und ist es einfach immer noch nicht
- 00:26:23klar, wie die chinesische Regierung
- 00:26:25auch aktiv eingreift, weil
- 00:26:26es dazu keine Daten gibt, weil
- 00:26:28TikTok die Daten selbst nicht
- 00:26:29rausrückt. Es gibt Indizien dafür,
- 00:26:31dass an manchen Stellen eingegriffen
- 00:26:33wird, beispielsweise bei
- 00:26:34Berichterstattung, die kritisch an
- 00:26:36die Umstände in China rangeht,
- 00:26:38irgendwie runter reguliert wird,
- 00:26:39nicht durchkommt oder so was
- 00:26:40beispielsweise aber auch Begriffe
- 00:26:41wie Wahlen performen teilweise
- 00:26:43schlechter. Das ist etwas, was man
- 00:26:45dringend untersuchen müsste.
- 00:26:46Aber TikTok schafft da nicht die
- 00:26:47nötige Transparenz.
- 00:26:48Fake News. Das sind Fake
- 00:26:50News, muss ich so sagen.
- 00:26:52Also da können wir gerne nach der
- 00:26:54Sendung darüber reden, welche
- 00:26:55Quellen du da hast. Aber ich halte
- 00:26:56das für Hanebüchen. Also
- 00:26:59TikTok hat sehr sehr starke Regularien.
- 00:27:00Und TikTok baut gerade
- 00:27:02ein Datencenter für, ich glaube 12
- 00:27:03Milliarden Invest in Europa.
- 00:27:05Das aber systematisch, weil hier
- 00:27:06wurde ja wirklich von systematisch
- 00:27:07gesprochen und dem chinesischen
- 00:27:09Staat, der Interesse hat,
- 00:27:10Demokratien zu destabilisieren.
- 00:27:11Das halte ich für wirklich
- 00:27:12gefährlich, weil damit führen wir
- 00:27:14die falsche Debatte und dann sind
- 00:27:15wir wieder weg von, wie können wir
- 00:27:17gemeinsam Lösungen finden und
- 00:27:18Regularien erarbeiten, hinzu, aus
- 00:27:20meiner Sicht wirklich Fake News.
- 00:27:22Die chinesische Regierung an und für
- 00:27:23sich ist eine Autokratie, ist eine
- 00:27:25Diktatur in dem Sinne und hat
- 00:27:27einfach kein Interesse an
- 00:27:29demokratischen Regimen in der Welt
- 00:27:31und demokratischen Ländern
- 00:27:32usw und hat ein Interesse
- 00:27:34daran, dass die irgendwie in der
- 00:27:35Form destabilisiert werden.
- 00:27:37Arbeitet ja teilweise auch mit
- 00:27:38Russland zusammen usw.
- 00:27:39Das sind ja Fälle die man kennt.
- 00:27:40Und bei den anderen Sachen habe ich
- 00:27:42gesagt, dass es Indizien gibt.
- 00:27:43Ich weiß nicht genau, ob das stimmt
- 00:27:45oder nicht stimmt oder so was.
- 00:27:46Ich glaube nur, dass das halt
- 00:27:47geprüft werden muss. Und wenn das
- 00:27:48tatsächlich stimmt, ist es einfach
- 00:27:50eine Katastrophe.
- 00:27:51Was ich selbst oft erlebe ist es ist
- 00:27:53einfach tatsächlich, dass
- 00:27:54Desinformation nicht genug
- 00:27:55entgegengetreten wird.
- 00:27:56Und das ist manchmal außergewöhnlich
- 00:27:58schwierig ist, mit wichtigen
- 00:28:00Themen durchzudringen.
- 00:28:02Anna, was sagst du dazu?
- 00:28:03Ich glaube jetzt zum Thema, dass die
- 00:28:04das jetzt machen, denk ich mir okay,
- 00:28:06jetzt, wie lang gibt es generell
- 00:28:08jetzt schon Ticktack, wie lange gibt
- 00:28:10es schon Social Media Plattformen?
- 00:28:11Also es ist halt jetzt relativ
- 00:28:13spät erst, würde
- 00:28:15ich sagen, eigentlich sollte man da
- 00:28:16vorher schon sicherstellen, dass die
- 00:28:17Daten von uns gut
- 00:28:19aufbewahrt werden.
- 00:28:20Ich muss da intervenieren, weil es
- 00:28:22gibt einen Transparency-Report von
- 00:28:23TikTok, den kann sich jeder im
- 00:28:24Internet anschauen und da sagen die
- 00:28:25ganz genau, was mit den Daten
- 00:28:26passiert, wer Einblick hat, welche
- 00:28:27Mitarbeiter Zugriff haben usw.
- 00:28:29Und ich glaube, bei allem Respekt,
- 00:28:30dass das nicht jeder hier gelesen
- 00:28:31hat und sonst würde es ....Nein ich
- 00:28:33meine nicht dich Anna.
- 00:28:35Sonst würden nicht solche Gerüchte gestreut, weil
- 00:28:36aus meiner Sicht Indizien mag sein,
- 00:28:37Einzelfälle oder so was, aber nicht
- 00:28:39wirklich systematisch und nicht der
- 00:28:40chinesische Staat und das ist für
- 00:28:41mich fast schon eine Verschwörungstheorie, to be honest.
- 00:28:44Es ist keine Verschwörungstheorie,
- 00:28:45sonst würde sich nicht die USA und
- 00:28:47die Europäische Kommission damit
- 00:28:48auseinandersetzen. Aber du hast
- 00:28:49natürlich recht damit..
- 00:28:50Für mich ist das politisch motiviert.
- 00:28:51...aktuell keine Beweise dafür
- 00:28:52haben. Aber es gibt natürlich die
- 00:28:53Befürchtung, die auch berechtigt
- 00:28:55ist und deswegen müssen wir auch
- 00:28:56darüber sprechen.
- 00:28:57Lass uns weiter ziehen, weil ich
- 00:28:59glaube, ihr werdet euch an der
- 00:29:00Stelle nicht einig.
- 00:29:01Das ist okay.
- 00:29:02Kompromisse.
- 00:29:03Ich habe zuerst einen ersten,
- 00:29:05ich nenne ihn mal Minimalkonsens.
- 00:29:08Die Jugendschutzkontrolle muss
- 00:29:09ernster genommen werden.
- 00:29:11User*innen müssen ihr Alter bei der
- 00:29:12Registrierung nachweisen.
- 00:29:14Videocontent sollte je nach Inhalt
- 00:29:16eine Altersbegrenzung haben.
- 00:29:18Das wäre mein Vorschlag.
- 00:29:20Wenn ihr mir zustimmt, könnt ihr ein
- 00:29:21Schritt auf mich zugehen.
- 00:29:23Wie nachweisen?
- 00:29:25Na, das müssten wir uns dann überlegen.
- 00:29:26Ausweisdokumente zum Beispiel.
- 00:29:27Zum Beispiel.
- 00:29:28Das finde ich, glaube ich, nicht so
- 00:29:29gut. Also noch zusätzlich
- 00:29:31das Ausweisdokument.
- 00:29:33Zig Millionen Ausweisdokumente.
- 00:29:34Also, wir müssen uns da etwas
- 00:29:36überlegen. Das wäre jetzt erst mal
- 00:29:37der Vorschlag. Wie genau das dann
- 00:29:39aussieht, habe ich mir jetzt nicht
- 00:29:40überlegt, aber ist ja erst mal nur
- 00:29:41ein Impuls.
- 00:29:43Okay, ihr stimmt mir zu.
- 00:29:44Den Rest könnt ihr jetzt gerne
- 00:29:45ausarbeiten, weil mein Job ist das
- 00:29:46nicht. Also steckt ihr immer die
- 00:29:48Köpfe zusammen und ihr und überlegt
- 00:29:49euch einen Kompromissvorschlag.
- 00:29:58Wir haben jetzt einige Argumente von
- 00:29:59beiden Seiten gehört und mich würde
- 00:30:01interessieren, was wäre euer
- 00:30:02Kompromissvorschlag, wenn ihr jetzt
- 00:30:04hier auf dem Feld stehen würdet.
- 00:30:05Schreibt mir das gerne mal in die
- 00:30:06Kommentare.
- 00:30:08Gelb. Ihr war zuerst fertig.
- 00:30:10Was habt ihr euch überlegt?
- 00:30:11Wir glauben, dass es notwendig
- 00:30:14ist, die Debatte ein bisschen
- 00:30:15wegzubewegen von TikTok, weil die
- 00:30:17meisten Punkte, die wir angesprochen
- 00:30:18haben, sich eigentlich auch auf
- 00:30:19andere Social Media Kanäle,
- 00:30:20Plattformen übertragen lassen.
- 00:30:23Und dass, wenn wir über die
- 00:30:25einzelnen Punkte unabhängig davon
- 00:30:28diskutieren, auf welcher Plattform
- 00:30:29sie tatsächlich stattfinden, wird
- 00:30:31die Ursache auch besser anpacken
- 00:30:32können.
- 00:30:33Und der zweite Punkt ist tatsächlich
- 00:30:35konkreter und praktischer.
- 00:30:36Und zwar, dass es in der
- 00:30:37Verantwortung vom Gesetzgeber auch
- 00:30:39sein soll, und zwar nicht nur
- 00:30:40auf TikTok bezogen, sondern bei
- 00:30:42allen Kurzvideo oder Social Media
- 00:30:43Plattformen, die Suchtpotenzial
- 00:30:45haben. Dass man sagt zum Beispiel
- 00:30:46bei der Anmeldung, dass man angeben
- 00:30:48muss, wie viele Videos am Tag man
- 00:30:50maximal schaut, dass es
- 00:30:52natürlich trotzdem eine Eigenverantwortung
- 00:30:53ist, zu einem gewissen Grad.
- 00:30:54Aber man muss das angeben oder das
- 00:30:56man zum Beispiel auswählen kann.
- 00:30:57Nach drei Videos kommt ein Black
- 00:30:59Screen für fünf Sekunden, der
- 00:31:01einen so auf die Art aufruft zu
- 00:31:02fragen: "Möchte ich weiterschauen."
- 00:31:04Was wir glauben, was passieren würde
- 00:31:05ist das, wenn zum Beispiel jemand
- 00:31:06sagt 300 Videos, dann erscheint
- 00:31:08das erst mal mega viel.
- 00:31:09Aber es gibt ja sehr viele, die
- 00:31:10wirklich so viele Videos schauen und
- 00:31:11dass die dann denken: "Oh wow, ich
- 00:31:13habe ja schon 300 Videos geschaut
- 00:31:14und dann noch so eine Art Lerneffekt
- 00:31:15einsetzt."
- 00:31:16Okay, das sind die zwei Vorschläge
- 00:31:18vom gelben Feld.
- 00:31:19Ich würde sagen besser als nichts.
- 00:31:22Ich denke das Dauerkonsum
- 00:31:24beschränken ist richtig.
- 00:31:25Gleichzeitig reicht das, was ihr
- 00:31:27vorgeschlagen habt, glaube ich nicht
- 00:31:28aus.
- 00:31:29Vor allem die Personen, die schon
- 00:31:31gefährdet sind, die Kontrolle zu
- 00:31:32verlieren oder die Kontrolle
- 00:31:33verloren haben.
- 00:31:34Die schaffen es nämlich nicht,
- 00:31:36quasi über diese Maßnahmen
- 00:31:38das dann bewusst zu nutzen.
- 00:31:40Und ich glaube, da muss man mehr
- 00:31:42Maßnahmen etablieren.
- 00:31:44Doofe Frage. Also wäre das
- 00:31:45realistisch, vielleicht mal an dich
- 00:31:46als der Business Profi an der
- 00:31:48Stelle, dass TikTok so was überhaupt
- 00:31:49einführen würde? Weil es ist ja in
- 00:31:50deren Interesse, dass wir die App
- 00:31:52nicht verlassen.
- 00:31:52Deswegen ist der Algorithmus ja auch
- 00:31:54wie er ist.
- 00:31:54Also das Geschäftsmodell einer
- 00:31:56Social Media Plattform beißt sich
- 00:31:57ein stückweit mit Regulierung.
- 00:31:59Deshalb bin ich auch per se dafür,
- 00:32:01dass wir uns als Gesellschaft
- 00:32:02Gedanken machen Was können wir denn
- 00:32:03tun?
- 00:32:04Was ist denn euer
- 00:32:04Kompromissvorschlag?
- 00:32:05Ich fange einfach mit dem ersten
- 00:32:08an, das wäre so ein bisschen
- 00:32:10im Persönlichen und das wäre so
- 00:32:12suchtfreie Räume vielleicht
- 00:32:13schaffen. Das vielleicht auch
- 00:32:15Schulen, sagen: "Bei uns ist einfach
- 00:32:16kein Smartphone an der Schule, damit
- 00:32:18zumindest in der Pause die Kinder
- 00:32:19sich miteinander unterhalten."
- 00:32:21Also es wäre sehr sinnvoll,
- 00:32:23Mechanismen abzubauen, die
- 00:32:25süchtiges Verhalten fördern.
- 00:32:26Wir sehen das am Beispiel von TikTok
- 00:32:28Lite finde ich sehr schön, was durch
- 00:32:30EU Intervention auch zurückgerollt
- 00:32:32wurde, zumindest für mein
- 00:32:33Verständnis zum aktuellen Zeitpunkt,
- 00:32:35wo Belohnungen monetär
- 00:32:37zum Teil für Videos gucken eben
- 00:32:38abgebaut wurden.
- 00:32:39Und das gleiche brauchen wir jetzt
- 00:32:41noch auf anderer Ebene.
- 00:32:42Was sagt ihr? Überzeugt euch?
- 00:32:43Der Kompromissvorschlag?
- 00:32:44Ihr wart euch eigentlich beim
- 00:32:45zweiten Punkt, hattet ihr nicht
- 00:32:46irgendwie den gleichen, mit
- 00:32:48diesem...
- 00:32:48Es war schon sehr ähnlich.
- 00:32:49...quasi irgendwann den Algorithmus
- 00:32:50zu unterbrechen. Da seid ihr euch ja
- 00:32:51einig, wenn ich es richtig
- 00:32:52verstanden habe.
- 00:32:53Und ich würde als dritten Punkt noch
- 00:32:54einwerfen, dass man
- 00:32:55Factchecking-Mechanismus braucht in
- 00:32:57irgendeiner Form.
- 00:32:58Also heißt, dass zum Beispiel unter
- 00:32:59Videos, die Desinformation
- 00:33:00verbreiten, entweder eine kleine
- 00:33:02Anmerkung kommt, dass
- 00:33:03eine Art Community Note, die einmal
- 00:33:05klarstellt, dass das nicht stimmt
- 00:33:06oder was tatsächlich die Sachlage
- 00:33:08ist. Oder alternativ eben auch,
- 00:33:10Desinformation leichter runter
- 00:33:11genommen wird.
- 00:33:12Also Factchecking war euer dritter
- 00:33:14Punkt und im zweiten wart ihr euch
- 00:33:15einig und der erste war suchtfreie
- 00:33:16Räume, zum Beispiel an Schulen.
- 00:33:18Stimmt ihr da zu?
- 00:33:20Geht ihr einen Schritt aufs grüne
- 00:33:21Feld zu?
- 00:33:21Also ich glaube drei gibt es schon
- 00:33:24und es ist natürlich eine Frage, wie
- 00:33:25weit man gehen will. Ist ein
- 00:33:26schmaler Grat zwischen Zensur
- 00:33:28und Kuration.
- 00:33:29Punkt 1 mit der Regulierung in der
- 00:33:31Schule, bis wir darüber nachdenken,
- 00:33:33wie weit und wie doll und bis zu
- 00:33:34welchem Alter. Weil es natürlich
- 00:33:35auch eine krasse Einschränkung der
- 00:33:36Freiheit ist.
- 00:33:36Anna, Levi, was denkt ihr?
- 00:33:38Also, was mich gerade so ein
- 00:33:39bisschen stört an diesem, in dieser
- 00:33:40Kompromissdiskussion.
- 00:33:41Die Frage ist macht TikTok unsere
- 00:33:43Gesellschaft kaputt und am Ende
- 00:33:44reden wir nur darüber, wie können
- 00:33:46wir individuelles Nutzerverhalten
- 00:33:48im Risiko reduzieren?
- 00:33:49Wie können wir die Plattformen dazu
- 00:33:50in die Pflicht nehmen, dass sie
- 00:33:51vielleicht irgendwelche Maßnahmen
- 00:33:52einschränken?
- 00:33:53Und da müssen wir uns, glaube ich,
- 00:33:55auch einfach, also den Gesetzgeber,
- 00:33:57auch einfach stärker in die Pflicht
- 00:33:58nehmen, dass wir uns überlegen, wie
- 00:33:59können wir für alle Plattformen
- 00:34:00einheitliche Standards schaffen, um
- 00:34:02sowohl den individuellen Menschen
- 00:34:03als auch unsere Demokratie zu
- 00:34:05schützen? Und wie können wir
- 00:34:06vielleicht am Ende auch die Chancen,
- 00:34:07die Sozialen Medien ja auch bieten?
- 00:34:09Wie können wir die besser nutzen?
- 00:34:12Maggy stimmt dir da glaube ich zu. Alicia auch. Patrick auch?
- 00:34:14Genau, partiell würde ich sagen,
- 00:34:15weil ich glaube, es ist immer leicht
- 00:34:17zu sagen, die Politik muss etwas
- 00:34:19tun.
- 00:34:20Ich glaube, man muss sich auch als
- 00:34:21Gesellschaft oder als verschiedene
- 00:34:22Mitglieder der Gesellschaft
- 00:34:24positionieren.
- 00:34:24Dafür haben wir ja die Diskussion
- 00:34:26jetzt auch geführt, um zumindest mal
- 00:34:27herauszufinden, was es uns sechs
- 00:34:29oder sieben, wenn ich mich jetzt
- 00:34:30einfach mal frech mit zähle, was ist
- 00:34:31uns wichtig?
- 00:34:32Deswegen vielen Dank für die
- 00:34:33Diskussion. Wir werden ja auch
- 00:34:34sehen, wie es weitergeht.
- 00:34:35Also TikTok hat Klage gegen das
- 00:34:37Verbot eingereicht.
- 00:34:38Das ganze Thema ist ja noch nicht
- 00:34:39vorbei und das Ultimatum für
- 00:34:41TikTok selbst läuft übrigens, das
- 00:34:43ist ein ganz spannendes Datum am 19.
- 00:34:45Januar 2025 aus, was einen
- 00:34:47Tag vor der Amtsübergabe nach der US
- 00:34:49Wahl ist. Und Trump hat ja seine
- 00:34:50Meinung zu TikTok jetzt auch schon
- 00:34:51wieder geändert und sieht das
- 00:34:53Problem jetzt gar nicht mehr so
- 00:34:54groß. Das heißt es wird sich jetzt
- 00:34:56wahrscheinlich in den nächsten
- 00:34:57Monaten auch immer mal wieder,
- 00:34:58werden wir sehen, wie sich die
- 00:34:59Entwicklungen verändern.
- 00:35:00Das heißt, wir bleiben dran.
- 00:35:02Danke für die Diskussion.
- 00:35:03Das war 13 Fragen.
- 00:35:07Danke euch!.
- 00:35:09Wenn euch diese Folge 13 Fragen
- 00:35:11gefallen hat, dann dürft ihr sehr
- 00:35:12gerne hier unseren Kanal unbubble
- 00:35:14abonnieren, um keine weitere
- 00:35:15Diskussion zu verpassen.
- 00:35:17Und hier oben gibt es ein weiteres
- 00:35:18Video von 13 Fragen.
- 00:35:20Hier unten findet ihr ein weiteres
- 00:35:22Video zum Thema.
- TikTok
- Sociale medier
- Afhængighed
- Misinformation
- Ekstremisme
- Regulering
- Unge
- Skærmtid
- Politisk indhold
- Indholdsskabere