KI-Probleme, SXSW, TikTok-Verbot
Shownotes
Alles gesagt über KI? Das sollte man meinen, doch zum Glück liefert das britische Königshaus einen neuen Aufhänger - Royal-Fan Christian ist Feuer und Flamme. Auch auf der SXSW war Künstliche Intelligenz natürlich Thema Nummer 1 - und das Team des Media Lab war dabei. Zum Schluss geht es noch kurz um TikTok - in der Causa "USA vs. Bytedance" können sich beide Seiten voll auf das Hype Institut verlassen.
Die ausführliche SXSW-Berichterstattung von Media-Lab-Chefin Lina Timm: https://www.linkedin.com/newsletters/7039654215845081088/
Der KI-Rant von Ed Zitron: https://www.wheresyoured.at/are-we-watching-the-internet-die/
Transkript anzeigen
00:00:00: [Musik]
00:00:23: Willkommen zur Märzfolge des Hike-Instituts Podcasts des Minela Bayerns.
00:00:29: Christian, was macht der Hype?
00:00:31: Der Hype wurde seit Januar nicht mehr in der Öffentlichkeit gesehen und hat manipulierte Bilder von sich veröffentlicht
00:00:36: und soll Ostern wieder zu sehen sein.
00:00:39: Ich glaube, dass der Stand des Hypes, zumindest wie ich ihn im letzten Monat wahrgenommen habe,
00:00:44: wo ich tief, also hier in Deutschlands führenden Royal Podcast, der wir glaube ich sind,
00:00:49: tief in das Thema eingestiegen bin, auf jeden Fall. Weißt du wovon ich rede?
00:00:54: Das ist der Stand für uns der Royal Podcast. Ja, ich weiß wovon ich rede, dass aber für all die Leute,
00:00:58: die natürlich jetzt auch vielleicht seit Januar nicht mehr gesehen wurden, fast doch mal kurz die Tomate zusammen.
00:01:04: Ja, es geht natürlich um Kate Middleton, die Prinzessin von Wales, glaube ich, ist.
00:01:10: Ich glaube, das ist ihr Titel, also die Frau von Prinz William, dem britischen Brunfolger.
00:01:14: Das ist eine Verschwörungstheorie, die glaube ich umfassend seit Januar durch das Internet geistert,
00:01:20: einfach schon seit einer Krankenhauseinweisung, glaube ich, im Januar nicht mehr gesehen wurde.
00:01:25: Was natürlich zu allerlei Spekulationen und wurde sie entführt, ist sie tot,
00:01:29: möchte sie die Familie verlassen, lassen sie sich scheiden, etc. geführt hat.
00:01:33: Und man kennt ja die sehr enge Beziehung der britischen Medien, besonders der Yellow Press mit dem Königshaus,
00:01:40: wo also klar ist, wenn über sowas schon auch in der Sun und sowas spekuliert wird,
00:01:44: dann bedeutet das das irgendwie nicht genug Gegenleistung aus dem Königshaus hinterhergeschossen wurde,
00:01:49: was dann auch diese Verschwörungstheorie natürlich wieder befeuert hat im Sinne von
00:01:52: stetige Familie, nicht mehr hinter Kate, was auch immer.
00:01:55: Gar nicht der relevante Teil, der vielrelevante Teil für diesen Podcast ist, glaube ich,
00:01:59: dass dann ein Bild veröffentlicht wurde vor zwei Wochen, glaube ich,
00:02:03: dass Kate Middleton im Kreise ihrer Kinder zeigen sollte und das relativ offensichtlich
00:02:10: nicht nur manipuliert war, sondern meines Erachtens auch von AI generiert wurde.
00:02:16: Also es hat so ein paar dieser klassischen Sachen gibt.
00:02:19: Also eines dieser Kinder hat zum Beispiel keinen Daumen.
00:02:21: Das andere Kind hat sehr merkwürdig verdrehte Finger, die eigentlich so keinen Sinn machen.
00:02:26: Die Haare von Kate auf dem Foto sehen aus wie so eine zusammenhängende Masse stellenweise.
00:02:32: Also genau diese Telltale Science, die man irgendwie eigentlich fast schon gar nicht mehr so stark,
00:02:38: weil die generative KI da besser geworden ist, aber so in diesen KI-Bildern so ein bisschen
00:02:42: als die Telltale Science, dass es KI generiert sein könnte.
00:02:45: So immer sieht, achtet auf die Haare, achtet auf die Finger so, das kennt man irgendwie.
00:02:49: Und was natürlich diese Verschwörungstheorien noch viel, viel mehr angestachelt hat,
00:02:53: was dann Kate dazu veranlasst hat auf Twitter bekannt zu geben, dass es wie ihr Fehler gewesen
00:02:58: und sie hätte, wie viele Hobbyfotografen würde auch sie ab und zu mit Bildbearbeitung experimentieren
00:03:02: und hätte dabei Fehler gemacht, was natürlich absurd ist, weil sie sich mit die Schuhe selber zusammenbinden muss.
00:03:06: Natürlich wird die Prinzessin von Wales nicht ihre eigenen Pressebilder bearbeiten.
00:03:11: Das halte ich für komplett absurd und kann mir jetzt gern ein richtiger Royal Insider sagen, dass es vielleicht doch so ist.
00:03:16: Nichtsdestotrotz war das Bild KI manipuliert, was dann auch dazu geführt hat, dass viele Presseagenturen,
00:03:22: die es zuerst verteilt hatten, dieses Bild da wieder zurückgezogen haben und eine sogenannte Kill-Notice rausgeschickt haben.
00:03:28: Also eine Nachricht über Nachrichtenticker, hey, dieses Bild bitte nicht mehr verwenden wegen Manipulationsverdacht.
00:03:34: Und abgesehen davon, dass ich seitdem jetzt natürlich super tief involviert bin, dass ich wissen will, wie es Kate geht,
00:03:40: fand ich das schon spannend, dass offensichtlich, also zwei Sachen fand ich daran eigentlich spannend.
00:03:46: Also zum einen, dass offensichtlich diese generative Funktion entweder dann in dem Programm drin ist,
00:03:53: dass im Königshaus in der Presse Stelle genutzt wurde, ohne dass die Leute ernsthaft sich damit beschäftigt hatten,
00:03:58: weil das wäre relativ offensichtlich, hätte jedem, der sich dieses Foto einmal nicht anguckt, auffallen können, dass es manipuliert ist.
00:04:04: Und der zweite Punkt ist, dass so eine Selbstbeobachtung, so ein bisschen was diesen Umgang mit solchen Inhalten angeht.
00:04:10: Ich hatte, als ich von dieser Geschichte Wind bekommen habe, zuerst nur ein Ausschnitt des Fotos gesehen,
00:04:16: wo nur Kate's Kopf zu sehen war und daneben die Kopf ihrer Kinder und gar nicht der Rest mit den Händen und Fingern usw.
00:04:21: Wo es nicht ganz so offensichtlich ist, dass es manipuliert ist.
00:04:24: Und ich habe mir das angeguckt und ich hatte so ein Vibe, das sieht irgendwie komisch aus,
00:04:29: das ist KI generiert, aber dann sofort gefolgt und dann gesagt, ne Quatsch, das kann ja nicht KI generiert sein.
00:04:34: So, warum würden die ein KI generiertes Bild veröffentlichen? Das macht überhaupt keinen Sinn.
00:04:38: Was ich so ein bisschen interessant war, als Beobachtung, wie stark dieser Impuls doch irgendwie ist,
00:04:44: solchen Inhalten dann irgendwie zu glauben, und dann sagen, hey, das kann ja nicht manipuliert sein.
00:04:48: So, obwohl es ganz offensichtlich manipuliert ist, diese Tendenz,
00:04:52: die ist das dann trotzdem irgendwie zu glauben und trotzdem irgendwie, das anderen nicht unterstellen zu wollen,
00:04:58: dass es generiert ist, was ich ganz interessant finde, so als unter diesem Nutzungsaspekt,
00:05:01: was ist eigentlich passiert, wenn viel mehr Bilder auch von Prominenten in Zukunft manipuliert sind
00:05:06: und wie wir selber damit umgehen, auch die wir uns jetzt irgendwie für aufgeklärte Mediennutzer erinnern halten.
00:05:12: Musst du sagen, dass alles, was ich über diese Story bis wir gelernt habe, definitiv gegen mein Willen war?
00:05:19: Ich finde es eher interessant ist, du hast hier eine Story, oder du hast hier eine gewisse Lücke,
00:05:29: wo einfach Unklarheit und Unsicherheit da ist und wie sehr die Leute anfangen,
00:05:34: das mit eigenen sehr absurden und wilden Theorien zu füllen und inwiefern das so,
00:05:39: also wie so Verschwörungstheorien teilweise so Gossip geworden sind an der Stelle.
00:05:45: Das finde ich halt eher interessant. Also ich habe so eine Empenge von dem Bild selber,
00:05:48: weil auch in das Bild kann man viel reinlesen.
00:05:51: Ich bin eher der Meinung, dass "A" sehr wahrscheinlich absolut irrelevant
00:05:56: und es gibt eine absolut langweilige und uninteressante Erklärung
00:05:59: und vielleicht Fotoshop zieht wirklich selber und hat den Klonstempel falsch verwendet,
00:06:03: vielleicht war es tatsächlich KI generiert.
00:06:05: Ich finde es eher interessant, dass die Tendenz so da ist,
00:06:08: dieser schnellere Flex da, eine Verschwörung zu glauben und dann...
00:06:12: Und weil ich daher dann behaupten würde, ich sehe das total, dieses "Hey, wir haben irgendwie
00:06:16: zwei Informationspunkte, nämlich irgendwie der Informationspunkt, es gibt hier eigentlich
00:06:20: die Thronfolgerin, die war oft in den Medien und jetzt ist sie eine längere Zeit nicht in den Medien,
00:06:23: das sind irgendwie zwei Fakten. Und dann dazwischen, wir wissen nicht,
00:06:26: wie diese beiden Fakten in Zusammenhang stehen und dann denkt man sich halt die Verbindung aus
00:06:30: und so entstehen Verschwörungstheorien. Ich glaube allerdings jetzt eher,
00:06:33: das ist keine, das ist jetzt nicht wirklich eine neue Entwicklung,
00:06:36: ich glaube neu ist nur, dass wir das Verschwörungstheorien nennen würden,
00:06:38: wie du schon gesagt hast, das ist halt einfach, kein Ahnung, was die Yellow Pranker,
00:06:41: keine Ahnung, was die Yellow Press irgendwie seit 60 Jahren macht.
00:06:44: Ich glaube, das hat man früher vielleicht nicht um Verschwörungstheorien genannt.
00:06:47: Ja, fair.
00:06:48: Faire.
00:06:49: Obwohl das ja irgendwie, oder, also weil es ja, also klar,
00:06:52: diesen, dieses Denkmuster, das ist ja auch viel beschrieben worden,
00:06:55: auch wenn wir wirklich über im Rahmen von Q and Non oder Trump oder so diese ganzen
00:06:59: Verschwörungstheorien und Anführungszeichen, wo ja auch viele Medien inzwischen ja auch nur
00:07:03: noch über Verschwörungserzählungen oder so, also das ist schon so ein bisschen einordnen,
00:07:07: weil es eben die meisten ja offen gar nicht Verschwörungstheorien sind,
00:07:12: sondern halt oft auch einfach Bullshit oder Gossip oder sonst was.
00:07:17: Klar, verstehe was du meist mit dem Denkmuster, ich fand es nur so interessant.
00:07:20: Das ist ein Verschwörungstheorien.
00:07:22: Ja, genau, oder halt einfach so, so ein, das ist ja ja,
00:07:25: der hat es Q and Non begonnen, hat dieses kollektive, mimetische,
00:07:28: weiter Spinnen von der Geschichte, so, dass ja auch irgendwie nicht jeder, der sagt,
00:07:33: oh, vielleicht wurde sich von Aliens entführt und das müssen sie vertuschen,
00:07:36: glaubt das ja wirklich, sondern das ist ein ironisches Weiterspielen von diesen Mechaniken,
00:07:40: die da irgendwie dahinter stecken.
00:07:42: Findest du aber dann auch nur aus, ich sag mal aus einer Publicistik oder aus einer PR-Perspektive
00:07:47: halt schon einfach interessant, wie die Leute, die da sitzen bei diesem Königshaus
00:07:52: und ja eigentlich absolute Vollprofis sein sollten, wie den so was zu durchrutschen kann,
00:07:58: was diese offensitiven Theorien ja, also diese Theorien ja noch viel, viel, viel mehr anheizt,
00:08:02: obwohl sie eigentlich offensichtlich bekämpfen wollten?
00:08:05: Das wäre nicht die erste Pressestelle, die an Social Media scheitert.
00:08:10: Es scheint so. Lass uns das, wie gesagt, das ist mein kleines Privatinteresse jetzt im Moment,
00:08:15: bin sehr gespannt.
00:08:16: Schickt uns unsere besten Kettverschwörungstheorien auf jeden Fall an www.igetmedia.de
00:08:21: Ja, genau. Also ich bin gespannt, wie es ausgeht und bin gespannt, ob wir irgendwann von,
00:08:26: aus Indomitium, die diese ganzen Royal Mitarbeitenden schreiben mir immer alle so Enthüllungsbücher,
00:08:31: wenn sie dann irgendwann in Rente sind, ob wir irgendwann die Geschichte hinter diesem
00:08:34: Foto noch erfahren werden. Aber lass uns das auch gerne einfach aus Überleitung benutzen,
00:08:39: um einfach weiter noch ins KI-Thema zu gehen.
00:08:41: Es gab irgendwie nichts technologisch, irgendwie nichts Neues.
00:08:46: Wir warten immer noch auf Soma. Das Video Text-to-Video-Tool von OpenAI,
00:08:50: das vielleicht irgendwann veröffentlicht wird.
00:08:53: Ansonsten gab es hauptsächlich viel Debatte, oder?
00:08:55: Ja, viel Debatte, einige etwas wehre Interviews. Wir braschen nicht sagen die Interviews.
00:09:02: Sam Omen war jetzt bei Lex Freedman und hat sich geschafft, über eine Stunde lang
00:09:08: sehr waage zu bleiben, was krass ist für ein Tech-Firma mit einer 2-stelligen Milliarden-Bewertung.
00:09:18: Drei-stellig inzwischen. Gott, ich weiß es gar nicht mehr.
00:09:21: Eine Waage in welchem Bereich?
00:09:23: Was es tatsächlich jetzt Chat-GPT kann, was es können soll, es ist sehr viel Konjunktiv,
00:09:30: sehr viel It Might, It Could, wenig It Does.
00:09:35: Und ich finde, dass es schon interessant ist, dass wir immer noch nach, was sind das jetzt,
00:09:41: 14 Monate nach dem Chat-GPT veröffentlicht wurde, immer noch in einem sehr konjunktiv,
00:09:48: oder einem starken Konjunktiv, vor allem einem Konjunktiv, der in die Zukunft gerichtet ist über KI-Räden.
00:09:55: Und den wir noch überraschend wenig haben mit, was tut es denn jetzt eigentlich?
00:09:59: Und das vor allem halt von, na ja, dem Geschäftsführer, also wenn ein Autobauer 13 Monate nach
00:10:07: dem Veröffentlichung eines Autos immer noch in Konjunktiv darüber redet, was dieses Auto eigentlich koennen sollte.
00:10:12: Ist das ein schlechtes Zeichen, meiner Meinung nach?
00:10:15: Und ich meine gerade, Sam Alton, der ist natürlich seine Hauptaufgabe, ist ja das Ding zu verkaufen.
00:10:21: Und da hilft natürlich der Hype, da hat mir glaube ich auch schon, ich glaube,
00:10:25: ich habe es in einer der ersten Folgen mal drüber gesprochen, was ist eigentlich Hype.
00:10:28: Und klar, das lebt viel von diesem Verkaufen von einer Zukunft, die es noch nicht gibt,
00:10:33: aber die es vielleicht geben könnte, wo man dann Early Adopter sein kann und vor der Welle schwimmen und so weiter.
00:10:38: Ja, finde ich interessant, ich habe das Interview nicht gesehen.
00:10:40: Ich habe aber einen spannenden Text gelesen, den du glaube ich auch gelesen hast, von, heißt der Dance-Catron?
00:10:44: @citron.
00:10:46: @citron, der einen langen Artikel überschrieben hat, "Are we watching the Internet?"
00:10:51: Da werde ich unten in den Schaunots auch verlinken, wo er hauptsächlich so zwei Themen aufgreift,
00:10:58: die wir auch schon mal so hatten, die so glaube ich auch generell in der AI-Kritik so ein bisschen rumflattern.
00:11:03: Zum einen dieses Thema, was eigentlich passiert, wenn künstliche Intelligenzen immer stärker mit Inhalten trainiert werden
00:11:10: oder Trainingsdaten immer stärker verunreinigt sind, in Anführungszeichen von Inhalten, die selber KI generiert sind.
00:11:17: Und der zweite Punkt, das führt dann in die Richtung von diesem Sennemail-Interview,
00:11:23: was machen wir eigentlich mit dem ganzen generativen KI
00:11:26: und brauchen wir eigentlich, wofür brauchen wir diese Inhalte, die wir jetzt so viel schneller und einfacher raushauen können?
00:11:33: Fand ich ganz interessant, du hast ihn auch gelesen, oder?
00:11:35: Ich habe ihn auch gelesen, ja, man muss fairerweise sagen, es ist hier ein bisschen ein problemischer Artikel.
00:11:39: Sicher, ja.
00:11:41: Aber gerade das macht das ihn wahrscheinlich auch interessant, weil es ist ein interessantes Gedanken-Experiment,
00:11:46: ist was er ja aufwirft, ist genau diese Frage.
00:11:49: Was passiert eigentlich gerade mit dem, was wir jetzt Internet verstehen?
00:11:52: Was vor allem Google und große Plattformen eigentlich ist, de facto.
00:11:57: Und genau, also ich finde diese Frage vor allem, das ist diese Nutzersichtperspektive irgendwie ja,
00:12:02: wir können darüber reden, ja, und das geht ja durchaus auch schon,
00:12:05: also das ist ja sicher nichts, wo auch, wo auf seinem Artikeln im Konjunktiv darüber reden müsste,
00:12:09: gewisse Arten von Inhalten lassen sich mit generativer KI sehr, sehr schnell erstellen.
00:12:13: Die Frage ist nur, was sind das Inhalte, die tatsächlich irgendjemand braucht,
00:12:18: irgendjemand möchte, oder das, was Citron dann auch beschreibt, ist ja dieses,
00:12:22: was du damit gut produzieren kannst, sind Texte, die irgendwelchen Algorithmen genügen,
00:12:27: zum Beispiel SEO-Algorithmen, also SEO sind ja keine Algorithmen,
00:12:31: aber die gut SEO-Prinzipien entsprechen können, um damit gut zu sein für Algorithmen,
00:12:37: damit es bei Google gut ranked, was aber wer regelmäßig im Internet nach Rezepten sucht,
00:12:43: das sind ja keine Inhalte, die Menschen lesen wollen.
00:12:45: Da entstehen diese Artikel, wo man, wo man anklickt, wenn man Rezepts sucht,
00:12:48: und dann stundenlang erst mal seitenweise Dinge lesen muss über das Rezept,
00:12:52: wo immer wieder der Name, der, der keine Ahnung, irgendwelche Markennamen oder die Zutatennamen benannt werden,
00:12:57: damit das gut ranked, aber das ist ja kein für Menschen nett, schön lesbarer Text,
00:13:02: von dem man irgendwie profitiert.
00:13:04: Und diese Artikel sind gleichzeitig, oder diese Texte sind gleichzeitig natürlich die,
00:13:07: die ChatGPT wunderbar produzieren kann, weil bei SEO gibt es irgendwie klare Regeln,
00:13:11: man kann den Tool klare Regeln vorgeben und bekommt dann sehr einfach,
00:13:15: sehr, sehr viele Artikel raus, die für Algorithmen funktioniert, aber nicht für Menschen.
00:13:20: Und dann die Frage zu stellen, wofür brauchen wir das eigentlich?
00:13:22: Oder wer braucht das eigentlich?
00:13:24: Ja, bzw. das ist also die Endform von "Ich optimiere auf ein Algorithmus in der Hoffnung,
00:13:31: damit Geld verdienen zu können".
00:13:33: Ich meine, das ist ja, LinkedIn hat ja auch ein KI-Schreibtool inzwischen, testet es gerade.
00:13:39: Ich meine, LinkedIn ist jetzt schon mit das unauthentischste soziale Netzwerk
00:13:46: und vielerreichend sehr unhilfreichste.
00:13:49: Was passiert, wenn ich jetzt auch noch diese Texte über Button generieren kann,
00:13:53: aus ein paar Stichworte?
00:13:55: Ja, ich glaube, das ist die logische Endform,
00:13:58: das ist die logische Endform aus algorithmischen Systemen
00:14:01: und den Versuchen, diese algorithmischen Systeme auszuhebeln und an die Spitze zu kommen.
00:14:05: Und ich glaube, es hat mich dann auch vor zwei Fragen zum so ein bisschen gestellt,
00:14:10: also klar, wir haben dieses Thema schon öfter geredet,
00:14:12: auch was ist es eigentlich, dann irgendwann ein Verkaufsargument zu sagen,
00:14:16: hey, das ist der organische Menscheninhalt, der ist irgendwie bio- und mehrwert,
00:14:21: als der KI-generierte.
00:14:23: Ich habe mir dann aber noch eine andere Frage gestellt,
00:14:25: müssen wir nicht so tief rein gehen, wenn du nicht möchtest,
00:14:27: aber das war, weil das mehr so eine philosophische Frage bei dem ganzen Ding war.
00:14:31: Citron schreibt dann auch an einer Stelle von, ja, manche Aspekte von Kreationen
00:14:37: könnten dann von Leuten gemacht werden, die das heute nicht können.
00:14:40: Also ein Video-Tool ermöglicht natürlich Leuten Videos zu machen,
00:14:45: die sie sonst nicht machen könnten, weil sie das Know-how nicht haben,
00:14:48: weil sie keinen Zugang zum Equipment und so was haben.
00:14:50: Und auf der einen Seite bin ich ein großer Fan von diesen Menschen,
00:14:54: okay, das Internet demokratisiert irgendwie viele Dinge,
00:14:56: es hat Publishing demokratisiert, es hat Zugang zu Öffentlichkeit,
00:14:59: zu Aufmerksamkeit in einer gewissen Maße demokratisiert,
00:15:03: zumindest eine Zeit lang, bis es dann wieder monopolisiert wurde.
00:15:06: Und das ist, glaube ich, schon grundsätzlich was Gutes.
00:15:09: Gleichzeitig habe ich mich dann gefragt, ist überhaupt hey,
00:15:14: du kannst diese kreativen Inhalte jetzt viel, viel einfacher erstellen.
00:15:18: Ist das überhaupt was Gutes oder ist nicht auch gerade etwas,
00:15:22: was diesen Dingen wertverleidigt, dass es schwierig ist?
00:15:25: Ja, definitiv.
00:15:27: Also fänden wir von Goch, und gemäle von von Goch genauso faszinierend,
00:15:31: wenn von Goch den Promt entwickelt hätte,
00:15:34: und das wäre das selbe Bild rausgekommen.
00:15:36: Und dann hätte er sich wieder hingesetzt und hat sein wunderbares Leben gelebt.
00:15:39: Aber gehört nicht das Struggle, den ich nur von Goch,
00:15:41: sondern auch viele andere Künstlerinnen und Künstler,
00:15:43: die jetzt auch nicht immer eine Heroin sucht sein mussten,
00:15:45: aber doch irgendwie diese Schwierigkeit in so einem kreativen Schafzprozess,
00:15:48: gehört das nicht irgendwie dazu?
00:15:50: Ist das nicht das, was es irgendwie ausmacht?
00:15:52: Und ist es wirklich immer was Gutes oder ist es wirklich immer nötig,
00:15:57: dass ein kreativer Prozess immer einfacher wird?
00:16:00: Steht es über Sie meiner? Es ist ein bisschen konflutet.
00:16:02: Du ja, ich verstehe dich total.
00:16:04: Was ist der Klappertpunkt? Der ist halt Pathos.
00:16:06: Das ist halt purer Pathos zu sagen, diese Tools ermöglichen,
00:16:10: es kreativ zu sein.
00:16:12: Aber du hast davor und auch jetzt schon ohne jede Möglichkeit kreativ zu sein.
00:16:17: Du brauchst dafür kein KI, ich kann dir Stift und Papier geben.
00:16:21: Du kannst kreativ sein.
00:16:23: Denk das, was halt der Versuch ist, oder das Argument, was ich dir hinter verstecke,
00:16:27: ist kein sei kreativ,
00:16:29: ist halt ein sei kreativ,
00:16:32: ohne dafür wirklich einen Aufwand betreiben zu müssen.
00:16:35: Oder habe das Gefühl, kreativ zu sein,
00:16:37: ohne dafür einen Aufwand betreiben zu müssen.
00:16:39: Denn der Punkt ist ja auch, die Tools nehmen ja unendliche Entscheidungen ab.
00:16:45: Also viel, was man so klassisch Art Direction nennen würde,
00:16:48: ist dann komplett aus oder zum Großteil außer meiner Kontrolle.
00:16:52: Ich kann zwar viel mit Ansätzen ein,
00:16:55: ich kann zwar viel mit Ansätzen ein,
00:16:57: ich kann zwar viel mit Ansätzen ein,
00:16:59: ich kann zwar viel mit Ansätzen ein,
00:17:01: ich kann zwar viel mit Ansätzen ein,
00:17:03: ich kann zwar viel mit Ansätzen ein,
00:17:05: ich kann zwar viel mit Ansätzen ein,
00:17:07: aber wenn du einen wirklich kreativen Prozess hast,
00:17:10: hat das ja auch viel damit zu tun,
00:17:12: wie ich mich ausdrücke, was ich kontrolliere von meinem Medium,
00:17:15: beziehungsweise auch, wo ich bereit bin, Kontrollen vielleicht bewusst aufzugeben.
00:17:19: Also es ist eher die Abkürzung, keine Fähigkeit entwickeln zu wollen.
00:17:23: Darin nicht investieren zu müssen,
00:17:25: auch vielleicht kreative Gedanken gar nicht zu Ende denken zu müssen,
00:17:28: sondern ich kann mit 10 Prozent anfangen und zum Ziel kommen
00:17:31: und ich muss nicht weiter drüber nachdenken.
00:17:33: Ich muss gar nicht mehr zu irgendeinem Prozess gehen,
00:17:36: denn der ganze Prozess wird rausgenommen.
00:17:39: Also ich glaube, auf der einen Seite meinen wir das Gleiche
00:17:42: und auf der anderen Seite bin ich ein bisschen anderer Meinung.
00:17:45: Ich glaube, du hast das ausgedrückt, was ich auch irgendwie sagen wollte.
00:17:48: Genau, weil ich sehe das auch so, dass KI in diesem Fall
00:17:51: natürlich nicht beim kreativen Prozess hilft,
00:17:53: sondern es hilft dabei, ein Produkt zu erstellen,
00:17:57: dass bisher das Produkt eines kreativen Prozesses war
00:18:00: und das vielleicht jetzt nicht mehr unbedingt ist,
00:18:02: weil es ein KI-Produkt sein kann.
00:18:04: Das meintest du, glaube ich, wenn ich da richtig verstanden habe.
00:18:06: Das sehe ich schon auch so.
00:18:08: Ich sehe es jetzt nicht ganz so...
00:18:11: Also ich würde es jetzt auch nicht nur an den Prozess festmachen,
00:18:13: weil ja klar, kannst du mit Stiftung, Papier kreativ sein,
00:18:16: aber wenn du jetzt ein Mensch bist aus irgendeinem
00:18:21: ökonomisch benachteiligten Haushalt und möchtest Filme machen,
00:18:26: dann kannst du mit Papier und Stiftung nicht weiter,
00:18:28: dann möchtest du halt Video machen.
00:18:31: Und diesen Prozess kann man, glaube ich, auch nicht so komplett
00:18:33: von dem erwünschten Produkt trennen.
00:18:35: Der Weg zu diesem Produkt ist jetzt natürlich erstmal leichter.
00:18:39: Und leichter bedeutet in diesem Fall auch zugänglicher,
00:18:42: was ja nichts grundsätzlich schlechtes ist.
00:18:45: Ja, aber auch da würde ich widersprechen.
00:18:47: Fast jeder hat Zugang inzwischen zu einer relativ okayen Videokamera,
00:18:51: deutlich deutlich stärker und deutlich besser,
00:18:54: als alles, was er vor 20 Jahren hat.
00:18:57: Da haben zumindest so ein Consumerbereich so gesehen.
00:19:01: Auch da würde ich sagen, es hält niemanden davon ab, kreativ zu sein.
00:19:05: Deswegen, ich finde, es ist halt eine reine rhetorische Konstruktion zu sagen,
00:19:11: na ja, vorher konntest du nicht kreativ sein,
00:19:13: aber jetzt mit KI kannst du dich selbst ausdrücken.
00:19:16: Du konntest vorher kreativ sein, aber du konntest vielleicht vorher
00:19:18: nicht denselben Zugang zu dem Endprodukt, das du dir gewünscht hast.
00:19:21: Ja, hast du aber jetzt auch noch nicht.
00:19:23: Und ich glaube, das ist trotzdem auch wichtig zu sehen.
00:19:25: Ja, ich habe das Gefühl, ich generele hier was, und das sieht aus,
00:19:29: es wäre ein fertiges Produkt.
00:19:31: De facto ist es das aber gar nicht.
00:19:34: Gerade wenn ich viel Kontrolle haben will.
00:19:36: Zum Beispiel auch da, da ist es löst nicht mehr.
00:19:39: mein Problem, das ich ja dann oft habe, das eine ist, ich will was produzieren, was, würde
00:19:44: ich sagen, jeder kann heute kreativ sein, dafür brauche ich keine generative KI Werkzeug,
00:19:51: im Gegenteil. Ich gehe davon aus, dass selbst materiell jetzt unter, ja, jeder hat ein Smartphone,
00:20:00: ich kann einen Film bringen, ich kann ein Podcast aufnehmen. Das Problem ist Distribution und
00:20:04: das löst es halt auch nicht. Also das eine ist, ich will mich ausdrücken, das andere ist
00:20:08: auch, ich will ja sehen, was Leute eigentlich machen. Und das ist ja das Fatale einer ganzen
00:20:13: Sache und auch das... Also Teil der Rhetorik dahinter ist ja, diese Idee, ich kann damit ein Künstler
00:20:19: sein, ich habe da vielleicht den Zugang zu einem Status, zu einem Sozialen, den ich davor nicht
00:20:25: hatte, weil er mir verschlossen war. Und ich denke, das ist das, wo wir diese Rhetorik
00:20:29: darauf so ein bisschen versucht zu argumentieren, wo sagen wir, das löst das Tool, der aber gar nicht.
00:20:37: Ja, du kannst das Gefühl haben, du bist jetzt kreativ und du kannst das Gefühl haben,
00:20:40: dass, wow, da ist gerade ein richtig tolles Video mit zwei Sätzen und drei Stichpunkten
00:20:44: generieren lassen. Aber du bist die gleiche Person, du bist damit kein Künstler, weil
00:20:50: du trotzdem kein Zugang zu Distribution hast, du hast trotzdem keinen Zugang zu damit irgendwie
00:20:55: Geld zu verdienen im Gegenteil. Aber da widersprichst du dir jetzt doch so ein bisschen selber,
00:20:59: weil die Distribution macht ja nicht den Künstler. Also du kannst ja auch kreativ sein und kreative
00:21:04: Werke und die nie jemals jemanden sieht, bis du trotzdem Künstler würdest. Ist jetzt
00:21:08: mein Künstlerbegriff. Genau, voll. Aber das sehe ich total so. Der Punkt ist halt,
00:21:13: das ist halt dieser soziale Status, diese Idee, ich bin kreativ oder ich bin ein kreativer,
00:21:17: ist was, was ja sozial mit Prestige verbunden ist, sich so auch definieren zu können. Das
00:21:23: funktioniert aber halt auch nur, wenn andere Leute mich auch so sehen als kreativer. Und
00:21:26: ja, kann ich jetzt anfangen, Dinge zu produzieren, die so aussehen, als wäre ich kreativ. Die
00:21:34: Faktor ist es halt aber. Aber das ist ja das Produkt, das ist ja ironischerweise das, was
00:21:39: Leute denken lässt, dass du kreativ bist. Das ist ja gerade nicht der Prozess. Den sieht
00:21:42: man ja bei den meisten kreativen Produkten nicht. Das ist ja das Witzige. Ja, in dem
00:21:46: ersten Mal schon langfristig untergräbt es das, ja. Langfristig untergräbt es, dass,
00:21:50: wenn man argumentiert, dass es für diesen sozialen Status natürlich eine gewisse Exklusivität
00:21:55: braucht, untergräbt es das, ja. Wenn alle kreativ sind, ist es keiner mehr. Genau,
00:22:00: was ja von vornherein, ja, dass der Punkt jeder ist kreativ. Ich brauche dafür keine
00:22:03: Tule zu. Grundsätzlich, ja, der gehört nur mehr dazu, dass es so, dass was ich sagen
00:22:07: will, vielleicht sehr komplexer Art und Weise. Aber das ist ja das, was die Rhetorik dahinter
00:22:12: so ein bisschen ja impliziert. Jetzt kann es sein und sehr einfach. Die Realität ist
00:22:18: aber komplexer. Also vielleicht ja, vielleicht in dem Sinne, dass das, was dir gefehlt hat,
00:22:25: bisher wird jetzt gelöst durch diese KI. Und ich glaube, da sind wir uns wahrscheinlich
00:22:29: dann wieder einig, dass das ja mit Sicherheit nicht der Fall ist, weil egal, ob man jetzt
00:22:32: dann den kreativen Prozess über den Prozess an sich definiert oder über den sozialen
00:22:36: Effekt, den man damit erreicht, beides kann, wie du gesagt hast, beides kann er die KI
00:22:39: nicht liefern. Find ich auch, finde ich ganz interessant, weil das weibt für mich so ein
00:22:43: bisschen auch mit dieser Vertrauensdebatte, wenn wir jetzt ein bisschen zielter auf Journalismus
00:22:46: gucken oder journalistischer Artikel, die von der KI geschrieben werden. Das ist ja
00:22:50: ebenfalls wieder was, was Soziales, was an diesen Produkten irgendwie dran hängt, was
00:22:54: nicht so einfach sich auf eine Maschine transferieren lässt. Schon gar nicht auf eine Maschine,
00:22:58: von der man nicht weiß, wie sie arbeitet. Ich glaube, man muss halt auch da unterscheiden
00:23:02: und sagen, was macht das Tool tatsächlich, das andere ist es mit was wird verkauft. Und
00:23:07: es ist ein Kreativitätserweiterungstool, ist halt de facto ein Verkaufsargument, weil
00:23:13: Kreativität in der Öffentlichkeit als prästisch-strecklich verstanden wird, be-wirtschaftlich eng verbunden
00:23:21: wird mit Innovation und damit wirtschaftlich im Backstum. Also so, da ist eine Rhetorik
00:23:25: dahinter, die man nicht vergessen darf an der Stelle. Und das ist ja auch nicht bewiesen,
00:23:29: dass es mich kreativ macht. Aber so, lass uns das Thema abschließen.
00:23:32: Okay, ich wollte sagen, genau das Thema abschließen, vielleicht ein guter Punkt, was ich noch ganz
00:23:36: interessant fand, wo ich mich nur interessieren würde, ob du die Beobachtung teilst. Ich weiß
00:23:41: nicht, ob das die ganze Zeit schon so war, bin ich mir nicht ganz sicher, weil wir ja
00:23:45: auch schon immer zum Beispiel drüber gesprochen haben, ja, generative KI, vielleicht nicht
00:23:49: ganz so sicher, was daraus wird, aber natürlich Maschine-Leune Technologien, das, was so unter
00:23:53: KI läuft, in verschiedenen Tools kann es spannende Anwendungsfelder geben. Ich habe im Moment
00:23:58: so ein bisschen das Gefühl, dass noch stärker, wenn ich zum Beispiel auf Linkin schaue, wo
00:24:02: ja sehr viele Leute sehr viel über KI reden, dass sehr verschiedene Leute beide KI sagen,
00:24:07: aber sehr, sehr unterschiedliche Sachen damit meinen und dieser generative Teil doch halt
00:24:14: das Reden über KI sehr, sehr stark beeinflusst, obwohl meines Erachtens die spannende Entwicklung
00:24:18: von KI irgendwo anders liegen. War das die ganze Zeit schon so, seit ChatGPT, oder ist
00:24:22: mir das jetzt nur stärker aufgefallen? Das war schon vorher weit also. Also ich meine,
00:24:27: muss mir auch dazu sagen, dass KI jetzt ja ein Begriff, der aus den Sechzigern kommt
00:24:32: und der wurde immer neu definiert, wenn es eine neue Technologie gab, die irgendwie spannend
00:24:37: war und in irgendeiner Form die Definition von KI passt. Also das ist ja ein breites
00:24:42: Forschungsfeld, KI ist es ein sich ständig bewegendes Ziel. Also, ja voll. Also deine
00:24:48: Beobachtung ist korrekt. Ich würde sogar sagen, sie ist so korrekt, dass sie seit den Sechzigern
00:24:53: korrekt ist.
00:24:54: Ich glaube, das ist nur, war mir nicht sicher, weil ich das gerade nochmal so wahrgenommen
00:24:58: hatte, weil um jetzt auch gerade, wo wir darüber redet haben, weil wir jetzt doch eben wieder
00:25:00: viel über generative KI gesprochen haben, so als wäre es gleich bedeutend mit KI, obwohl
00:25:04: das ja nicht der Fall ist. Und dass andere spannende Entwicklungen auch aktuell gibt,
00:25:08: die nicht generative KI sind und trotzdem spannende KI anwendung sein können.
00:25:11: Total. Also ich glaube, das einzige, was man dazu aufwiesen muss, ist, dass Clippy wurde
00:25:15: mal als KI verkauft.
00:25:16: Ja, ich meine irgendwie.
00:25:18: Ja.
00:25:19: Können wir Clippy zurückhaben mit einer Open Air Integration? Ich mochte Clippy.
00:25:24: Ja, heißt Co-Pilot.
00:25:25: Ja, aber Alexa, Alexa, Alexa, keine würde heute sagen, Alexa ist smart. Aber auch Alexa
00:25:32: wurde als KI-Assistent verkauft. Ich glaube, das ist etwas, die Leute schnell vergessen,
00:25:36: ist das halt ein...
00:25:37: Alexa fehlt halt, das ist halt keine Antwort, aber mal für Büroklammer. Das ist für mich
00:25:41: schon mal ein Minuspunkt.
00:25:42: Ja, voll fair.
00:25:43: Genau, wir wollten das Thema abschließen. Wir kommen, wir werden nicht ganz drum herumkommen,
00:25:49: weil ich glaube, lasst uns auch kurz über die South-By-South-West reden. Die große,
00:25:53: ja was eigentlich, Innovationen, Medienmusik, Kunstkonferenz-Festival in Austin, Texas,
00:26:01: das jetzt gerade in der letzten Woche zu Ende gegangen ist, wo einige aus unserem Team
00:26:05: auch dabei waren. Keiner von uns beiden war dabei. Deswegen können wir nur so ein bisschen
00:26:08: aus der Ferne unsere Beobachtungen teilen. Unsere Chefin Lina Tim hat, wie jedes Jahr,
00:26:13: den Breakfast-Tacke geschrieben, also einen täglichen Newsletter von der South-By, den
00:26:17: man auch, finde ich, nach der Konferenz noch gut lesen kann, verlinke ich auch wieder
00:26:22: drunter, wo man so ein bisschen aus Mediensicht natürlich sehr stark beschrieben, einzelne
00:26:27: Zusammenfassungen von einzelnen Panels, aber auch einfach Eindrücke und Metabeobachtungen
00:26:31: und so was nachlesen kann. Und sie schreibt natürlich auch, dass KI das absolut überbordende
00:26:37: Thema war. Web 3 kam oder Blockchain kam so gut wie gar nicht mehr vor, was nicht nur
00:26:43: sie dann als Validierung für uns begriffen hat. Und ansonsten so ein paar Wochen, ich
00:26:48: war im letzten Jahr da, es war wohl relativ leer, meinte sie, also bis zum Drittel weniger
00:26:54: als letztes Jahr, was so ein bisschen, ich glaube, wenn sie bzw. unsere Kolleginnen und
00:26:59: Kollegen jetzt nicht da gewesen wären, weiß ich nicht, ob ich was davon mitbekommen hätte.
00:27:04: Gut, wie war das bitte? Ich bin ja nicht mehr auf Blue Sky oder so was unterwegs, wurde
00:27:08: da über die South-By besprochen. Also nicht so, dass ich sie jetzt aktiv mitbekommen
00:27:13: hätte, muss ich ehrlicherweise sagen. Wenn es waren die üblichen Verdächtigen halt unterwegs.
00:27:17: Aber nee, also ich habe auch das Gefühl, das ist dieses Jahr definitiv weniger basker.
00:27:24: Besuchert die Kombination ist aus, Twitter ist inzwischen etwas entfölkert und be deiner
00:27:31: oder auch die Beobachtung, dass es eh allgemein ruhiger wird um die Konferenz oder Lehrer
00:27:36: wird um die Konferenz. Denn beides führt dazu in Kombination, dass man weniger mitbekommt.
00:27:41: Also ich habe wirklich relativ von der Kollegin Sabrina, die interessant an der Dote gehört,
00:27:48: dass also Amy Webb hat eine Masterclass angeboten zur Future Stinking, wo man sie Teilnahme
00:27:52: dann mit dem Abscannen eines QR-Codes nachweisen konnte, wenn man das Zertifikat am Ende haben
00:27:57: wollte, was ich eigentlich, das ist mal ein Trendsignal. Was die Pandemie für den QR-Code
00:28:05: getan hat, kann man gar nicht überschätzen. Ja, aber auch da natürlich schon das KI-Thema.
00:28:12: Ich frage mich dann so ein bisschen, wie gesagt jetzt komplett aus der Fernbeobachtung, wenn
00:28:16: ich mir anschaue, wie krass gehypt Web 3 Blockchain davor ein, zwei, drei Jahren war und wie wenig
00:28:23: das heute stattfindet und wie groß dann heute KI in, ich sage mal sicher auch in den vernünftigen
00:28:30: Ausprägungen, aber sicher auch stark in den Halbausprägungen da vertreten ist, vielleicht
00:28:35: verliert die Konferenz langsam auch so ein bisschen die Fühler für die Relevanz?
00:28:40: Das ist gar nicht so, ich glaube das ist auch da eher eine Symptome. Also ich würde eher
00:28:44: sagen, so die Konferenz ist halt ein Spiegelbild der weiteren Textszene, dass sie jetzt wirklich
00:28:52: indikativ, also das heißt, dadurch hat Indikative, glaube ich, nicht dass das so alleine daran
00:28:58: jetzt scheitert oder fällt. Was ich interessant fand, ich denke das ist auch so zum Thema
00:29:03: Amy Webb und Zukunftsforschung und Weak Signals sammeln, das ging auch tut herum. Und zwar
00:29:11: bei dem neuen Film von, jetzt muss ich selber nochmal gucken, Ryan Gosling, ich habe es
00:29:18: gerade noch ausgeschrieben. Was, Deadpool? Deadpool 3? Nein, nicht Deadpool 3, sondern
00:29:22: Fall Guy. Ryan Gosling. Also Ryan Gosling spielt einen Stuntman. Oh, da habe ich auch gerade
00:29:34: Ryan Gosling und Ryan Reynolds verrechnet, das fällt mir auf, da kriege ich Ärger von
00:29:36: einer Handvollkolleg*innen. Auf jeden Fall gab es eine Pre-Roll-Ad während der Premiere,
00:29:43: und zwar wo einige der großen Köpfe auf der South-Bass auf Westbühnen was zur KI erzählt
00:29:48: haben und mehr oder weniger das gesamte Kino hat diesen Pre-Roll-Trailer ausgeboten. Was
00:29:55: so zu mir ist, wenn wir sagen, okay, also da ist ein Stand… Immer, wenn über KI gesprochen
00:29:59: wurde. Genau, weil aktiv über KI gesprochen wurde. Natürlich auch in diesem Tonfall mit
00:30:02: Widerstand ist zwecklos mitgehen oder zurückbleiben und das wurde definitiv ausgeboten. Und was
00:30:09: soll ich sagen, musst du nur, okay, interessanter Indikator, gerade bei der South-Bass-South.
00:30:14: Das führt jetzt ein bisschen weg von dem South-Batt-Thema, aber ich glaube irgendein
00:30:19: Musikstar aus den USA, ich weiß jetzt leider nicht mehr, wer es war, eine Rapperin, glaube
00:30:26: ich, die auch ein Albencover veröffentlicht hat oder eine Single in irgendeiner Form.
00:30:32: Ich erzähle schon wieder Geschichten, die ich nicht 100% sicher weiß. Die Promo-Material
00:30:37: veröffentlicht hat in irgendeiner Form, das offensichtlich KI generiert war, also das
00:30:41: hat so diesen Mit-Journey-Vibe einfach. Das hat man irgendwie erkannt. Und das Feedback
00:30:47: darauf war extrem negativ und es scheint langsam schon so anzufangen, dass – und
00:30:52: das geht mir sicher so, wenn ich jemanden auf Linkin sehe, der das macht – wenn man ein
00:30:56: KI generiertes Bild sieht, es wirkt einfach billig. Und dann, okay, da wurde sich keine
00:31:00: Mühe gegeben. Ja, und da wird nicht investiert und wie
00:31:03: gesagt, da wird auch eine Gerätin gesteckt. Ich glaube, inzwischen ist die beste Metapher
00:31:07: für so KI-generierte Inhalte so Single-Use-Plastics so ein bisschen. Die sind nicht dafür da,
00:31:14: lange zu halten, aber irgendwie legen sie rum. Wirklich toll sieht es nicht aus. Es
00:31:19: sieht auch nicht in irgendeiner Form hochwertig aus. Aber man macht das halt, weil man halt
00:31:23: kann, so ja, klar, kann ich zu jedem einen Kauf eine neue Plastiktüte mitnehmen. Schadet
00:31:27: ja keiner. Dass das jetzt aber vielleicht ganz so zielführend ist, sei mal dahin gestellt.
00:31:34: Ich finde es auch interessant, dass dann dieser South-Bite-Trailer so ein bisschen ausgebot
00:31:37: wurde. Ich glaube, auch im Rahmen von so einem größeren, einfach die gesellschaftliche
00:31:42: Stimmung gegenüber Tech und Tech-Immiliaritären doch sich auch ein bisschen gedreht hat,
00:31:46: seit, ich sag mal, den 2000ern. Ich glaube, ich find es ganz interessant.
00:31:50: Vielleicht müssen wir anstatt dieses Jahr über die aktuelle South-Bite zu reden. Vielleicht
00:31:54: sollten wir einfach nächstes Jahr über die von diesem Jahr noch mal sprechen und das
00:31:58: lieber so ein bisschen mit immer ein bisschen stärker in Hindszeit betrachten. Weil ich
00:32:02: jetzt natürlich schon sehr neugierig bin, was nächstes Jahr da besprochen wird, ob es immer
00:32:05: noch KI sein wird, wie sich das weiterentwickelt hat. Aber ich glaube, das ist generell so,
00:32:10: weil man natürlich immer wissen will, was in der Zukunft passiert. Aber ja, vielleicht
00:32:13: tatsächlich eher so als Trendsignal wahrzunehmen als als Konferenz.
00:32:17: Ja, definitiv. Definitiv. Wer ein bisschen tiefer in die Inhalte einsteigen will, gerade
00:32:22: auf was Medien angeht, verlinke ich den Newsletter noch mal drunter.
00:32:25: Ein Thema hätte ich noch auf dem Zettel, über das wir reden könnten und zwar das mögliche
00:32:31: TikTok-Verbot in den USA, wo der Kongress hat es, glaube ich, beschlossen. Senat ist
00:32:36: sich noch nicht sicher, ob er darüber abstimmen will. Biden hat gesagt, wenn ein entsprechendes
00:32:39: Gesetz bei mir auf dem Tisch landet, wird das unterschreiben, wo es darum geht, TikTok
00:32:44: quasi vor die Wahl zu stellen, bzw. Bidemts, also die, die die Firma hinter TikTok vor
00:32:47: die Wahl zu stellen, entweder TikTok zu verkaufen an ein amerikanisches Unternehmen, also zumindest
00:32:52: die amerikanische Version von TikTok an ein amerikanisches Unternehmen zu verkaufen, oder
00:32:56: sich damit konfrontiert zu sehen, eventuell in den USA verboten zu werden. Und ich möchte
00:33:03: es du direkt was zu sagen. Ich habe dazu eine Meinung, die ich dann gerne mal an dir
00:33:06: vorbeispielen würde.
00:33:07: Als Nicht-Tik-Talk-Nutzer und jemand, der sich gefühlt, nicht wirklich involviert,
00:33:12: fühlt, finde ich es interessant auf vielen Ebenen. Erwartbar sicher, dass das Thema hochkommt.
00:33:21: Ich hätte es eher von Trump erwartet, dass er das durch boxen. Er ist jetzt ein...
00:33:25: Er ist jetzt wieder dafür, weil er wollte TikTok verbieten, als er noch an der Macht
00:33:29: war und jetzt es uns beiden verbieten, deswegen ist er jetzt dagegen.
00:33:31: Ah, okay, das, das Detail habe ich so nie mitbekommen, aber ja, klingt logisch.
00:33:36: Und wenn die jungen Wählerinnen und Wähler finden es natürlich auch relativ scheiße.
00:33:40: Ja voll, also ich finde es faszinierend zu beobachten. Ich habe keine wirklich dezidierte
00:33:45: Meinung, deswegen gibt mal gerne dein Herr.
00:33:48: Das Ding ist, ich habe auch keine so richtig dezidierte Meinung. Ich benutze erstens auch
00:33:51: kein TikTok. Meine Meinung zu dieser Sache ist, ich tue mich da auch schwer, eine Haltung
00:33:55: zu zu entwickeln, weil es mir auf eine involvierte Art egal ist. Und zwar auf der einen Seite,
00:34:01: ich glaube, die nicht, weil ich das nicht nutze und das mir egal verboten wird, obwohl
00:34:05: es der Genzi echt gut tun würde, vielleicht mal so ein Weinmoment zu erleben. Wir mussten
00:34:09: auch auf Wein verzichten. Nein, aber im Ernst, auf der einen Seite glaube ich, dass die meisten
00:34:15: Argumente, die angeführt werden, warum die USA das tun wollen, auf dem anderen Fall
00:34:19: glaube ich, unsinn. Also da werden Datenschutzbedenken angeführt, als ob die USA die Heimat des
00:34:25: Datenschutzes werden, was sie selbst wahrscheinlich nicht sind und TikTok sammelt nicht mehr Daten
00:34:29: als Instagram oder Facebook. Wo man ja auch sagen muss, das löst das Problem nicht,
00:34:34: das Datenschutzproblem. Ich könnte ja auch Gesetze verabschieden, die Datenschutzstärken,
00:34:39: aber... Ja, genau, genau. Und ob jetzt für mich als Individualen Nutzer macht jetzt
00:34:44: auch echt nicht so viel Unterschied, ob die USA oder China meine Daten haben. Ich habe
00:34:47: ein Huawei-Laptop, also bei mir ist jetzt so geherabgefahren. Das ist eine Datenschutzdebatte.
00:34:53: Klar, auf der anderen Seite ist es dann natürlich eine Wirtschaftskrieg, Hegemonialmacht, Vorreiter,
00:34:59: Weltmachtdebatte, wo was da wahrscheinlich eher dahinter steckt. Was ich irgendwie für...
00:35:04: Also ich glaube, diese Argumente, warum man TikTok verbieten will, sind unsinn und würden
00:35:07: auch noch x andere Dinge betreffen, die zum Beispiel aus China kommen oder aus anderen
00:35:11: Ländern mit denselben Argumenten. Gleichzeitig habe ich persönlich irgendwie überhaupt
00:35:16: keine Lust, ein soziales Netzwerk zu verteidigen oder eine Milliardenfirma wie ByteDance in
00:35:22: irgendeiner Form zu verteidigen oder so zu tun, als sei es jetzt irgendwie politisch
00:35:27: so krass relevant, dass TikTok existiert und als sei das ein wertvolles öffentliches
00:35:33: Forum und nicht ein Ort, der dazu geführt hat, dass irgendwie eine handvoll amerikanische
00:35:37: Jugendliche, sagen wir mal, bin Laden plötzlich toll fand. Also es ist mir einfach... Also
00:35:41: wenn sie es verbieten, cool, stört mich nicht. Aber die Gründe, warum wir es machen, sind
00:35:46: irgendwie auch blöd. Deswegen, wenn sie es nicht verbieten, ist es auch okay. Und das
00:35:50: ist irgendwie so die Position, auf der ich da stehe. Und deswegen, ja, das fühlt sich
00:35:55: so komisch an, wie auf keiner von diesen Seiten so richtig zu stehen.
00:35:58: Ja, klassischer Fall von Lose, die deutlich mehr verdienen, als wir dürfen dieses Problem
00:36:03: sich hier ausdiskutieren. Ich finde es auch nur interessant, ich glaube, das ist halt eher
00:36:07: was man da auch nochmal betonen muss. Inwiefern hier eine soziale... ein soziales Medium zum
00:36:15: geopolitischen Thema auf einmal wird. Ich denke, das ist halt nochmal eine Sache, die
00:36:20: man da Kopf behalten muss, eigentlich, dass das nochmal eine andere Dimension eigentlich
00:36:27: hat. Ja, aber auch da, ich glaube, das hat Facebook
00:36:31: ja eben halt auch. Facebook, das ja schon für gewaltsame Konflikte in Ländern des
00:36:36: Globalen Südens verantwortlich war und so. Also auch das jetzt eigentlich kein Grund,
00:36:40: nur TikTok dann einzuschränken. Ich glaube, soziale Netzwerke stärker moderieren, stärker
00:36:45: unter, ich weiß nicht mal, staatliche Kontrolle, aber doch irgendwie unter juristische Kontrolle
00:36:50: in irgendeiner Form zu stellen, finde ich auch gut, wenn es bei Instagram und bei Facebook
00:36:54: passieren würde. Warum das dann ausgerechnet nur bei TikTok passieren soll, erschließt
00:36:58: sich mir dann nicht. Und ja, Mai, also ich glaube, wenn ich China tatsächlich sich entscheidend
00:37:03: so ein Detailbahn anzugreifen, wird, glaube ich jetzt, sowohl die militärische als auch
00:37:09: die gesellschaftliche Reaktion da drauf, wahrscheinlich nicht primär vom TikTok abhängen. Auch das
00:37:14: ist eine gesellschaftliche Diskurs, darüber mutmaßlich nicht, weil ich glaube, das ist
00:37:18: ja genauso. Die ganzen westlichen Netzwerke sind ja in China schon verboten und blockiert
00:37:22: und natürlich sind Inhalte auf TikTok in China zensiert. Aber gleichzeitig wäre das ja dann
00:37:28: im Westen nicht das Einzige, also wenn jetzt China, in Falle eines Angehörses auf Taiwan,
00:37:33: alle Inhalte darüber zensieren würde, dann würden wir uns halt auf X oder auf Instagram
00:37:37: weiter darüber unterhalten. Ja, ich weiß nicht, ich finde das irgendwie eine merkwürdige
00:37:41: Debatte. Ich finde es, fragen mich, warum da die amerikanische Politik sich so mit den
00:37:47: jungen Wählerinnen und Wählern verschärzen will für meines Erachtens relativ blöde
00:37:51: Gründe. Auf der anderen Seite, wie gesagt, ich möchte einfach nicht Verteidiger von
00:37:54: TikTok sein in irgendeiner Form. Deswegen sollen die vielleicht einfach mal machen,
00:37:57: oder? Also nicht verbieten, sondern die sollen das einfach unter sich ausmachen.
00:38:00: Wir werden das einfach beobachten, würde ich sagen.
00:38:02: Ich denke auch. Also ich habe mir nach wie vor keinen TikTok runtergeladen. Ich weiß
00:38:06: nicht, ich habe bisher, ich habe, das hat mich glaube ich auch schon mal gesagt, ich
00:38:09: konsumiere meine TikTok-Wien Erwachsener, nämlich zwei Wochen später auf Instagram.
00:38:12: Und das hat mir bisher völlig ausgereicht, das Vorelektiert zu bekommen. Und genau,
00:38:18: ansonsten gibt es ja auch noch YouTube-Shorts, zum Beispiel. Wenn man unbedingt kurz Video
00:38:22: hoch kann sehen. Gott sei Dank. Was würden wir noch ohne sich tun?
00:38:25: Ja, oder? Also ich weiß gar nicht, was ich jetzt mit der ganzen Zeit anfangen würde.
00:38:28: Oh mein... Ja. Wir könnten den Podcast noch länger machen,
00:38:34: vielleicht, wenn wir nicht dauernd auf Instagram müssten.
00:38:41: Skeptischer Blick, den ihr nicht sehen könnt von Johannes Klingelbühl. Ich glaube,
00:38:44: er ist zu lange weg vom Smartphone, deswegen sollten wir hier glaube ich langsam zum Ende
00:38:47: kommen, dass der Junge... Ja, ich krieg schon Zucker in den Klas.
00:38:49: ...Screen time auftanken kann. Ich glaube, das war die Märzfolge.
00:38:53: Ja. Die nächste Folge dann im April. Seien wir ehrlich, mutmaßlich wieder mit K.I.
00:38:58: Schauen wir mal, ob das sonst noch so passiert, oder? Vielleicht finden wir sogar Kate wieder.
00:39:01: Das wird auch was. Das wird auch was. Reden wir aber nächstes Mal auch wieder drüber
00:39:04: in "Deutschlands führen im Royal Podcast" und bis dahin macht's gut und wir hören uns im Internet.
00:39:09: [Musik]
00:39:17: .
Neuer Kommentar