KI-Probleme, SXSW, TikTok-Verbot

Shownotes

Alles gesagt über KI? Das sollte man meinen, doch zum Glück liefert das britische Königshaus einen neuen Aufhänger - Royal-Fan Christian ist Feuer und Flamme. Auch auf der SXSW war Künstliche Intelligenz natürlich Thema Nummer 1 - und das Team des Media Lab war dabei. Zum Schluss geht es noch kurz um TikTok - in der Causa "USA vs. Bytedance" können sich beide Seiten voll auf das Hype Institut verlassen.

Die ausführliche SXSW-Berichterstattung von Media-Lab-Chefin Lina Timm: https://www.linkedin.com/newsletters/7039654215845081088/

Der KI-Rant von Ed Zitron: https://www.wheresyoured.at/are-we-watching-the-internet-die/

Transkript anzeigen

00:00:00: [Musik]

00:00:23: Willkommen zur Märzfolge des Hike-Instituts Podcasts des Minela Bayerns.

00:00:29: Christian, was macht der Hype?

00:00:31: Der Hype wurde seit Januar nicht mehr in der Öffentlichkeit gesehen und hat manipulierte Bilder von sich veröffentlicht

00:00:36: und soll Ostern wieder zu sehen sein.

00:00:39: Ich glaube, dass der Stand des Hypes, zumindest wie ich ihn im letzten Monat wahrgenommen habe,

00:00:44: wo ich tief, also hier in Deutschlands führenden Royal Podcast, der wir glaube ich sind,

00:00:49: tief in das Thema eingestiegen bin, auf jeden Fall. Weißt du wovon ich rede?

00:00:54: Das ist der Stand für uns der Royal Podcast. Ja, ich weiß wovon ich rede, dass aber für all die Leute,

00:00:58: die natürlich jetzt auch vielleicht seit Januar nicht mehr gesehen wurden, fast doch mal kurz die Tomate zusammen.

00:01:04: Ja, es geht natürlich um Kate Middleton, die Prinzessin von Wales, glaube ich, ist.

00:01:10: Ich glaube, das ist ihr Titel, also die Frau von Prinz William, dem britischen Brunfolger.

00:01:14: Das ist eine Verschwörungstheorie, die glaube ich umfassend seit Januar durch das Internet geistert,

00:01:20: einfach schon seit einer Krankenhauseinweisung, glaube ich, im Januar nicht mehr gesehen wurde.

00:01:25: Was natürlich zu allerlei Spekulationen und wurde sie entführt, ist sie tot,

00:01:29: möchte sie die Familie verlassen, lassen sie sich scheiden, etc. geführt hat.

00:01:33: Und man kennt ja die sehr enge Beziehung der britischen Medien, besonders der Yellow Press mit dem Königshaus,

00:01:40: wo also klar ist, wenn über sowas schon auch in der Sun und sowas spekuliert wird,

00:01:44: dann bedeutet das das irgendwie nicht genug Gegenleistung aus dem Königshaus hinterhergeschossen wurde,

00:01:49: was dann auch diese Verschwörungstheorie natürlich wieder befeuert hat im Sinne von

00:01:52: stetige Familie, nicht mehr hinter Kate, was auch immer.

00:01:55: Gar nicht der relevante Teil, der vielrelevante Teil für diesen Podcast ist, glaube ich,

00:01:59: dass dann ein Bild veröffentlicht wurde vor zwei Wochen, glaube ich,

00:02:03: dass Kate Middleton im Kreise ihrer Kinder zeigen sollte und das relativ offensichtlich

00:02:10: nicht nur manipuliert war, sondern meines Erachtens auch von AI generiert wurde.

00:02:16: Also es hat so ein paar dieser klassischen Sachen gibt.

00:02:19: Also eines dieser Kinder hat zum Beispiel keinen Daumen.

00:02:21: Das andere Kind hat sehr merkwürdig verdrehte Finger, die eigentlich so keinen Sinn machen.

00:02:26: Die Haare von Kate auf dem Foto sehen aus wie so eine zusammenhängende Masse stellenweise.

00:02:32: Also genau diese Telltale Science, die man irgendwie eigentlich fast schon gar nicht mehr so stark,

00:02:38: weil die generative KI da besser geworden ist, aber so in diesen KI-Bildern so ein bisschen

00:02:42: als die Telltale Science, dass es KI generiert sein könnte.

00:02:45: So immer sieht, achtet auf die Haare, achtet auf die Finger so, das kennt man irgendwie.

00:02:49: Und was natürlich diese Verschwörungstheorien noch viel, viel mehr angestachelt hat,

00:02:53: was dann Kate dazu veranlasst hat auf Twitter bekannt zu geben, dass es wie ihr Fehler gewesen

00:02:58: und sie hätte, wie viele Hobbyfotografen würde auch sie ab und zu mit Bildbearbeitung experimentieren

00:03:02: und hätte dabei Fehler gemacht, was natürlich absurd ist, weil sie sich mit die Schuhe selber zusammenbinden muss.

00:03:06: Natürlich wird die Prinzessin von Wales nicht ihre eigenen Pressebilder bearbeiten.

00:03:11: Das halte ich für komplett absurd und kann mir jetzt gern ein richtiger Royal Insider sagen, dass es vielleicht doch so ist.

00:03:16: Nichtsdestotrotz war das Bild KI manipuliert, was dann auch dazu geführt hat, dass viele Presseagenturen,

00:03:22: die es zuerst verteilt hatten, dieses Bild da wieder zurückgezogen haben und eine sogenannte Kill-Notice rausgeschickt haben.

00:03:28: Also eine Nachricht über Nachrichtenticker, hey, dieses Bild bitte nicht mehr verwenden wegen Manipulationsverdacht.

00:03:34: Und abgesehen davon, dass ich seitdem jetzt natürlich super tief involviert bin, dass ich wissen will, wie es Kate geht,

00:03:40: fand ich das schon spannend, dass offensichtlich, also zwei Sachen fand ich daran eigentlich spannend.

00:03:46: Also zum einen, dass offensichtlich diese generative Funktion entweder dann in dem Programm drin ist,

00:03:53: dass im Königshaus in der Presse Stelle genutzt wurde, ohne dass die Leute ernsthaft sich damit beschäftigt hatten,

00:03:58: weil das wäre relativ offensichtlich, hätte jedem, der sich dieses Foto einmal nicht anguckt, auffallen können, dass es manipuliert ist.

00:04:04: Und der zweite Punkt ist, dass so eine Selbstbeobachtung, so ein bisschen was diesen Umgang mit solchen Inhalten angeht.

00:04:10: Ich hatte, als ich von dieser Geschichte Wind bekommen habe, zuerst nur ein Ausschnitt des Fotos gesehen,

00:04:16: wo nur Kate's Kopf zu sehen war und daneben die Kopf ihrer Kinder und gar nicht der Rest mit den Händen und Fingern usw.

00:04:21: Wo es nicht ganz so offensichtlich ist, dass es manipuliert ist.

00:04:24: Und ich habe mir das angeguckt und ich hatte so ein Vibe, das sieht irgendwie komisch aus,

00:04:29: das ist KI generiert, aber dann sofort gefolgt und dann gesagt, ne Quatsch, das kann ja nicht KI generiert sein.

00:04:34: So, warum würden die ein KI generiertes Bild veröffentlichen? Das macht überhaupt keinen Sinn.

00:04:38: Was ich so ein bisschen interessant war, als Beobachtung, wie stark dieser Impuls doch irgendwie ist,

00:04:44: solchen Inhalten dann irgendwie zu glauben, und dann sagen, hey, das kann ja nicht manipuliert sein.

00:04:48: So, obwohl es ganz offensichtlich manipuliert ist, diese Tendenz,

00:04:52: die ist das dann trotzdem irgendwie zu glauben und trotzdem irgendwie, das anderen nicht unterstellen zu wollen,

00:04:58: dass es generiert ist, was ich ganz interessant finde, so als unter diesem Nutzungsaspekt,

00:05:01: was ist eigentlich passiert, wenn viel mehr Bilder auch von Prominenten in Zukunft manipuliert sind

00:05:06: und wie wir selber damit umgehen, auch die wir uns jetzt irgendwie für aufgeklärte Mediennutzer erinnern halten.

00:05:12: Musst du sagen, dass alles, was ich über diese Story bis wir gelernt habe, definitiv gegen mein Willen war?

00:05:19: Ich finde es eher interessant ist, du hast hier eine Story, oder du hast hier eine gewisse Lücke,

00:05:29: wo einfach Unklarheit und Unsicherheit da ist und wie sehr die Leute anfangen,

00:05:34: das mit eigenen sehr absurden und wilden Theorien zu füllen und inwiefern das so,

00:05:39: also wie so Verschwörungstheorien teilweise so Gossip geworden sind an der Stelle.

00:05:45: Das finde ich halt eher interessant. Also ich habe so eine Empenge von dem Bild selber,

00:05:48: weil auch in das Bild kann man viel reinlesen.

00:05:51: Ich bin eher der Meinung, dass "A" sehr wahrscheinlich absolut irrelevant

00:05:56: und es gibt eine absolut langweilige und uninteressante Erklärung

00:05:59: und vielleicht Fotoshop zieht wirklich selber und hat den Klonstempel falsch verwendet,

00:06:03: vielleicht war es tatsächlich KI generiert.

00:06:05: Ich finde es eher interessant, dass die Tendenz so da ist,

00:06:08: dieser schnellere Flex da, eine Verschwörung zu glauben und dann...

00:06:12: Und weil ich daher dann behaupten würde, ich sehe das total, dieses "Hey, wir haben irgendwie

00:06:16: zwei Informationspunkte, nämlich irgendwie der Informationspunkt, es gibt hier eigentlich

00:06:20: die Thronfolgerin, die war oft in den Medien und jetzt ist sie eine längere Zeit nicht in den Medien,

00:06:23: das sind irgendwie zwei Fakten. Und dann dazwischen, wir wissen nicht,

00:06:26: wie diese beiden Fakten in Zusammenhang stehen und dann denkt man sich halt die Verbindung aus

00:06:30: und so entstehen Verschwörungstheorien. Ich glaube allerdings jetzt eher,

00:06:33: das ist keine, das ist jetzt nicht wirklich eine neue Entwicklung,

00:06:36: ich glaube neu ist nur, dass wir das Verschwörungstheorien nennen würden,

00:06:38: wie du schon gesagt hast, das ist halt einfach, kein Ahnung, was die Yellow Pranker,

00:06:41: keine Ahnung, was die Yellow Press irgendwie seit 60 Jahren macht.

00:06:44: Ich glaube, das hat man früher vielleicht nicht um Verschwörungstheorien genannt.

00:06:47: Ja, fair.

00:06:48: Faire.

00:06:49: Obwohl das ja irgendwie, oder, also weil es ja, also klar,

00:06:52: diesen, dieses Denkmuster, das ist ja auch viel beschrieben worden,

00:06:55: auch wenn wir wirklich über im Rahmen von Q and Non oder Trump oder so diese ganzen

00:06:59: Verschwörungstheorien und Anführungszeichen, wo ja auch viele Medien inzwischen ja auch nur

00:07:03: noch über Verschwörungserzählungen oder so, also das ist schon so ein bisschen einordnen,

00:07:07: weil es eben die meisten ja offen gar nicht Verschwörungstheorien sind,

00:07:12: sondern halt oft auch einfach Bullshit oder Gossip oder sonst was.

00:07:17: Klar, verstehe was du meist mit dem Denkmuster, ich fand es nur so interessant.

00:07:20: Das ist ein Verschwörungstheorien.

00:07:22: Ja, genau, oder halt einfach so, so ein, das ist ja ja,

00:07:25: der hat es Q and Non begonnen, hat dieses kollektive, mimetische,

00:07:28: weiter Spinnen von der Geschichte, so, dass ja auch irgendwie nicht jeder, der sagt,

00:07:33: oh, vielleicht wurde sich von Aliens entführt und das müssen sie vertuschen,

00:07:36: glaubt das ja wirklich, sondern das ist ein ironisches Weiterspielen von diesen Mechaniken,

00:07:40: die da irgendwie dahinter stecken.

00:07:42: Findest du aber dann auch nur aus, ich sag mal aus einer Publicistik oder aus einer PR-Perspektive

00:07:47: halt schon einfach interessant, wie die Leute, die da sitzen bei diesem Königshaus

00:07:52: und ja eigentlich absolute Vollprofis sein sollten, wie den so was zu durchrutschen kann,

00:07:58: was diese offensitiven Theorien ja, also diese Theorien ja noch viel, viel, viel mehr anheizt,

00:08:02: obwohl sie eigentlich offensichtlich bekämpfen wollten?

00:08:05: Das wäre nicht die erste Pressestelle, die an Social Media scheitert.

00:08:10: Es scheint so. Lass uns das, wie gesagt, das ist mein kleines Privatinteresse jetzt im Moment,

00:08:15: bin sehr gespannt.

00:08:16: Schickt uns unsere besten Kettverschwörungstheorien auf jeden Fall an www.igetmedia.de

00:08:21: Ja, genau. Also ich bin gespannt, wie es ausgeht und bin gespannt, ob wir irgendwann von,

00:08:26: aus Indomitium, die diese ganzen Royal Mitarbeitenden schreiben mir immer alle so Enthüllungsbücher,

00:08:31: wenn sie dann irgendwann in Rente sind, ob wir irgendwann die Geschichte hinter diesem

00:08:34: Foto noch erfahren werden. Aber lass uns das auch gerne einfach aus Überleitung benutzen,

00:08:39: um einfach weiter noch ins KI-Thema zu gehen.

00:08:41: Es gab irgendwie nichts technologisch, irgendwie nichts Neues.

00:08:46: Wir warten immer noch auf Soma. Das Video Text-to-Video-Tool von OpenAI,

00:08:50: das vielleicht irgendwann veröffentlicht wird.

00:08:53: Ansonsten gab es hauptsächlich viel Debatte, oder?

00:08:55: Ja, viel Debatte, einige etwas wehre Interviews. Wir braschen nicht sagen die Interviews.

00:09:02: Sam Omen war jetzt bei Lex Freedman und hat sich geschafft, über eine Stunde lang

00:09:08: sehr waage zu bleiben, was krass ist für ein Tech-Firma mit einer 2-stelligen Milliarden-Bewertung.

00:09:18: Drei-stellig inzwischen. Gott, ich weiß es gar nicht mehr.

00:09:21: Eine Waage in welchem Bereich?

00:09:23: Was es tatsächlich jetzt Chat-GPT kann, was es können soll, es ist sehr viel Konjunktiv,

00:09:30: sehr viel It Might, It Could, wenig It Does.

00:09:35: Und ich finde, dass es schon interessant ist, dass wir immer noch nach, was sind das jetzt,

00:09:41: 14 Monate nach dem Chat-GPT veröffentlicht wurde, immer noch in einem sehr konjunktiv,

00:09:48: oder einem starken Konjunktiv, vor allem einem Konjunktiv, der in die Zukunft gerichtet ist über KI-Räden.

00:09:55: Und den wir noch überraschend wenig haben mit, was tut es denn jetzt eigentlich?

00:09:59: Und das vor allem halt von, na ja, dem Geschäftsführer, also wenn ein Autobauer 13 Monate nach

00:10:07: dem Veröffentlichung eines Autos immer noch in Konjunktiv darüber redet, was dieses Auto eigentlich koennen sollte.

00:10:12: Ist das ein schlechtes Zeichen, meiner Meinung nach?

00:10:15: Und ich meine gerade, Sam Alton, der ist natürlich seine Hauptaufgabe, ist ja das Ding zu verkaufen.

00:10:21: Und da hilft natürlich der Hype, da hat mir glaube ich auch schon, ich glaube,

00:10:25: ich habe es in einer der ersten Folgen mal drüber gesprochen, was ist eigentlich Hype.

00:10:28: Und klar, das lebt viel von diesem Verkaufen von einer Zukunft, die es noch nicht gibt,

00:10:33: aber die es vielleicht geben könnte, wo man dann Early Adopter sein kann und vor der Welle schwimmen und so weiter.

00:10:38: Ja, finde ich interessant, ich habe das Interview nicht gesehen.

00:10:40: Ich habe aber einen spannenden Text gelesen, den du glaube ich auch gelesen hast, von, heißt der Dance-Catron?

00:10:44: @citron.

00:10:46: @citron, der einen langen Artikel überschrieben hat, "Are we watching the Internet?"

00:10:51: Da werde ich unten in den Schaunots auch verlinken, wo er hauptsächlich so zwei Themen aufgreift,

00:10:58: die wir auch schon mal so hatten, die so glaube ich auch generell in der AI-Kritik so ein bisschen rumflattern.

00:11:03: Zum einen dieses Thema, was eigentlich passiert, wenn künstliche Intelligenzen immer stärker mit Inhalten trainiert werden

00:11:10: oder Trainingsdaten immer stärker verunreinigt sind, in Anführungszeichen von Inhalten, die selber KI generiert sind.

00:11:17: Und der zweite Punkt, das führt dann in die Richtung von diesem Sennemail-Interview,

00:11:23: was machen wir eigentlich mit dem ganzen generativen KI

00:11:26: und brauchen wir eigentlich, wofür brauchen wir diese Inhalte, die wir jetzt so viel schneller und einfacher raushauen können?

00:11:33: Fand ich ganz interessant, du hast ihn auch gelesen, oder?

00:11:35: Ich habe ihn auch gelesen, ja, man muss fairerweise sagen, es ist hier ein bisschen ein problemischer Artikel.

00:11:39: Sicher, ja.

00:11:41: Aber gerade das macht das ihn wahrscheinlich auch interessant, weil es ist ein interessantes Gedanken-Experiment,

00:11:46: ist was er ja aufwirft, ist genau diese Frage.

00:11:49: Was passiert eigentlich gerade mit dem, was wir jetzt Internet verstehen?

00:11:52: Was vor allem Google und große Plattformen eigentlich ist, de facto.

00:11:57: Und genau, also ich finde diese Frage vor allem, das ist diese Nutzersichtperspektive irgendwie ja,

00:12:02: wir können darüber reden, ja, und das geht ja durchaus auch schon,

00:12:05: also das ist ja sicher nichts, wo auch, wo auf seinem Artikeln im Konjunktiv darüber reden müsste,

00:12:09: gewisse Arten von Inhalten lassen sich mit generativer KI sehr, sehr schnell erstellen.

00:12:13: Die Frage ist nur, was sind das Inhalte, die tatsächlich irgendjemand braucht,

00:12:18: irgendjemand möchte, oder das, was Citron dann auch beschreibt, ist ja dieses,

00:12:22: was du damit gut produzieren kannst, sind Texte, die irgendwelchen Algorithmen genügen,

00:12:27: zum Beispiel SEO-Algorithmen, also SEO sind ja keine Algorithmen,

00:12:31: aber die gut SEO-Prinzipien entsprechen können, um damit gut zu sein für Algorithmen,

00:12:37: damit es bei Google gut ranked, was aber wer regelmäßig im Internet nach Rezepten sucht,

00:12:43: das sind ja keine Inhalte, die Menschen lesen wollen.

00:12:45: Da entstehen diese Artikel, wo man, wo man anklickt, wenn man Rezepts sucht,

00:12:48: und dann stundenlang erst mal seitenweise Dinge lesen muss über das Rezept,

00:12:52: wo immer wieder der Name, der, der keine Ahnung, irgendwelche Markennamen oder die Zutatennamen benannt werden,

00:12:57: damit das gut ranked, aber das ist ja kein für Menschen nett, schön lesbarer Text,

00:13:02: von dem man irgendwie profitiert.

00:13:04: Und diese Artikel sind gleichzeitig, oder diese Texte sind gleichzeitig natürlich die,

00:13:07: die ChatGPT wunderbar produzieren kann, weil bei SEO gibt es irgendwie klare Regeln,

00:13:11: man kann den Tool klare Regeln vorgeben und bekommt dann sehr einfach,

00:13:15: sehr, sehr viele Artikel raus, die für Algorithmen funktioniert, aber nicht für Menschen.

00:13:20: Und dann die Frage zu stellen, wofür brauchen wir das eigentlich?

00:13:22: Oder wer braucht das eigentlich?

00:13:24: Ja, bzw. das ist also die Endform von "Ich optimiere auf ein Algorithmus in der Hoffnung,

00:13:31: damit Geld verdienen zu können".

00:13:33: Ich meine, das ist ja, LinkedIn hat ja auch ein KI-Schreibtool inzwischen, testet es gerade.

00:13:39: Ich meine, LinkedIn ist jetzt schon mit das unauthentischste soziale Netzwerk

00:13:46: und vielerreichend sehr unhilfreichste.

00:13:49: Was passiert, wenn ich jetzt auch noch diese Texte über Button generieren kann,

00:13:53: aus ein paar Stichworte?

00:13:55: Ja, ich glaube, das ist die logische Endform,

00:13:58: das ist die logische Endform aus algorithmischen Systemen

00:14:01: und den Versuchen, diese algorithmischen Systeme auszuhebeln und an die Spitze zu kommen.

00:14:05: Und ich glaube, es hat mich dann auch vor zwei Fragen zum so ein bisschen gestellt,

00:14:10: also klar, wir haben dieses Thema schon öfter geredet,

00:14:12: auch was ist es eigentlich, dann irgendwann ein Verkaufsargument zu sagen,

00:14:16: hey, das ist der organische Menscheninhalt, der ist irgendwie bio- und mehrwert,

00:14:21: als der KI-generierte.

00:14:23: Ich habe mir dann aber noch eine andere Frage gestellt,

00:14:25: müssen wir nicht so tief rein gehen, wenn du nicht möchtest,

00:14:27: aber das war, weil das mehr so eine philosophische Frage bei dem ganzen Ding war.

00:14:31: Citron schreibt dann auch an einer Stelle von, ja, manche Aspekte von Kreationen

00:14:37: könnten dann von Leuten gemacht werden, die das heute nicht können.

00:14:40: Also ein Video-Tool ermöglicht natürlich Leuten Videos zu machen,

00:14:45: die sie sonst nicht machen könnten, weil sie das Know-how nicht haben,

00:14:48: weil sie keinen Zugang zum Equipment und so was haben.

00:14:50: Und auf der einen Seite bin ich ein großer Fan von diesen Menschen,

00:14:54: okay, das Internet demokratisiert irgendwie viele Dinge,

00:14:56: es hat Publishing demokratisiert, es hat Zugang zu Öffentlichkeit,

00:14:59: zu Aufmerksamkeit in einer gewissen Maße demokratisiert,

00:15:03: zumindest eine Zeit lang, bis es dann wieder monopolisiert wurde.

00:15:06: Und das ist, glaube ich, schon grundsätzlich was Gutes.

00:15:09: Gleichzeitig habe ich mich dann gefragt, ist überhaupt hey,

00:15:14: du kannst diese kreativen Inhalte jetzt viel, viel einfacher erstellen.

00:15:18: Ist das überhaupt was Gutes oder ist nicht auch gerade etwas,

00:15:22: was diesen Dingen wertverleidigt, dass es schwierig ist?

00:15:25: Ja, definitiv.

00:15:27: Also fänden wir von Goch, und gemäle von von Goch genauso faszinierend,

00:15:31: wenn von Goch den Promt entwickelt hätte,

00:15:34: und das wäre das selbe Bild rausgekommen.

00:15:36: Und dann hätte er sich wieder hingesetzt und hat sein wunderbares Leben gelebt.

00:15:39: Aber gehört nicht das Struggle, den ich nur von Goch,

00:15:41: sondern auch viele andere Künstlerinnen und Künstler,

00:15:43: die jetzt auch nicht immer eine Heroin sucht sein mussten,

00:15:45: aber doch irgendwie diese Schwierigkeit in so einem kreativen Schafzprozess,

00:15:48: gehört das nicht irgendwie dazu?

00:15:50: Ist das nicht das, was es irgendwie ausmacht?

00:15:52: Und ist es wirklich immer was Gutes oder ist es wirklich immer nötig,

00:15:57: dass ein kreativer Prozess immer einfacher wird?

00:16:00: Steht es über Sie meiner? Es ist ein bisschen konflutet.

00:16:02: Du ja, ich verstehe dich total.

00:16:04: Was ist der Klappertpunkt? Der ist halt Pathos.

00:16:06: Das ist halt purer Pathos zu sagen, diese Tools ermöglichen,

00:16:10: es kreativ zu sein.

00:16:12: Aber du hast davor und auch jetzt schon ohne jede Möglichkeit kreativ zu sein.

00:16:17: Du brauchst dafür kein KI, ich kann dir Stift und Papier geben.

00:16:21: Du kannst kreativ sein.

00:16:23: Denk das, was halt der Versuch ist, oder das Argument, was ich dir hinter verstecke,

00:16:27: ist kein sei kreativ,

00:16:29: ist halt ein sei kreativ,

00:16:32: ohne dafür wirklich einen Aufwand betreiben zu müssen.

00:16:35: Oder habe das Gefühl, kreativ zu sein,

00:16:37: ohne dafür einen Aufwand betreiben zu müssen.

00:16:39: Denn der Punkt ist ja auch, die Tools nehmen ja unendliche Entscheidungen ab.

00:16:45: Also viel, was man so klassisch Art Direction nennen würde,

00:16:48: ist dann komplett aus oder zum Großteil außer meiner Kontrolle.

00:16:52: Ich kann zwar viel mit Ansätzen ein,

00:16:55: ich kann zwar viel mit Ansätzen ein,

00:16:57: ich kann zwar viel mit Ansätzen ein,

00:16:59: ich kann zwar viel mit Ansätzen ein,

00:17:01: ich kann zwar viel mit Ansätzen ein,

00:17:03: ich kann zwar viel mit Ansätzen ein,

00:17:05: ich kann zwar viel mit Ansätzen ein,

00:17:07: aber wenn du einen wirklich kreativen Prozess hast,

00:17:10: hat das ja auch viel damit zu tun,

00:17:12: wie ich mich ausdrücke, was ich kontrolliere von meinem Medium,

00:17:15: beziehungsweise auch, wo ich bereit bin, Kontrollen vielleicht bewusst aufzugeben.

00:17:19: Also es ist eher die Abkürzung, keine Fähigkeit entwickeln zu wollen.

00:17:23: Darin nicht investieren zu müssen,

00:17:25: auch vielleicht kreative Gedanken gar nicht zu Ende denken zu müssen,

00:17:28: sondern ich kann mit 10 Prozent anfangen und zum Ziel kommen

00:17:31: und ich muss nicht weiter drüber nachdenken.

00:17:33: Ich muss gar nicht mehr zu irgendeinem Prozess gehen,

00:17:36: denn der ganze Prozess wird rausgenommen.

00:17:39: Also ich glaube, auf der einen Seite meinen wir das Gleiche

00:17:42: und auf der anderen Seite bin ich ein bisschen anderer Meinung.

00:17:45: Ich glaube, du hast das ausgedrückt, was ich auch irgendwie sagen wollte.

00:17:48: Genau, weil ich sehe das auch so, dass KI in diesem Fall

00:17:51: natürlich nicht beim kreativen Prozess hilft,

00:17:53: sondern es hilft dabei, ein Produkt zu erstellen,

00:17:57: dass bisher das Produkt eines kreativen Prozesses war

00:18:00: und das vielleicht jetzt nicht mehr unbedingt ist,

00:18:02: weil es ein KI-Produkt sein kann.

00:18:04: Das meintest du, glaube ich, wenn ich da richtig verstanden habe.

00:18:06: Das sehe ich schon auch so.

00:18:08: Ich sehe es jetzt nicht ganz so...

00:18:11: Also ich würde es jetzt auch nicht nur an den Prozess festmachen,

00:18:13: weil ja klar, kannst du mit Stiftung, Papier kreativ sein,

00:18:16: aber wenn du jetzt ein Mensch bist aus irgendeinem

00:18:21: ökonomisch benachteiligten Haushalt und möchtest Filme machen,

00:18:26: dann kannst du mit Papier und Stiftung nicht weiter,

00:18:28: dann möchtest du halt Video machen.

00:18:31: Und diesen Prozess kann man, glaube ich, auch nicht so komplett

00:18:33: von dem erwünschten Produkt trennen.

00:18:35: Der Weg zu diesem Produkt ist jetzt natürlich erstmal leichter.

00:18:39: Und leichter bedeutet in diesem Fall auch zugänglicher,

00:18:42: was ja nichts grundsätzlich schlechtes ist.

00:18:45: Ja, aber auch da würde ich widersprechen.

00:18:47: Fast jeder hat Zugang inzwischen zu einer relativ okayen Videokamera,

00:18:51: deutlich deutlich stärker und deutlich besser,

00:18:54: als alles, was er vor 20 Jahren hat.

00:18:57: Da haben zumindest so ein Consumerbereich so gesehen.

00:19:01: Auch da würde ich sagen, es hält niemanden davon ab, kreativ zu sein.

00:19:05: Deswegen, ich finde, es ist halt eine reine rhetorische Konstruktion zu sagen,

00:19:11: na ja, vorher konntest du nicht kreativ sein,

00:19:13: aber jetzt mit KI kannst du dich selbst ausdrücken.

00:19:16: Du konntest vorher kreativ sein, aber du konntest vielleicht vorher

00:19:18: nicht denselben Zugang zu dem Endprodukt, das du dir gewünscht hast.

00:19:21: Ja, hast du aber jetzt auch noch nicht.

00:19:23: Und ich glaube, das ist trotzdem auch wichtig zu sehen.

00:19:25: Ja, ich habe das Gefühl, ich generele hier was, und das sieht aus,

00:19:29: es wäre ein fertiges Produkt.

00:19:31: De facto ist es das aber gar nicht.

00:19:34: Gerade wenn ich viel Kontrolle haben will.

00:19:36: Zum Beispiel auch da, da ist es löst nicht mehr.

00:19:39: mein Problem, das ich ja dann oft habe, das eine ist, ich will was produzieren, was, würde

00:19:44: ich sagen, jeder kann heute kreativ sein, dafür brauche ich keine generative KI Werkzeug,

00:19:51: im Gegenteil. Ich gehe davon aus, dass selbst materiell jetzt unter, ja, jeder hat ein Smartphone,

00:20:00: ich kann einen Film bringen, ich kann ein Podcast aufnehmen. Das Problem ist Distribution und

00:20:04: das löst es halt auch nicht. Also das eine ist, ich will mich ausdrücken, das andere ist

00:20:08: auch, ich will ja sehen, was Leute eigentlich machen. Und das ist ja das Fatale einer ganzen

00:20:13: Sache und auch das... Also Teil der Rhetorik dahinter ist ja, diese Idee, ich kann damit ein Künstler

00:20:19: sein, ich habe da vielleicht den Zugang zu einem Status, zu einem Sozialen, den ich davor nicht

00:20:25: hatte, weil er mir verschlossen war. Und ich denke, das ist das, wo wir diese Rhetorik

00:20:29: darauf so ein bisschen versucht zu argumentieren, wo sagen wir, das löst das Tool, der aber gar nicht.

00:20:37: Ja, du kannst das Gefühl haben, du bist jetzt kreativ und du kannst das Gefühl haben,

00:20:40: dass, wow, da ist gerade ein richtig tolles Video mit zwei Sätzen und drei Stichpunkten

00:20:44: generieren lassen. Aber du bist die gleiche Person, du bist damit kein Künstler, weil

00:20:50: du trotzdem kein Zugang zu Distribution hast, du hast trotzdem keinen Zugang zu damit irgendwie

00:20:55: Geld zu verdienen im Gegenteil. Aber da widersprichst du dir jetzt doch so ein bisschen selber,

00:20:59: weil die Distribution macht ja nicht den Künstler. Also du kannst ja auch kreativ sein und kreative

00:21:04: Werke und die nie jemals jemanden sieht, bis du trotzdem Künstler würdest. Ist jetzt

00:21:08: mein Künstlerbegriff. Genau, voll. Aber das sehe ich total so. Der Punkt ist halt,

00:21:13: das ist halt dieser soziale Status, diese Idee, ich bin kreativ oder ich bin ein kreativer,

00:21:17: ist was, was ja sozial mit Prestige verbunden ist, sich so auch definieren zu können. Das

00:21:23: funktioniert aber halt auch nur, wenn andere Leute mich auch so sehen als kreativer. Und

00:21:26: ja, kann ich jetzt anfangen, Dinge zu produzieren, die so aussehen, als wäre ich kreativ. Die

00:21:34: Faktor ist es halt aber. Aber das ist ja das Produkt, das ist ja ironischerweise das, was

00:21:39: Leute denken lässt, dass du kreativ bist. Das ist ja gerade nicht der Prozess. Den sieht

00:21:42: man ja bei den meisten kreativen Produkten nicht. Das ist ja das Witzige. Ja, in dem

00:21:46: ersten Mal schon langfristig untergräbt es das, ja. Langfristig untergräbt es, dass,

00:21:50: wenn man argumentiert, dass es für diesen sozialen Status natürlich eine gewisse Exklusivität

00:21:55: braucht, untergräbt es das, ja. Wenn alle kreativ sind, ist es keiner mehr. Genau,

00:22:00: was ja von vornherein, ja, dass der Punkt jeder ist kreativ. Ich brauche dafür keine

00:22:03: Tule zu. Grundsätzlich, ja, der gehört nur mehr dazu, dass es so, dass was ich sagen

00:22:07: will, vielleicht sehr komplexer Art und Weise. Aber das ist ja das, was die Rhetorik dahinter

00:22:12: so ein bisschen ja impliziert. Jetzt kann es sein und sehr einfach. Die Realität ist

00:22:18: aber komplexer. Also vielleicht ja, vielleicht in dem Sinne, dass das, was dir gefehlt hat,

00:22:25: bisher wird jetzt gelöst durch diese KI. Und ich glaube, da sind wir uns wahrscheinlich

00:22:29: dann wieder einig, dass das ja mit Sicherheit nicht der Fall ist, weil egal, ob man jetzt

00:22:32: dann den kreativen Prozess über den Prozess an sich definiert oder über den sozialen

00:22:36: Effekt, den man damit erreicht, beides kann, wie du gesagt hast, beides kann er die KI

00:22:39: nicht liefern. Find ich auch, finde ich ganz interessant, weil das weibt für mich so ein

00:22:43: bisschen auch mit dieser Vertrauensdebatte, wenn wir jetzt ein bisschen zielter auf Journalismus

00:22:46: gucken oder journalistischer Artikel, die von der KI geschrieben werden. Das ist ja

00:22:50: ebenfalls wieder was, was Soziales, was an diesen Produkten irgendwie dran hängt, was

00:22:54: nicht so einfach sich auf eine Maschine transferieren lässt. Schon gar nicht auf eine Maschine,

00:22:58: von der man nicht weiß, wie sie arbeitet. Ich glaube, man muss halt auch da unterscheiden

00:23:02: und sagen, was macht das Tool tatsächlich, das andere ist es mit was wird verkauft. Und

00:23:07: es ist ein Kreativitätserweiterungstool, ist halt de facto ein Verkaufsargument, weil

00:23:13: Kreativität in der Öffentlichkeit als prästisch-strecklich verstanden wird, be-wirtschaftlich eng verbunden

00:23:21: wird mit Innovation und damit wirtschaftlich im Backstum. Also so, da ist eine Rhetorik

00:23:25: dahinter, die man nicht vergessen darf an der Stelle. Und das ist ja auch nicht bewiesen,

00:23:29: dass es mich kreativ macht. Aber so, lass uns das Thema abschließen.

00:23:32: Okay, ich wollte sagen, genau das Thema abschließen, vielleicht ein guter Punkt, was ich noch ganz

00:23:36: interessant fand, wo ich mich nur interessieren würde, ob du die Beobachtung teilst. Ich weiß

00:23:41: nicht, ob das die ganze Zeit schon so war, bin ich mir nicht ganz sicher, weil wir ja

00:23:45: auch schon immer zum Beispiel drüber gesprochen haben, ja, generative KI, vielleicht nicht

00:23:49: ganz so sicher, was daraus wird, aber natürlich Maschine-Leune Technologien, das, was so unter

00:23:53: KI läuft, in verschiedenen Tools kann es spannende Anwendungsfelder geben. Ich habe im Moment

00:23:58: so ein bisschen das Gefühl, dass noch stärker, wenn ich zum Beispiel auf Linkin schaue, wo

00:24:02: ja sehr viele Leute sehr viel über KI reden, dass sehr verschiedene Leute beide KI sagen,

00:24:07: aber sehr, sehr unterschiedliche Sachen damit meinen und dieser generative Teil doch halt

00:24:14: das Reden über KI sehr, sehr stark beeinflusst, obwohl meines Erachtens die spannende Entwicklung

00:24:18: von KI irgendwo anders liegen. War das die ganze Zeit schon so, seit ChatGPT, oder ist

00:24:22: mir das jetzt nur stärker aufgefallen? Das war schon vorher weit also. Also ich meine,

00:24:27: muss mir auch dazu sagen, dass KI jetzt ja ein Begriff, der aus den Sechzigern kommt

00:24:32: und der wurde immer neu definiert, wenn es eine neue Technologie gab, die irgendwie spannend

00:24:37: war und in irgendeiner Form die Definition von KI passt. Also das ist ja ein breites

00:24:42: Forschungsfeld, KI ist es ein sich ständig bewegendes Ziel. Also, ja voll. Also deine

00:24:48: Beobachtung ist korrekt. Ich würde sogar sagen, sie ist so korrekt, dass sie seit den Sechzigern

00:24:53: korrekt ist.

00:24:54: Ich glaube, das ist nur, war mir nicht sicher, weil ich das gerade nochmal so wahrgenommen

00:24:58: hatte, weil um jetzt auch gerade, wo wir darüber redet haben, weil wir jetzt doch eben wieder

00:25:00: viel über generative KI gesprochen haben, so als wäre es gleich bedeutend mit KI, obwohl

00:25:04: das ja nicht der Fall ist. Und dass andere spannende Entwicklungen auch aktuell gibt,

00:25:08: die nicht generative KI sind und trotzdem spannende KI anwendung sein können.

00:25:11: Total. Also ich glaube, das einzige, was man dazu aufwiesen muss, ist, dass Clippy wurde

00:25:15: mal als KI verkauft.

00:25:16: Ja, ich meine irgendwie.

00:25:18: Ja.

00:25:19: Können wir Clippy zurückhaben mit einer Open Air Integration? Ich mochte Clippy.

00:25:24: Ja, heißt Co-Pilot.

00:25:25: Ja, aber Alexa, Alexa, Alexa, keine würde heute sagen, Alexa ist smart. Aber auch Alexa

00:25:32: wurde als KI-Assistent verkauft. Ich glaube, das ist etwas, die Leute schnell vergessen,

00:25:36: ist das halt ein...

00:25:37: Alexa fehlt halt, das ist halt keine Antwort, aber mal für Büroklammer. Das ist für mich

00:25:41: schon mal ein Minuspunkt.

00:25:42: Ja, voll fair.

00:25:43: Genau, wir wollten das Thema abschließen. Wir kommen, wir werden nicht ganz drum herumkommen,

00:25:49: weil ich glaube, lasst uns auch kurz über die South-By-South-West reden. Die große,

00:25:53: ja was eigentlich, Innovationen, Medienmusik, Kunstkonferenz-Festival in Austin, Texas,

00:26:01: das jetzt gerade in der letzten Woche zu Ende gegangen ist, wo einige aus unserem Team

00:26:05: auch dabei waren. Keiner von uns beiden war dabei. Deswegen können wir nur so ein bisschen

00:26:08: aus der Ferne unsere Beobachtungen teilen. Unsere Chefin Lina Tim hat, wie jedes Jahr,

00:26:13: den Breakfast-Tacke geschrieben, also einen täglichen Newsletter von der South-By, den

00:26:17: man auch, finde ich, nach der Konferenz noch gut lesen kann, verlinke ich auch wieder

00:26:22: drunter, wo man so ein bisschen aus Mediensicht natürlich sehr stark beschrieben, einzelne

00:26:27: Zusammenfassungen von einzelnen Panels, aber auch einfach Eindrücke und Metabeobachtungen

00:26:31: und so was nachlesen kann. Und sie schreibt natürlich auch, dass KI das absolut überbordende

00:26:37: Thema war. Web 3 kam oder Blockchain kam so gut wie gar nicht mehr vor, was nicht nur

00:26:43: sie dann als Validierung für uns begriffen hat. Und ansonsten so ein paar Wochen, ich

00:26:48: war im letzten Jahr da, es war wohl relativ leer, meinte sie, also bis zum Drittel weniger

00:26:54: als letztes Jahr, was so ein bisschen, ich glaube, wenn sie bzw. unsere Kolleginnen und

00:26:59: Kollegen jetzt nicht da gewesen wären, weiß ich nicht, ob ich was davon mitbekommen hätte.

00:27:04: Gut, wie war das bitte? Ich bin ja nicht mehr auf Blue Sky oder so was unterwegs, wurde

00:27:08: da über die South-By besprochen. Also nicht so, dass ich sie jetzt aktiv mitbekommen

00:27:13: hätte, muss ich ehrlicherweise sagen. Wenn es waren die üblichen Verdächtigen halt unterwegs.

00:27:17: Aber nee, also ich habe auch das Gefühl, das ist dieses Jahr definitiv weniger basker.

00:27:24: Besuchert die Kombination ist aus, Twitter ist inzwischen etwas entfölkert und be deiner

00:27:31: oder auch die Beobachtung, dass es eh allgemein ruhiger wird um die Konferenz oder Lehrer

00:27:36: wird um die Konferenz. Denn beides führt dazu in Kombination, dass man weniger mitbekommt.

00:27:41: Also ich habe wirklich relativ von der Kollegin Sabrina, die interessant an der Dote gehört,

00:27:48: dass also Amy Webb hat eine Masterclass angeboten zur Future Stinking, wo man sie Teilnahme

00:27:52: dann mit dem Abscannen eines QR-Codes nachweisen konnte, wenn man das Zertifikat am Ende haben

00:27:57: wollte, was ich eigentlich, das ist mal ein Trendsignal. Was die Pandemie für den QR-Code

00:28:05: getan hat, kann man gar nicht überschätzen. Ja, aber auch da natürlich schon das KI-Thema.

00:28:12: Ich frage mich dann so ein bisschen, wie gesagt jetzt komplett aus der Fernbeobachtung, wenn

00:28:16: ich mir anschaue, wie krass gehypt Web 3 Blockchain davor ein, zwei, drei Jahren war und wie wenig

00:28:23: das heute stattfindet und wie groß dann heute KI in, ich sage mal sicher auch in den vernünftigen

00:28:30: Ausprägungen, aber sicher auch stark in den Halbausprägungen da vertreten ist, vielleicht

00:28:35: verliert die Konferenz langsam auch so ein bisschen die Fühler für die Relevanz?

00:28:40: Das ist gar nicht so, ich glaube das ist auch da eher eine Symptome. Also ich würde eher

00:28:44: sagen, so die Konferenz ist halt ein Spiegelbild der weiteren Textszene, dass sie jetzt wirklich

00:28:52: indikativ, also das heißt, dadurch hat Indikative, glaube ich, nicht dass das so alleine daran

00:28:58: jetzt scheitert oder fällt. Was ich interessant fand, ich denke das ist auch so zum Thema

00:29:03: Amy Webb und Zukunftsforschung und Weak Signals sammeln, das ging auch tut herum. Und zwar

00:29:11: bei dem neuen Film von, jetzt muss ich selber nochmal gucken, Ryan Gosling, ich habe es

00:29:18: gerade noch ausgeschrieben. Was, Deadpool? Deadpool 3? Nein, nicht Deadpool 3, sondern

00:29:22: Fall Guy. Ryan Gosling. Also Ryan Gosling spielt einen Stuntman. Oh, da habe ich auch gerade

00:29:34: Ryan Gosling und Ryan Reynolds verrechnet, das fällt mir auf, da kriege ich Ärger von

00:29:36: einer Handvollkolleg*innen. Auf jeden Fall gab es eine Pre-Roll-Ad während der Premiere,

00:29:43: und zwar wo einige der großen Köpfe auf der South-Bass auf Westbühnen was zur KI erzählt

00:29:48: haben und mehr oder weniger das gesamte Kino hat diesen Pre-Roll-Trailer ausgeboten. Was

00:29:55: so zu mir ist, wenn wir sagen, okay, also da ist ein Stand… Immer, wenn über KI gesprochen

00:29:59: wurde. Genau, weil aktiv über KI gesprochen wurde. Natürlich auch in diesem Tonfall mit

00:30:02: Widerstand ist zwecklos mitgehen oder zurückbleiben und das wurde definitiv ausgeboten. Und was

00:30:09: soll ich sagen, musst du nur, okay, interessanter Indikator, gerade bei der South-Bass-South.

00:30:14: Das führt jetzt ein bisschen weg von dem South-Batt-Thema, aber ich glaube irgendein

00:30:19: Musikstar aus den USA, ich weiß jetzt leider nicht mehr, wer es war, eine Rapperin, glaube

00:30:26: ich, die auch ein Albencover veröffentlicht hat oder eine Single in irgendeiner Form.

00:30:32: Ich erzähle schon wieder Geschichten, die ich nicht 100% sicher weiß. Die Promo-Material

00:30:37: veröffentlicht hat in irgendeiner Form, das offensichtlich KI generiert war, also das

00:30:41: hat so diesen Mit-Journey-Vibe einfach. Das hat man irgendwie erkannt. Und das Feedback

00:30:47: darauf war extrem negativ und es scheint langsam schon so anzufangen, dass – und

00:30:52: das geht mir sicher so, wenn ich jemanden auf Linkin sehe, der das macht – wenn man ein

00:30:56: KI generiertes Bild sieht, es wirkt einfach billig. Und dann, okay, da wurde sich keine

00:31:00: Mühe gegeben. Ja, und da wird nicht investiert und wie

00:31:03: gesagt, da wird auch eine Gerätin gesteckt. Ich glaube, inzwischen ist die beste Metapher

00:31:07: für so KI-generierte Inhalte so Single-Use-Plastics so ein bisschen. Die sind nicht dafür da,

00:31:14: lange zu halten, aber irgendwie legen sie rum. Wirklich toll sieht es nicht aus. Es

00:31:19: sieht auch nicht in irgendeiner Form hochwertig aus. Aber man macht das halt, weil man halt

00:31:23: kann, so ja, klar, kann ich zu jedem einen Kauf eine neue Plastiktüte mitnehmen. Schadet

00:31:27: ja keiner. Dass das jetzt aber vielleicht ganz so zielführend ist, sei mal dahin gestellt.

00:31:34: Ich finde es auch interessant, dass dann dieser South-Bite-Trailer so ein bisschen ausgebot

00:31:37: wurde. Ich glaube, auch im Rahmen von so einem größeren, einfach die gesellschaftliche

00:31:42: Stimmung gegenüber Tech und Tech-Immiliaritären doch sich auch ein bisschen gedreht hat,

00:31:46: seit, ich sag mal, den 2000ern. Ich glaube, ich find es ganz interessant.

00:31:50: Vielleicht müssen wir anstatt dieses Jahr über die aktuelle South-Bite zu reden. Vielleicht

00:31:54: sollten wir einfach nächstes Jahr über die von diesem Jahr noch mal sprechen und das

00:31:58: lieber so ein bisschen mit immer ein bisschen stärker in Hindszeit betrachten. Weil ich

00:32:02: jetzt natürlich schon sehr neugierig bin, was nächstes Jahr da besprochen wird, ob es immer

00:32:05: noch KI sein wird, wie sich das weiterentwickelt hat. Aber ich glaube, das ist generell so,

00:32:10: weil man natürlich immer wissen will, was in der Zukunft passiert. Aber ja, vielleicht

00:32:13: tatsächlich eher so als Trendsignal wahrzunehmen als als Konferenz.

00:32:17: Ja, definitiv. Definitiv. Wer ein bisschen tiefer in die Inhalte einsteigen will, gerade

00:32:22: auf was Medien angeht, verlinke ich den Newsletter noch mal drunter.

00:32:25: Ein Thema hätte ich noch auf dem Zettel, über das wir reden könnten und zwar das mögliche

00:32:31: TikTok-Verbot in den USA, wo der Kongress hat es, glaube ich, beschlossen. Senat ist

00:32:36: sich noch nicht sicher, ob er darüber abstimmen will. Biden hat gesagt, wenn ein entsprechendes

00:32:39: Gesetz bei mir auf dem Tisch landet, wird das unterschreiben, wo es darum geht, TikTok

00:32:44: quasi vor die Wahl zu stellen, bzw. Bidemts, also die, die die Firma hinter TikTok vor

00:32:47: die Wahl zu stellen, entweder TikTok zu verkaufen an ein amerikanisches Unternehmen, also zumindest

00:32:52: die amerikanische Version von TikTok an ein amerikanisches Unternehmen zu verkaufen, oder

00:32:56: sich damit konfrontiert zu sehen, eventuell in den USA verboten zu werden. Und ich möchte

00:33:03: es du direkt was zu sagen. Ich habe dazu eine Meinung, die ich dann gerne mal an dir

00:33:06: vorbeispielen würde.

00:33:07: Als Nicht-Tik-Talk-Nutzer und jemand, der sich gefühlt, nicht wirklich involviert,

00:33:12: fühlt, finde ich es interessant auf vielen Ebenen. Erwartbar sicher, dass das Thema hochkommt.

00:33:21: Ich hätte es eher von Trump erwartet, dass er das durch boxen. Er ist jetzt ein...

00:33:25: Er ist jetzt wieder dafür, weil er wollte TikTok verbieten, als er noch an der Macht

00:33:29: war und jetzt es uns beiden verbieten, deswegen ist er jetzt dagegen.

00:33:31: Ah, okay, das, das Detail habe ich so nie mitbekommen, aber ja, klingt logisch.

00:33:36: Und wenn die jungen Wählerinnen und Wähler finden es natürlich auch relativ scheiße.

00:33:40: Ja voll, also ich finde es faszinierend zu beobachten. Ich habe keine wirklich dezidierte

00:33:45: Meinung, deswegen gibt mal gerne dein Herr.

00:33:48: Das Ding ist, ich habe auch keine so richtig dezidierte Meinung. Ich benutze erstens auch

00:33:51: kein TikTok. Meine Meinung zu dieser Sache ist, ich tue mich da auch schwer, eine Haltung

00:33:55: zu zu entwickeln, weil es mir auf eine involvierte Art egal ist. Und zwar auf der einen Seite,

00:34:01: ich glaube, die nicht, weil ich das nicht nutze und das mir egal verboten wird, obwohl

00:34:05: es der Genzi echt gut tun würde, vielleicht mal so ein Weinmoment zu erleben. Wir mussten

00:34:09: auch auf Wein verzichten. Nein, aber im Ernst, auf der einen Seite glaube ich, dass die meisten

00:34:15: Argumente, die angeführt werden, warum die USA das tun wollen, auf dem anderen Fall

00:34:19: glaube ich, unsinn. Also da werden Datenschutzbedenken angeführt, als ob die USA die Heimat des

00:34:25: Datenschutzes werden, was sie selbst wahrscheinlich nicht sind und TikTok sammelt nicht mehr Daten

00:34:29: als Instagram oder Facebook. Wo man ja auch sagen muss, das löst das Problem nicht,

00:34:34: das Datenschutzproblem. Ich könnte ja auch Gesetze verabschieden, die Datenschutzstärken,

00:34:39: aber... Ja, genau, genau. Und ob jetzt für mich als Individualen Nutzer macht jetzt

00:34:44: auch echt nicht so viel Unterschied, ob die USA oder China meine Daten haben. Ich habe

00:34:47: ein Huawei-Laptop, also bei mir ist jetzt so geherabgefahren. Das ist eine Datenschutzdebatte.

00:34:53: Klar, auf der anderen Seite ist es dann natürlich eine Wirtschaftskrieg, Hegemonialmacht, Vorreiter,

00:34:59: Weltmachtdebatte, wo was da wahrscheinlich eher dahinter steckt. Was ich irgendwie für...

00:35:04: Also ich glaube, diese Argumente, warum man TikTok verbieten will, sind unsinn und würden

00:35:07: auch noch x andere Dinge betreffen, die zum Beispiel aus China kommen oder aus anderen

00:35:11: Ländern mit denselben Argumenten. Gleichzeitig habe ich persönlich irgendwie überhaupt

00:35:16: keine Lust, ein soziales Netzwerk zu verteidigen oder eine Milliardenfirma wie ByteDance in

00:35:22: irgendeiner Form zu verteidigen oder so zu tun, als sei es jetzt irgendwie politisch

00:35:27: so krass relevant, dass TikTok existiert und als sei das ein wertvolles öffentliches

00:35:33: Forum und nicht ein Ort, der dazu geführt hat, dass irgendwie eine handvoll amerikanische

00:35:37: Jugendliche, sagen wir mal, bin Laden plötzlich toll fand. Also es ist mir einfach... Also

00:35:41: wenn sie es verbieten, cool, stört mich nicht. Aber die Gründe, warum wir es machen, sind

00:35:46: irgendwie auch blöd. Deswegen, wenn sie es nicht verbieten, ist es auch okay. Und das

00:35:50: ist irgendwie so die Position, auf der ich da stehe. Und deswegen, ja, das fühlt sich

00:35:55: so komisch an, wie auf keiner von diesen Seiten so richtig zu stehen.

00:35:58: Ja, klassischer Fall von Lose, die deutlich mehr verdienen, als wir dürfen dieses Problem

00:36:03: sich hier ausdiskutieren. Ich finde es auch nur interessant, ich glaube, das ist halt eher

00:36:07: was man da auch nochmal betonen muss. Inwiefern hier eine soziale... ein soziales Medium zum

00:36:15: geopolitischen Thema auf einmal wird. Ich denke, das ist halt nochmal eine Sache, die

00:36:20: man da Kopf behalten muss, eigentlich, dass das nochmal eine andere Dimension eigentlich

00:36:27: hat. Ja, aber auch da, ich glaube, das hat Facebook

00:36:31: ja eben halt auch. Facebook, das ja schon für gewaltsame Konflikte in Ländern des

00:36:36: Globalen Südens verantwortlich war und so. Also auch das jetzt eigentlich kein Grund,

00:36:40: nur TikTok dann einzuschränken. Ich glaube, soziale Netzwerke stärker moderieren, stärker

00:36:45: unter, ich weiß nicht mal, staatliche Kontrolle, aber doch irgendwie unter juristische Kontrolle

00:36:50: in irgendeiner Form zu stellen, finde ich auch gut, wenn es bei Instagram und bei Facebook

00:36:54: passieren würde. Warum das dann ausgerechnet nur bei TikTok passieren soll, erschließt

00:36:58: sich mir dann nicht. Und ja, Mai, also ich glaube, wenn ich China tatsächlich sich entscheidend

00:37:03: so ein Detailbahn anzugreifen, wird, glaube ich jetzt, sowohl die militärische als auch

00:37:09: die gesellschaftliche Reaktion da drauf, wahrscheinlich nicht primär vom TikTok abhängen. Auch das

00:37:14: ist eine gesellschaftliche Diskurs, darüber mutmaßlich nicht, weil ich glaube, das ist

00:37:18: ja genauso. Die ganzen westlichen Netzwerke sind ja in China schon verboten und blockiert

00:37:22: und natürlich sind Inhalte auf TikTok in China zensiert. Aber gleichzeitig wäre das ja dann

00:37:28: im Westen nicht das Einzige, also wenn jetzt China, in Falle eines Angehörses auf Taiwan,

00:37:33: alle Inhalte darüber zensieren würde, dann würden wir uns halt auf X oder auf Instagram

00:37:37: weiter darüber unterhalten. Ja, ich weiß nicht, ich finde das irgendwie eine merkwürdige

00:37:41: Debatte. Ich finde es, fragen mich, warum da die amerikanische Politik sich so mit den

00:37:47: jungen Wählerinnen und Wählern verschärzen will für meines Erachtens relativ blöde

00:37:51: Gründe. Auf der anderen Seite, wie gesagt, ich möchte einfach nicht Verteidiger von

00:37:54: TikTok sein in irgendeiner Form. Deswegen sollen die vielleicht einfach mal machen,

00:37:57: oder? Also nicht verbieten, sondern die sollen das einfach unter sich ausmachen.

00:38:00: Wir werden das einfach beobachten, würde ich sagen.

00:38:02: Ich denke auch. Also ich habe mir nach wie vor keinen TikTok runtergeladen. Ich weiß

00:38:06: nicht, ich habe bisher, ich habe, das hat mich glaube ich auch schon mal gesagt, ich

00:38:09: konsumiere meine TikTok-Wien Erwachsener, nämlich zwei Wochen später auf Instagram.

00:38:12: Und das hat mir bisher völlig ausgereicht, das Vorelektiert zu bekommen. Und genau,

00:38:18: ansonsten gibt es ja auch noch YouTube-Shorts, zum Beispiel. Wenn man unbedingt kurz Video

00:38:22: hoch kann sehen. Gott sei Dank. Was würden wir noch ohne sich tun?

00:38:25: Ja, oder? Also ich weiß gar nicht, was ich jetzt mit der ganzen Zeit anfangen würde.

00:38:28: Oh mein... Ja. Wir könnten den Podcast noch länger machen,

00:38:34: vielleicht, wenn wir nicht dauernd auf Instagram müssten.

00:38:41: Skeptischer Blick, den ihr nicht sehen könnt von Johannes Klingelbühl. Ich glaube,

00:38:44: er ist zu lange weg vom Smartphone, deswegen sollten wir hier glaube ich langsam zum Ende

00:38:47: kommen, dass der Junge... Ja, ich krieg schon Zucker in den Klas.

00:38:49: ...Screen time auftanken kann. Ich glaube, das war die Märzfolge.

00:38:53: Ja. Die nächste Folge dann im April. Seien wir ehrlich, mutmaßlich wieder mit K.I.

00:38:58: Schauen wir mal, ob das sonst noch so passiert, oder? Vielleicht finden wir sogar Kate wieder.

00:39:01: Das wird auch was. Das wird auch was. Reden wir aber nächstes Mal auch wieder drüber

00:39:04: in "Deutschlands führen im Royal Podcast" und bis dahin macht's gut und wir hören uns im Internet.

00:39:09: [Musik]

00:39:17: .

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.