KI-Rants, Reuters Report, Media Lab Innovation Festival
Shownotes
Alle Jahre wieder kommt der Reuters Digital News Report! Christian und Johannes haben ihn bisher noch nicht gelesen, aber das hält auf Linkedin ja auch niemanden davon ab, trotzdem drüber zu reden. Außerdem disktuieren die Beiden einen viralen KI-Rant mit viel Filmblut, und die Enstcheidung Apples, doch erstmal keine Vision Pro 2 auf den Markt zu bringen. Und dann gibt es auch noch einen kurzen Rückblick auf das Media Lab Innovation Festival.
Der virale KI-Rant: https://ludic.mataroa.blog/blog/i-will-fucking-piledrive-you-if-you-mention-ai-again/
Der Medium-Text über die Energiebilanz von generativer KI: https://dirksonguer.medium.com/a-severe-lack-of-situational-awareness-52a26393d4d7
Der Scoop von The Information zur Vision Pro 2 (Paywall): https://www.theinformation.com/articles/apple-suspends-work-on-next-high-end-headset-focused-on-releasing-cheaper-model-in-late-2025
Ein gutes Videoessay zur Vision Pro von Eddy Burback: https://www.youtube.com/watch?v=kLMZPlIufA0
Der State of Innovation Report des Media Lab Bayern: https://www.media-lab.de/de/research/state-of-innovation-report/
Transkript anzeigen
00:00:00: *Musik*
00:00:23: Christian, was macht der Hype?
00:00:26: Ja, der Hype wurde das letzte Mal vergessen, glaube ich. Hallo Johannes, zu einer neuen Folge des Hype-Instituts.
00:00:32: Ja, wir haben im Vorgespräch, haben noch mal kurz in die alte Folge reingehört und haben festgestellt, dass wir letztes Mal in der Mai-Folge gar nicht überlegt haben, was der Hype macht.
00:00:40: Was macht der Hype? Ich glaube, der Hype wird ungehaltener, wenn wir über KI reden.
00:00:47: Auch das, ich glaube, wenig überraschend, wird nicht die Hype-Institut-Folge, wo wir nicht über KI reden.
00:00:52: Wir haben ein paar Themen dabei. Ich glaube, wir reden ein bisschen über KI, es gibt ein paar Neuigkeiten aus dem Spatial Computing-Universe,
00:00:59: weil das wir, glaube ich, kurz reden können. Wir können kurz Halbwissen über den neuen Reuters-Report verbreiten, den wir beide noch nicht komplett gelesen haben.
00:01:06: Und ich glaube, wir können ein bisschen was erzählen über unser Media Lab-Event, das wir jetzt, wir nehmen am 20. Juni auf.
00:01:13: Das ist jetzt also an knappe Woche her. 11.12. da hatten wir das Media Lab Innovation Festival. Darüber können wir, glaube ich, kurz erzählen.
00:01:20: Aber ich würde sagen, lass uns doch mit deinem Lieblingsthema anfangen, mit KI-Rans, Rans, wenn man es Deutsch ausspricht.
00:01:26: Es gab ein paar neue Texte, so in der letzten Woche, die irgendwie gekommen sind.
00:01:31: Ich glaube, einer davon ist auch relativ viral gegangen. Vielleicht kannst du uns ein bisschen was davon erzählen.
00:01:36: Der Text trägt den schönen Titel "I will fucking pile drive you if you mention AI again" und ist von einem Data Scientist,
00:01:43: der also auch technisch in der Entwicklung von KI beteiligt war oder von Datenarchitekturen beteiligt war.
00:01:49: Und ja, ich glaube, man ist kein großer Fan von der aktuellen KI-Welle, oder?
00:01:54: Nee, definitiv nicht. Ich fand das einen großartigen Text. Jetzt muss ich selber nochmal gucken, was der Name des guten Herren ist.
00:02:03: "Nickel zu Resch" heißt er. Ich verlinke den Text natürlich auch unten in den Show-Nauts.
00:02:08: Also für mich war der so ein bisschen, ich hatte so ein totales Katase, als ich diesen Text gelesen habe.
00:02:12: Es tat sehr gut zu lesen, was man teilweise sagen will, laut. Also der Text ist voller Gewaltandrohungen.
00:02:19: Das hat mich auch ein bisschen gestört, ehrlich gesagt. Ich finde, das braucht es nicht unbedingt.
00:02:23: Das ist voll fair. Das ist so meine Art von Tarantino, würde ich sagen.
00:02:28: Tagwriting kombiniert mit etwas Beleidigungen und Gewaltandrohungen.
00:02:33: Er nennt ein paar sehr, sehr gute und berechtigte Punkte und hat sozusagen eher erarbeitet in dem Cybersecurity-Umfeld
00:02:42: und hat höflich gesagt die Schnauze voll von der Art und Weise, wie KI-Systeme gepusht werden in diesem Umfeld.
00:02:50: Ergert sich da besonders über Consultants, vor allem die linken, aktive Variante von Consultants
00:02:56: und nimmt einiges einmal der oft genannten Argumente, also sehr solide auseinander.
00:03:04: Oder sagen wir nicht auseinander, aber bietet eine gute, gute Kritik, was so die klassischen Sachen beinhaltet,
00:03:12: wie wahrscheinlich braucht man kein Sprachmodell, um das entsprechende Problem zu lösen.
00:03:17: Es gibt Alternativen, die besser funktionieren, etablierter sind und kostengünstiger am Einsatz sind,
00:03:22: für example. Ich muss keine Einheit einrichten, die sich jetzt nur mit KI beschäftigt,
00:03:29: um irgendwie kompetitiv zu bleiben, denn realistischerweise werden all diese Systeme irgendwo in meine Software-Supply-Chain
00:03:36: eher reinkommen, wenn sie sinnvoll sind und dann muss ich nur noch den Button drücken in einem Jahr.
00:03:41: So doch jetzt schon, sondern auch was er klar kritisiert, ist auch, dass in dieser Annahme, dass die Adoption von KI jetzt schon
00:03:51: irgendwie ein Rieseneffekt hätte, also er kritisiert da besonders den Scale.
00:03:55: 2024 AI Readiness Reports, bei dem gerade mal 8% angeben, sie hatten bisher keine positiven Outcams gehabt,
00:04:02: was statistisch einfach nicht korrekt sein kann.
00:04:06: Also Softwareprojekte haben eine weitaus höhere Fehlerquote, das ist 8%.
00:04:12: Also es wäre sehr, sehr, sehr überraschend, wenn KI gerade da extrem gegen den Trend laufen würde,
00:04:18: was ja immer noch de facto in vielen Fällen experimentelle Technologie ist.
00:04:24: Und es tat irgendwie gut zu lesen.
00:04:29: Also ich glaube, man kann es vielleicht insofern einschränken, weil er sagt, er ist ja gar nicht so krass anti-KI in irgendeiner Form.
00:04:35: Aber ich glaube, er sagt nur, diese Forschung, die da gerade stattfindet oder die Unternehmen, die sich damit gerade beschäftigen sollten
00:04:41: und da Fortschritte machen und damit Sachen machen, sind absolute spezialisierte High-Class Expertinnen und Experten,
00:04:49: wo er sich glaube ich auch so ein bisschen dazu zählt.
00:04:52: Aber ich glaube, seine primäre Aussage ist, auf jeden Fall sind das nicht die IT-Departments von jedem Unternehmen unter der Sonne.
00:05:01: Das ist es halt. Es sind so viele Sachen und ich glaube, ein schöner Satz, den er auch drin hat, ist so, warum seid ihr nicht kompetitiv,
00:05:09: indem ihr eure Sachen fixst und eure Dinge mal aufräumt, statt jetzt irgendwie KI drauf zu klatschen?
00:05:15: Was ja auch so zu verkorrekt ist, also viele der angeblichen Vorteile von KI-Systemen kann ich ja gar nicht nutzen,
00:05:22: wenn ich nicht die entsprechende Datenbasis habe.
00:05:25: Auch das hat mich tatsächlich sehr auch an die Diskussionen im Medienbereich erinnert, die wir so letztes Jahr geführt haben,
00:05:31: als KI dann in den Medien ankam mit dem, okay, was ist denn eigentlich, ja, ihr wollt KI einsetzen,
00:05:38: aber gibt es da nicht viele andere Sachen, die ihr über euch im Backend erst mal aufräumen müsstet, von Archiv bis Nutzerdaten, etc.,
00:05:46: die man halt eben braucht, damit man KI überhaupt irgendwie anständlich einsetzen kann,
00:05:50: wo er aus seiner Erfahrung als jemand, der mit Datenarchitekturen von Unternehmen gearbeitet hat, halt sagt, okay, das haben die meisten Unternehmen,
00:05:57: erstens nicht und zweitens haben die meisten Unternehmen drängendere Probleme.
00:06:01: Also er schreibt jetzt nicht direkt über die Medienbranche, aber er schreibt ja irgendwie so von, es gibt halt immer noch Firmen,
00:06:06: die, also die meisten Firmen müssen halt erstmal aufpassen, dass bei ihnen nicht irgendwelche Nutzerpasswörter irgendwo in Klartext auf dem Server liegen
00:06:12: und sollten sich vielleicht erst mal um sowas kümmern, bevor sie anfangen, irgendwie KI über alles drüber laufen zu lassen.
00:06:18: Total. Ich glaube, ein sehr, sehr gutes Zitat. Ich würde jetzt einfach mal kurz drast zitieren, wir können überlegen, ob wir ein paar Sachen rausblieben.
00:06:25: Achis, ich habe eben schon fucking "Pile Drive" gesagt, ich glaube.
00:06:28: Sehr so perfekt.
00:06:29: Ich glaube nicht, dass Kinder diesen Podcast hören.
00:06:31: Ich finde, ich beschreibe seinen Argument halt sehr, sehr gut hier so.
00:06:33: "If another stupid motherfucker asks me to try and implement LLM-based code review to, in Anführungszeichen hier, raise standards instead of actually teaching people a shred of discipline,
00:06:44: I'm going to study enough judo to throw them into the goddamn sun."
00:06:47: Und ich denke, das ist halt auch wieder genau das Thema, das ist ja auch eine ähnliche Diskussion, die wir ja selber in einigen Kreisen sehen.
00:06:52: Ich glaube, es ist besser geworden.
00:06:54: Es ist halt kein magischer Zauberstab, KI generative KI, das löst mir keine organisatorischen Probleme dafür, ist es gar nicht da.
00:07:02: Und das ist hier natürlich so ein bisschen die Gefahr dahinter.
00:07:05: Also großartiger Text sollte man dazusagen.
00:07:09: Also, wie gesagt, ich verlinke Ihnen auf jeden Fall mal unten, wie gesagt, er bezieht sich nicht so direkt auf die Medienindustrie,
00:07:16: wo es sicher viele dieser Probleme auch gibt, die er beschreibt, gerade was so Daten altlasten und IT-Altlasten irgendwie angeht.
00:07:25: Er sagt ja auch, die meisten IT-Departments kriegen es halt irgendwie nicht mal hin, die Sachen zu schippen im Budget und in der vereinbarten Zeit CMS oder sonst was, die bisher ohne KI funktionieren
00:07:36: und sollen jetzt direkt auf diese, wie du schon sagtest, experimentelle Technologie irgendwie aufsetzen.
00:07:40: Ich finde tatsächlich, der Einsatz von KI speziell in der Medienbranche hat noch mal ein bisschen andere Zuschnitte,
00:07:46: weil ich glaube, die Use Cases gibt es ja oder es experimentieren ja alle mit Use Cases, die für sie Sinn machen konnten.
00:07:52: Ich glaube, da sind wir dann wieder eher in diesem Thema von sind diese Use Cases so nützlich und so wichtig, dass es sich halt lohnt, diese Infrastruktur aufzusetzen und dafür zu bezahlen.
00:08:02: Das hatten wir, glaube ich, in der letzten Folge schon mal so ein bisschen drüber gesprochen.
00:08:05: Das ist ja auch das Problem am Open AI Geschäftsmodell.
00:08:07: Da geht ja jetzt gar nicht so sehr drauf ein.
00:08:10: Aber ja, auf jeden Fall insgesamt ein schöner Rent und vielleicht so ein bisschen als Gegengewicht.
00:08:15: Also ich sage gar nicht, dass man irgendwie alles gut finden muss, was da drin steht.
00:08:18: Ich sehe auch ein paar Sachen so ein bisschen anders, aber vielleicht ein gutes Gegengewicht zu, wenn man sehr viele, sehr positive KI Sachen ist,
00:08:25: schadet sich ja nicht ab und zu auch mal sowas zu lesen.
00:08:28: Ich habe mal noch einen zweiten Text in die Richtung aufgetan von Dirk Songwer, der sich speziell auseinander gesetzt hat mit diesem Manifest von Leopard Aschenbrenner,
00:08:39: dem ehemaligen, der eh früher in diesem Open AI Super Alignment Team war.
00:08:43: Da hatten wir auch letztes Mal schon drüber gesprochen, dass jetzt mehr oder weniger aufgelöst wurde oder nicht mehr existiert.
00:08:47: Der drüber geschrieben hat, wie er sich die Zukunft von dieser KI-Entwicklung vorstellt und er geht da speziell in dem Text.
00:08:55: Ich verlinke ihn auch unten drunter auf den Energieverbrauch ein und das finde ich wieder interessant, weil und da greife ich jetzt dem letzten Thema so ein bisschen vor,
00:09:03: dass auch was ist, was wir auf dem Innovation Festival gehört haben.
00:09:06: Tatsächlich die Frage ist, selbst wenn KI so viel besser wird, wie das jetzt gesagt wird und wenn es in diese Maße exponentiell ansteigt,
00:09:14: wie das behauptet wird oder wie das auch in diesem Manifest behauptet wird, ist es dann vielleicht trotzdem die Frage,
00:09:20: ist es das, wo wir als Gesellschaft, als Welt, als Menschheit unsere Energie, unsere CO2-Budgets drin verbrennen wollen,
00:09:29: ob wir diesen Elektroschock produzieren wollen, ob wir das Wasser für die Kühlung der Rechenzentren aufwenden wollen, für diese KI-Anwendung,
00:09:36: selbst wenn sie so gut werden.
00:09:38: Und das fand ich tatsächlich auch noch ein ganz interessantes Aspekt, der auch in dem ersten Text gar nicht so stark vorkommt.
00:09:43: Ja, ich meine, das ist, glaube ich, die ähnliche Debatte damals, die man mit Bitcoin-Kryptowährungen und Co. hatte.
00:09:50: Wie viele Ressourcen macht es, da drauf oder da reinzustecken? Was ist denn Nutzen, so eine Nutzenkostenrechtung, da aufzumachen,
00:09:58: was ja sehr fair ist, ehrlicherweise.
00:10:00: Also, bestes Beispiel, das ging auf Twitter so ein bisschen um, wie man das hätte, SORA verwenden.
00:10:08: Ich glaube SORA, also, eines dieser Videogeneratormodelle, um bekannte Memes in Videos umzubandeln.
00:10:16: Das ist so, ne? Das ist so Kryptowährungslevel an usefulness.
00:10:20: Das ist so, ich generiere Inhalte und irgendein Rechenzentrum in New Mexico, schluckt erstmal drei Flaschen Wasser.
00:10:28: Ich finde es eine schwierige Rechnung aufzumachen, weil ich finde, das Problem ist an genau dieser Stelle oft,
00:10:33: dass ich verhörder mich so extrem in den Details und Größenordnungen und ich glaube, das hattest du vorhin noch in Vorgespräch gesagt,
00:10:42: was war das, das GPT-3 zu...
00:10:46: In dem Text, er schreibt, GPT-3 hat nur für das Training so viel Strom verbraucht wie 130 US-Haushalte im Jahr verbrauchen.
00:10:56: Was irgendwie so ist, das klingt, das ist 130 mal so viel VR wie wir verbrauchen in einem Haushalt.
00:11:02: Auf der anderen Seite ist es global gesehen trotzdem ein Witz und überhaupt nicht relevant.
00:11:06: Ich glaube, das Problem ist dann eher, dass Aschenbrenner in dem Manifest davon ausgebenden,
00:11:11: sich das exponentiell weiterentwickelt, dass es dann 2030 400 Gigawattstunden sein könnten.
00:11:17: Das sind dann halt schon 20 Prozent der gesamten Stromproduktion der USA.
00:11:21: Und da, also es geht gar nicht so, ja im Moment verbraucht das auch schon viel Strom,
00:11:25: ist wahrscheinlich im Vergleich zu anderen Sachen nicht so das große Problem, auch klimatechnisch nicht gesehen.
00:11:29: Aber zumal ja auch viel, muss man auch sagen, viele von diesen Rechenzentren werden ja inzwischen mit grüner Energie betrieben werden.
00:11:34: Die Frage ist nur, auch diese grünen Energie wird ja woanders auch gebraucht.
00:11:38: Und gerade wenn der Anstieg so weitergeht, wie sich das manche Leute vorstellen, manche Leute auch wünschen,
00:11:44: ist das dann wirklich der Aspekt, auf den wir diese knappe Ressource dann verwenden wollen.
00:11:50: Und nicht zum Beispiel auf Hey, E-Mobilität oder andere Dinge, die wichtig sein könnten,
00:11:55: wenn wir sagen, okay, wir wollen klimaneutral werden.
00:11:57: Und der sagt in dem Zusammenhalt auch, dass sich Microsoft, die glaube ich bis 2030,
00:12:01: ich glaube sogar Carbon Negatives sein wollten, durch die Adoption von generativer KI,
00:12:07: ein bisschen von diesen Zielen jetzt eigentlich verabschiedet haben.
00:12:10: Ein bisschen Skots, die waren glaube ich in 30 Prozent über dem Ziel wieder.
00:12:14: 20 oder 30 Prozent der Energieverbraucher gestiegen ist nur wegen KI.
00:12:19: Und das Ziel jetzt also weiter weg ist von ihnen als es vor KI war.
00:12:23: Und deswegen eigentlich die Frage, okay, wenn ich eine Firma bin, die sich ESG-Goals gegeben hat,
00:12:28: kann ich dann überhaupt, will ich dann überhaupt in KI?
00:12:30: Oder bin ich bereit in anderen Bereichen so viel mehr einzusparen, dass ich mir KI leisten kann?
00:12:36: Ja, das ist was, ich denke, der Punkt ist halt so ein bisschen deren, und am besten verregelt sich.
00:12:40: Also wenn man angenommen KI hat diesen gigantischen wirtschaftlichen Impact,
00:12:44: dann ist natürlich das Geld und die Ressourcen auch da, das weiter auszubauen.
00:12:47: Ist das nicht der Fall, erledigt sich die Sache von selbst?
00:12:50: Dann hast du den gleichen Effekt wie mit Kryptowährungen.
00:12:53: Dann ist das eine Blase, die platzt, sich auf einem einigermaßen sinnvollen Niveau wiederfindet,
00:13:00: und dann hatte sich das erst mal.
00:13:02: Also da muss man ja auch sagen, diese Idee, dass ich das immer weiter skalieren kann
00:13:05: und ich brauche nur mehr Rechenleistung, nur mehr Daten,
00:13:08: gibt ja kein ernst zu nehmen, das Forschungspapier tatsächlich ja.
00:13:12: Das ist ja im Grunde eine Fantasie und ein Marketinginstrument von OpenAI und Q.
00:13:18: Also du meinst diesen Gedanken, dass okay, wenn wir quasi, dass die AGI kommt,
00:13:22: wenn wir nur genug Daten in dem Bestehen des LLM reinfüttern?
00:13:25: Genau, das ist so ein bisschen die gleiche Logik, wenn ich nur genügend Kolben in meinen Dieselmotor mache,
00:13:29: dann kann ich, weiß ich nicht, die Schallmauer durchbrechen.
00:13:33: Also ja, theoretisch schon, wenn ich im Vakuum unterwegs bin, aber de facto halt nicht.
00:13:39: Und das ist glaube ich so, dass die allgemeine E-Fehlanahme dahinter.
00:13:43: Damit ist das reine Fantasie, würde ich jetzt mal sagen,
00:13:47: die früher oder später mit der Realität einfach kollidieren wird.
00:13:50: Also ich, ja, sich schon, ich denke halt, es ist eine Kosten- und Nutzenrechnung im Infekt, oder?
00:13:54: Also ich glaube, wie du gesagt hast, wenn der Nutzen tatsächlich so stark ansteigt,
00:13:57: dann ist es eine andere Diskussion, weil dann können wir tatsächlich fragen,
00:13:59: okay, ist das so nützlich, dass wir sagen, ja, dafür wollen wir einen Chunk von der grünen Energie,
00:14:05: die wir dann produzieren, aufwenden, weil es unser Leben so viel besser macht,
00:14:08: weil es uns dabei hilft, so viele Probleme zu lösen,
00:14:10: weil es uns vielleicht sogar auch dabei hilft, diese Probleme zu lösen,
00:14:13: weil es vielleicht Research-Wissenschaft so beschleunigen kann,
00:14:17: dass wir schneller neue Energieformen entwickeln, das Kernfusion endlich funktioniert, was auch immer,
00:14:22: ich bin jetzt nur um, dann ist es natürlich eine Frage, die man diskutieren kann.
00:14:26: Die Frage ist, an welchen Punkt sagt man, okay, da muss die Nützlichkeit irgendwie ankommen,
00:14:30: damit wir bereit sind, so viel Strom und Energie und Wasser da reinzustecken
00:14:34: und wo, wo, an welchen Schaltern kann man dann drehen?
00:14:37: Ich glaube, da, also ich will da gar keine, also ich habe da gar keine Antwort drauf,
00:14:40: ich glaube nur, das ist wichtig, dass man die Frage stellt.
00:14:42: Definitiv, definitiv.
00:14:45: Dass man diese, diese Kosten-Nutzenrechnung nicht nur in Bezug auf Geld macht,
00:14:48: über was wir im letzten Mal schon gesprochen hatten,
00:14:50: sondern eben auch in Bezug auf die realen Kosten,
00:14:53: als die Cloud-Infrastruktur eingeführt wurde, gab es diesen schönen Spruch,
00:14:56: there is no cloud, it's just other people's computers.
00:14:59: Und das ist ja genau das ja auch, dass man nicht vergisst,
00:15:01: dass eben auch diese KI-Anwendungen nicht irgendwie aus dem Etter zu uns kommen,
00:15:03: sondern dass da reale Externaillitäten dranhängen von Energie, von Wasser, von Hardware, die gebaut werden muss.
00:15:11: Auch ein interessanter Aspekt, der bei Blockchain, der zum Beispiel auch so war,
00:15:15: weil das natürlich auch extrem die Orte auf der Welt bevorzugt,
00:15:19: wo die Bedingungen besser sind, wo Energie günstiger ist,
00:15:22: wo es wetterkälter ist, was ja dazu geführt hat, dass die meisten Blockchain-Rechenzentren,
00:15:27: der inzwischen in China und Russland stehen, wo ESG-Goals jetzt vielleicht nicht ganz so wichtig sind.
00:15:33: Also auf das so, das ist bisher ja nicht passiert, dafür ist die Technologie irgendwie zu wichtig,
00:15:36: dass die Leute nicht doch dann in den USA sein wollen, aber genau.
00:15:39: Also ich glaube einfach, die Frage sollte man nicht vergessen.
00:15:42: Und wie gesagt, sie kam ja auch in unserem Workshop, den wir gegeben haben,
00:15:44: auf dem Innovation Festival, kommen wir am Schluss nochmal zu,
00:15:46: kam diese Frage ja auch aus der Runde.
00:15:48: Und finde ich gut, dass das einige dann auch schon auf dem Schirm haben,
00:15:51: in der Medienbranche mit noch einmal den Schluss auf die Medienbranche wieder zurückzuziehen.
00:15:56: Gut, wollen wir weitermachen?
00:15:58: Ja, lasst uns ja gerne weiter machen.
00:16:00: Apple VR.
00:16:02: Zukunfts-Schermedien.
00:16:04: Ja, ja, ja, ja, Nächste Thema, es ist glaube ich relativ kurz das Thema, oder?
00:16:08: Das war ja von wann, war das ein kurzes Thema?
00:16:09: Das war jetzt relativ neu, 18. Juni, also vorgezahlt.
00:16:14: Genau, die Information verlinke ich auch gerne unten, ist hinter einer Paywall.
00:16:18: Wer einen Zugang zu den Informationen hat, kann es komplett lesen.
00:16:21: Die Information hat den Scoop, dass Apple die Arbeit an der Vision Pro 2 offenbar eingestellt hat
00:16:28: und sich stattdessen darauf konzentrieren will, ein günstigeres Modell Ende 2025 rauszubringen,
00:16:36: was glaube ich so ein bisschen auf das einstatt, was wir, als wir ja vor,
00:16:39: ich glaube im Januar oder so haben wir eine Folge mal mehr über die Vision Pro gesprochen,
00:16:42: wo gesagt haben, okay, der Preispunkt von 3.500 Dollar ist halt einfach die riesige Hürde,
00:16:47: um da überhaupt irgendwie einzusteigen.
00:16:49: Habe ich mich dann nur gefragt, das Verkaufsargument der Vision Pro war ja,
00:16:54: dass sie technologisch so viel weiter voran ist als alle anderen Jahrbrillen,
00:16:57: und das ist ja glaube ich auch einfach so.
00:16:59: Wenn man das jetzt runterfährt und die technische Leistung etwas verringert, um es billiger zu machen,
00:17:04: wo ist dann eigentlich noch der Unterschied zur MetaQuest oder Oculus Rift oder sonst was?
00:17:09: Apple-Ukosystem denke ich, das ist halt das einzige Argument oder vielleicht das Hauptargument.
00:17:14: Also who knows, ich denke, muss man sehen, ehrlich aber, sonst mal abwarten.
00:17:18: Ich denke, der Punkt ist halt einfach der, und das ist, glaube ich, interessant in der Stelle zu erwähnen,
00:17:21: dass Vision Pro, glaube ich, an einigen oder an vielen Stellen hätte den Erwartungen geblieben
00:17:26: und auch in den Erwartungen von Analysten geblieben ist.
00:17:29: Ich habe uns noch mal vor und nach kurz nach geguckt, also jetzt allein schon von diesen Aktienkurs-Thema
00:17:36: und was definitiv nicht perfekt ist, aber die Apple-Aktie ist deutlich höher gestiegen
00:17:41: nach den Apple-Intelligence-Ankündigungen als nach den Vision Pro-Ankündigungen so.
00:17:47: Also schlechter Indikator, aber Indikator trotzdem.
00:17:50: Und ich denke, es wird sich zeigen, welche Rolle das spielen wird.
00:17:54: Es wird halt nicht das Ding jetzt werden.
00:17:57: So, das ist nicht die AR-Brille, auf die jetzt alle gewartet haben, mit der jetzt alle rumlaufen werden,
00:18:01: die alles revolutioniert. Vielleicht kommt das so in fünf Jahren, Down the Road, who knows,
00:18:07: aber das ist nicht passiert und das wird auch so schnell nicht passieren.
00:18:10: Ich glaube, auch da muss man halt deutlich pragmatischer mit Technologie einfach umgehen.
00:18:15: Ich finde, vor allen Dingen, das Ding ist ja, was wir auch schon, als die Vision Pro rauskam, gesagt haben,
00:18:20: es gibt ja günstiger Reviaberellen.
00:18:22: Ja, definitiv.
00:18:23: Es gibt ja dort, also ich glaube, wir hatten es damals gesagt, ich habe den Preis jetzt nicht mehr genau im Kopf,
00:18:27: aber ich glaube, die MetaQuest 2 kriegst du für 350 Dollar, also ein Zehntel von der Vision Pro.
00:18:34: Klar, die ist schlechter bei jeder technologischen Metrik, was die Displays angeht,
00:18:39: usw. ist die Technologie in der Vision Pro beeindruckender, gar keine Frage.
00:18:43: Aber auch diese billigeren Brillen haben sich ja nicht in dem Maße durchgesetzt,
00:18:48: dass man sagt, okay, es liegt nur an dem Preispunkt.
00:18:50: Und der Gedanke war ja, okay, Apple macht das jetzt halt so gut.
00:18:54: Ja, es ist dann noch sehr teuer, aber es macht es halt so gut, dass das jetzt dann breitere Anwendung findet,
00:19:00: also außerhalb von diesen Nischenbereichen, in Fertigung usw., wo es ja eingesetzt wird,
00:19:05: oder teilweise in der Ausbildung von verschiedenen Berufsgruppen,
00:19:08: dass es darüber hinaus mehr Verbreitung findet, weil es so viel besser ist.
00:19:12: Und wenn man jetzt aber diesen Schritt wieder zurückgeht und dann doch ein Produkt rausbringt,
00:19:16: dass technologisch wieder näher an den bereits existierenden Alternativen ist,
00:19:20: die sich ebenfalls nicht durchgesetzt haben, ist tatsächlich, glaube ich, die Integration ins Apple-Ukosystem,
00:19:26: das Einzige, was dann noch der USP ist?
00:19:30: Ja, wobei ich glaube, was an der Stelle ist, ich würde noch immer sagen, sie haben sich nicht durchgesetzt,
00:19:34: die haben halt ihre Nische gefunden.
00:19:36: Und das scheint zumindest ja für Facebook auch zu funktionieren auf einer gewissen Ebene.
00:19:40: Und ich glaube, so wird es halt auch mit der Apple Vision sein, die wird irgendwo ihre Nische finden.
00:19:44: Das wird nicht das Pro-Modell sein, oder es ist vielleicht einfach momentan nicht das Pro-Modell.
00:19:48: Ich glaube halt, die Erwartungshaltung, dass das jetzt irgendwie das nächste iPhone wird,
00:19:52: ist halt definitiv viel platziert.
00:19:54: Ich denke auch, also ich glaube, man muss mal, ich habe jetzt, als es rauskam, gab es ein bisschen mehr Inhalte.
00:20:00: Ich glaube, den Marquess Brown Lee, das Review gab es.
00:20:03: Wo grundsätzlich war er ist ja ein großer Apple-Fan, wo er jetzt auch mal, ja, ist schon irgendwie cool,
00:20:08: aber irgendwie so richtig wusste, was er damit anfangen soll, wusste er auch nicht.
00:20:11: Es gab noch ein sehr, sehr gutes Vision Pro Video, das ich auch noch in den Show Notes verlinke,
00:20:17: von jemand, der sich, sag mal, etwas künstlerischer, humoristischer damit auseinandergesetzt hat,
00:20:21: Eddie Berwick, der ein Video gemacht hat, das heißt "Apples 3500 Dollar Nightmare".
00:20:27: Was insofern ganz lustig ist, weil er sich nicht nur mit der Vision Pro beschäftigt,
00:20:30: sondern sich dann von, er sucht sich dann noch ein AI Girlfriend über die Vision Pro
00:20:35: und ist am Ende sehr dystopisch und verliert sich so ein bisschen diese Welt, also natürlich vielleicht geschauspielert und so.
00:20:40: Aber auch sehr lustig, kann ich auch mal unten verlinken.
00:20:43: Und ja, also ich finde es interessant auf jeden Fall, dass der große Verkaufserfolg ist ja offenbar ausgeblieben.
00:20:49: Also ich bin wirklich einfach gespannt, wie viele Einschränkungen bei der Technologie dann jetzt passieren,
00:20:55: bei diesem billigeren Modell, das 2025 rauskommen soll und wie sich der Preis verändert.
00:21:00: Also reden wir dann auch, dass sie auf 500 Dollar gehen oder 1000 Dollar oder so und deutliche Rückschritte machen
00:21:07: oder reden wir, sie gehen auf 2900 Dollar und dann haben nur leichte Abstriche.
00:21:11: Ich glaube, diese Strategie wird dann viel Aussagen darüber, wie sich Apple da die Zukunft vorstellt.
00:21:16: Wir werden es also sehen.
00:21:17: Das ist das Gute, das ist ein Thema, das da können wir ein paar Jahre noch darüber reden, das ist Easy Content.
00:21:22: Es ist, wir können was anderes als KI reden, das ist doch auch schön.
00:21:25: Ja, wundervoll.
00:21:26: Das kann man anfassen, das ist ein Hardware-Ding, das kann man sich in Schramm stellen, das ist doch schön.
00:21:31: 5 Minuten über Division Probe zu machen, um nicht über KI zu reden.
00:21:34: Wir haben ja noch ein anderes Thema, lassen wir noch zu dem vorletzten Thema einmal kurz
00:21:39: übergehen und das ist nämlich "The Reuters Digital News Report", der seit Montag draußen ist.
00:21:46: Also heute ist Donnerstag, also seit dem 17. Juni und wir müssen das insofern, glaube ich,
00:21:53: relativ kurz halten, weil ich ihn noch nicht ausführlich gelesen habe. Ich weiß nicht,
00:21:56: ob du schon tief eingestiegen bist. Nicht tief, ich habe ihn so ausschnittsweise gelesen. Die Dinge,
00:22:00: die mich interessiert haben, das wäre aber vor allem so die Aufstellung für Deutschland ist
00:22:04: und dann ein Kapitel über den Einsatz von KI Newsrooms und vor allem, das ist interessant,
00:22:10: weil ich glaube, das können wir gleich nochmal kommen, wenn du mit einem zweiten Report,
00:22:13: den mir dazu gerade eingefallen ist, Audiences. Also wie nimmt eigentlich die Zielgruppe es wahr,
00:22:19: wenn es darum geht, KI einzusetzen und Fun Fact, den meisten finden es gar nicht so geil. Also in
00:22:26: auch in einem sehr, sehr deutschen Absatz, das ist der allererste Satz nach der Einleitung auf der
00:22:32: Deutschlandzusammenstellung in dem Report ist "Public Awareness of Artificial Intelligence remains
00:22:38: somewhat limited, but already the majority of Germans are skeptical about its use in the newsroom".
00:22:43: Ich finde, das ist ja nun ein Glasshouse, in dem wir beide nicht mit Stein werfen sollen.
00:22:48: Das ist ein volles Glasshouse, aber nur 14% of those surveyed are comfortable with using news,
00:22:53: mainly produced by AI. Und ich glaube, das ist so, das ist die Warnleuchte an der Stelle.
00:22:59: Wobei, ich finde schon, dass man da insofern einschränken muss, weil das deckt sich durchaus,
00:23:02: es gab da nämlich schon eine Studie zu und die Zeit, die da irgendwie, die ich jetzt gerade
00:23:07: nicht auf dem Schirm war, die nicht auch von Reuters, ich weiß es gar nicht, auf jeden Fall,
00:23:10: die aber ähnliche Zahlen auch gezagelt wie das so ja komplett von KI generierte Nachrichten,
00:23:16: wer von den meisten skeptisch gesehen abgelehnt, KI einzusetzen, um Journalist*innen dabei zu
00:23:22: unterstützen Nachrichten zu produzieren, ist dagegen allerdings kein großes Problem.
00:23:26: Ja, total. Das wäre...
00:23:28: Also ich glaube, da muss man schon mal sagen, das ist, glaube ich, keine Skepsis gegenüber KI
00:23:31: generell, sondern das ist eine Skepsis. Okay, diese Nachricht hier ist jetzt ausschließlich von KI
00:23:36: generiert, dagegen gibt es Skepsis, das ist, glaube ich, jetzt in den beiden Studien irgendwie belegt.
00:23:40: Ja.
00:23:40: Aber dieses Skepsis löst sich relativ auf, wenn man halt sagt, okay, KI ist halt ein Tool,
00:23:45: das Journalist*innen einsetzen. Da weiß ich jetzt nicht genau, wie die Operationalisierung aussah.
00:23:50: Das kann ja unterschiedliche Formen einnehmen.
00:23:53: Da sind Zahlen drin.
00:23:54: Ja, genau, die Zahlen sind drin. Ich frage mich nur, was bedeutet...
00:23:58: Ich hieß einfach einen Satz lauter, "Sie sind aber nur 36 Prozent verdoppelt,
00:24:10: dann sind trotzdem nur 36 Prozent irgendwie kumpft... also so, ne? Ich glaube, das ist
00:24:16: nichts, was man in Stein meistelt, das ist ein Stein gemeißelt, das weiß ich nicht,
00:24:19: was man sich auch ändern kann, aber es ist definitiv hier an der Stelle ein Indikator,
00:24:22: dass A) das Vertrauen definitiv nicht da ist, und B) wenn ich das einsetze, ich deutlich
00:24:29: mehr Aufklärung ist, Arbeit machen muss, da sollte es transparent sein, sollte und vielleicht sogar
00:24:34: das Wörtchen KI nicht verwenden sollte.
00:24:36: Was durchaus aber, das kann ja durch das Legitime sein. Also, weil meine Frage war ja,
00:24:39: was bedeutet dann in dem Kontext Assisted by AI? Ist, glaube ich, das, was dann da relevant ist?
00:24:45: Ja, das ist bei so quantitativen Sachen immer natürlich.
00:24:49: Genau, und das Argument, das ich es ja nachvollziehbar finde, dass ich auch aus den Häusern kenne,
00:24:54: ist ja durchaus zu sagen, hey, auch bisher haben wir schon mit Dieb L Sachen übersetzt,
00:24:58: das ist auch eine KI. Auch bisher haben wir schon Algorithmen und Machine Learning Sachen eingesetzt,
00:25:04: das haben wir auch nicht gekennzeichnet. So, wenn wir jetzt einen Text haben, der von der KI
00:25:09: vorproduziert wird und dann liest ein Mensch nochmal drüber, ist es dann AI Assisted irgendwie schon,
00:25:14: aber ist es was, was man dann transparent machen muss? Ist das noch im Rahmen von dem,
00:25:18: was Leserinnen und Leser dann akzeptieren oder geht Ihnen das schon so weit? Ich glaube,
00:25:22: da müsste man vielleicht noch mal ein bisschen ins Detail, was eigentlich Assisted by AI dann
00:25:25: konkret bedeutet. Ich denke, das ist halt genau das Problem. Zumal mir auch sagen muss,
00:25:29: dass KI ist ja ein historisch sich bewegendes Ziel. Also, ich meine, Suchalgorithmen, das war mal KI.
00:25:36: Clippy war berühmterweise mal KI, also so, oder Karl Klammer, wie es im Deutsch schon so schön heißt.
00:25:43: Also, ich glaube, das sind alles so Sachen, wo die auch im Blick behalten müssen. Ja,
00:25:47: es ist gerade fancy, aber ich meine, all diese Tools, STEM, AI, Sprachmodelle,
00:25:52: war 10 Jahre und keine Sau wird, dass mir KI nennt, denn KI ist dann was anderes, was Neues,
00:25:58: was jetzt sexy ist. Es ist jetzt halt einfach Software. Genau, eben, das ist halt ein Tool,
00:26:03: das ich verwende und ich glaube, das ist es halt eher, also spreche ich hier wahrscheinlich vor allem
00:26:08: und wenn man es runterbrechen, dann nicht über KI Assisted, sondern halbautomatisierte Nachrichten
00:26:13: oder vollautomatisierte Nachrichten, wenn ich es ehrlicherweise runterbrechen würde und da
00:26:17: komme ich in, finde ich, eine sehr viel bessere und passendere Bezeichnung rein. Was ich nur kurz
00:26:22: dazu werfen will und das ist, was für ein interessantes Typ, ABC hat eine in die Studie gemacht
00:26:27: mit "A little qualitativeer in the UK, wie comfortable da" Publika mit dem Einsatz von KI sind und auch da,
00:26:40: ich lese einfach auch nur ganz kurz den Satz vor, aber es deckt sich so ein bisschen.
00:26:44: Audiences are least comfortable with AI replacing humans for advice or key decisions,
00:26:49: including directing media, 46% uncomfortable, personalizing social media content, 59% and
00:26:56: directing political content and advertising media, 67% uncomfortable. Ich denke, was da vielleicht
00:27:03: interessant ist an der Stelle und das stelle ich jetzt einfach mal so ein bisschen zur Debatte,
00:27:06: was hier mitschwingt, auch wenn es nicht explizit erwähnt ist. Eines der großen,
00:27:11: ich nenn es mal Verkaufsargumente für KI in Medien ist immer diese Idee, ich kann personalisieren.
00:27:16: Was da oft nicht bedacht wird oder vielleicht auch gar nicht gefragt wird, ist wollen die
00:27:20: Leute überhaupt personalisierte Nachrichten und wie wollen sie sie personalisiert haben.
00:27:24: Und ich habe so ein bisschen das Gefühl, da tut sich hier eine Lücke auf zwischen der Erwartungshaltung,
00:27:30: was Leute vielleicht wollen und was sie vielleicht tatsächlich wollen, von Nachrichtenmedien und
00:27:35: ich sage es explizit nachrichtenmedien, weil ja, Leute nutzen TikTok und irgendwie
00:27:39: personalisierter Content ist überall, aber das dann gleichzusetzen mit einer Nachrichtenseite
00:27:46: ist so ein bisschen don't know. Ja, ich wollte auch auf den Punkt, du hast es vorgelesen,
00:27:52: 59% uncomfortable mit Inhalte automatisiert quasi ausgewählt werden, aber das so funktioniert
00:27:59: halt jedes einzelne soziale Netzwerk, tut genau das. Und ja, Mensch. I know, es ist
00:28:03: nur, finde ich, kein Argument, weil ja, soziale Netzwerke machen das, ja, bei der Nachrichtmedium
00:28:08: ist kein soziales Netzwerk. Nee, aber die Leute nutzen es trotzdem, ich glaube, darauf
00:28:12: will ich hinaus. Also, das ist vielleicht was, wenn man Leuten das so explizit als Frage stellt,
00:28:16: wollt ihr das ja oder nein, aber das Nutzungsverhalten ist da vielleicht dann doch ein bisschen anderes.
00:28:22: Zumal ja auch, keine Ahnung, also dann wie ehrlich, so personalisierte Nachrichten werden ja schon,
00:28:27: also schon in Vorcomputerzeiten, da hieß es halt noch Relevanz. Und klar, wenn du Leute
00:28:33: fragst, hey, möchtest du das eine KI-Deinhalter auswählen, sind sie vielleicht skeptisch? Wenn
00:28:36: du Leute fragst, hey, möchtest du Inhalte, die für dich relevant sind, dann sagen sie natürlich ja.
00:28:40: Insofern ist es vielleicht da eher auch eine Framingfrage? Ja, sicher. Und das ist sicher
00:28:46: auch keine Sache, die man so allgemein sagen muss, es wäre ja so ein U-Achtung, possible
00:28:51: Schlagloch, Annahmen vielleicht noch mal hinterfragen. Annahmen hinterfragen und vielleicht
00:28:56: einfach auch Definitionen klarziehen. Ja. Also sowohl intern als auch in der Kommunikation
00:29:02: nach außen, wenn man jetzt als Medienhaus sagt, ich setze KI ein, halt sehr klar zu machen,
00:29:06: was bedeutet KI, was bedeutet einsetzen und was bedeutet wir im Endeffekt, so, dass man,
00:29:12: dass man sich dieser Punkte irgendwie klar ist. Trotzdem, ja spannende Zahlen auf jeden Fall.
00:29:16: Ich fand noch zwei andere Sachen interessant. Zum einen so dieses große Vertrauensthema war
00:29:20: dann natürlich auch wieder drin, wo sich jetzt für Deutschland zumindest gezeigt hat, dass sich dieser
00:29:24: Negativtrend, was was Medienvertrauen angeht, nicht umgekehrt hat, aber zumindest ist es nicht
00:29:30: mehr schlimmer geworden. Also ich glaube, da war der, der höchste Gras am Medienvertrauen war
00:29:34: während der Corona Jahre. Ich glaube, das hatten, ich weiß nicht, wenn Sie hier schon mal gesprochen
00:29:37: hatten, aber das wurde auf jeden Fall ja viel diskutiert. Als die Krise da war, sind die Leute
00:29:41: eher zurückgekommen zu Medien, haben Medien stärker vertraut. Danach ist es stark abgesunken.
00:29:45: Jetzt dieses Jahr, im Vergleich zum letzten Jahr ist es dann glaube ich wieder 2 % besser geworden
00:29:48: oder sowas, was nicht nennenswert viel ist, aber immerhin ist es nicht noch weniger geworden.
00:29:52: Also, dass dieser Abwärtstrend zumindest in diesem, oder ich z.B. aus den Zahlen aus 2023
00:29:59: ein bisschen abgebremst war und die zweite Zahl nicht interessant war, dass aber selektive,
00:30:04: Achtung selektive Nachrichtenvermeidung, also nicht Nachrichtenvermeidung als sonst, als
00:30:08: ganzes aber selektive Nachrichtenvermeidung, Leute, die gelegentlich Nachrichten vermeiden oder
00:30:13: zu bestimmten Themen Nachrichten vermeiden, ist dagegen leicht angestiegen. Was diese große
00:30:19: News-Awardens-Thematik uns ja irgendwie reinbringt, zu der wir auch im Media Lab arbeiten, im Future
00:30:23: of News Fellowship, wo wir aber bei diesem Punkt sind, okay, das Vertrauen steigt leicht und selektive
00:30:28: Nachrichtenvermeidung steigt leicht. Ein schönes Beispiel eigentlich, oder es sind niedrige Zahlen,
00:30:33: also das möchte ich jetzt nicht zu viel reinlesen, aber trotzdem irgendwie, dass wenn man als
00:30:38: Einzelperson, dass man Vertrauen in Medien hat und trotzdem Nachrichten selektiv vermeidet,
00:30:42: dass das überhaupt kein Gegensatz ist. Also, dass der Gegensatz gar nicht ist, okay,
00:30:46: entweder du vertraust Nachrichten, dann vermeidest du keine oder ist okay, du kannst Nachrichten
00:30:50: vertrauen und trotzdem ab und zu selektive Nachrichten vermeiden. Ich glaube, das ist
00:30:54: nochmal ein wichtiger Punkt, wenn wir über News-Awardens reden, dass es da ja oft gar nicht
00:30:57: darum um Leute geht, die sich komplett von Nachrichten oder Mainstream-Medien in Anführungszeichen
00:31:01: abgewendet haben, sondern um Leute mit teilweise sehr aufgeklärtem Medien-Nutzungsverhalten,
00:31:06: die selektiv aus Selbstschutz, aus welchen Gründen auch immer, gewisse Themen, gewisse
00:31:12: Nachrichten manchmal vermeiden. Das bedeutet nicht, dass sie grundsätzlich uninformiert sind
00:31:16: oder eine ablehnende Haltung gegenüber Journalismus haben. Also ich würde auch sagen, selektive
00:31:21: Nachrichtenvermeidung ist so ein halbes Synonym zu Medienkompetenz, ehrlicherweise, also Teil von
00:31:26: Medienkompetenz ist es ja genau zu wissen, warum ich bestimmt inhaltbar ein Konsumiere
00:31:30: zu reflektieren, warum ich sie vielleicht auch konsumiere oder auch bewusst zu entscheiden,
00:31:35: bestimmte Dinge nicht zu konsumieren. Das ist grundsätzlich erstmal, würde ich auch sagen,
00:31:37: es ist relativ normal. Also ich bin ja eher froh, dass Leute anscheinend an diesem Punkt sind oder
00:31:44: dass es inzwischen da auch medienkonsumverhalten da sehr mehr oder sehr viel stärker unter die
00:31:50: Lupe genommen wird, als es vielleicht schon einfach mal der Fall war, so just saying. Also ich bin
00:31:55: da ganz bei dir. Also das widerspricht sich nicht. Das sind auch zwei unterschiedliche Faktoren an
00:32:00: der Stelle klar, die irgendwo korrelieren. Aber ich kann Medien oder Nachrichten oder selektive
00:32:07: Nachrichtenvermeidung nicht teilen, indem ich Leute jetzt mehr vertrauen gewinn dazu ist, nicht
00:32:12: alleine. Dazu vielleicht habe ich auch noch eine kontroverse Meinung. Das habe ich mir nämlich,
00:32:16: also ich gestern mich mit den Zahlen kurs beschäftigt, habe mir auch gedacht, ich würde
00:32:20: wahrscheinlich sogar behaupten auch in einer demokratischen Gesellschaft, wo kritisches
00:32:24: Denken und Vernunft und so was hochgehalten wird. Ich würde aber auch 100 Prozent Medien vertrauen,
00:32:30: ist glaube ich nichts Gutes. Also auch von, vielleicht anders formuliert, ist es überhaupt
00:32:36: wünschenswert, dass es 100 Prozent wären, weil ich glaube nein. Weil die Frage, die Reuters ja
00:32:41: auch stellt ist, ich kann Medien oder Medienangeboten journalistischen Inhalten meistens vertrauen.
00:32:47: Stimme zu, Stimme nicht zu. Und ja, okay, meistens Vertrauen ist vielleicht gut. Auf der anderen
00:32:55: Seite wollen wir ja auch, dass die Leute kritisch mit Inhalten auseinandersetzen.
00:32:58: Ja. Selbst, also das ist jetzt nicht nur, dass die Leute irgendwie nicht auf Fake News
00:33:02: reinfallen sollen, sondern auch in den großen Qualitätsmedien gibt es Fehler und gibt es
00:33:07: Sachen, die man kritisch hinterfragen kann. Und wenn wir von dieser demokratischen Perspektive
00:33:12: und dieser normativen Perspektive da draufgucken, wollen wir ja eigentlich gar keine Leserschaft,
00:33:17: die alles unkritisch liest und vertraut, sondern sind wir dabei so Medienkompetenzthema. Also
00:33:22: eine gewisse gesunde Skepsis, die nicht in so eine grundsätzliche Abneigung übergeht,
00:33:27: gegenüber Medien, gegenüber Nachrichten, muss ja vielleicht auch gar nichts Schlechtes sein,
00:33:31: wie man so dahin gestellt. Ganz bei dir, ist ja, genau, ganz bei dir, ist
00:33:36: ehrlicherweise auch nur gesund. Ich glaube, wir müssen uns dann sorgen machen, wenn das Vertrauen
00:33:42: zu random YouTuber XYZ höher ist als in die Tageszeitung mit dem Fact-Checking-Team.
00:33:49: Aber das finde ich. Ja, dann würde ich sagen, ich glaube, wir können das vielleicht in der
00:33:54: nächsten Folge nochmal aufgreifen, wenn wir es beide gelesen haben. Ich habe nächste Woche,
00:33:59: also intensiver gelesen haben als es ist jetzt schon. Ich kann mal sagen, ich habe auch jetzt ein
00:34:03: bisschen Urlaub im Ende Juni. Ich weiß nicht, ob ich den Reuters-Report mitnehme oder doch lieber
00:34:08: Sci-Fi-Trash-Lese. Sind auch nur 168 Seiten. Ja, vielleicht les ich es am Pool. Das muss ich mir
00:34:14: dann noch überlegen. Kannst du es beim Copy Shop de la Valia ausdrücken und binden lassen.
00:34:19: Das sieht schon cool aus, vielleicht mache ich das. Und dann mit dem Textmarke am Pool.
00:34:22: Mal schauen. #WorkLiveBalance. Ja, belassen uns doch noch kurz. Wir hatten es schon angekündigt.
00:34:35: Wir haben noch ein Thema mehr bearbeiten, und zwar unser Innovation Festival.
00:34:38: Ja, all die coolen Leute waren auf dem Innovation Festival.
00:34:44: Exakt. Also wenn ihr es verpasst habt, sorry, war echt cool. Habt ihr verpasst mit dem nächsten
00:34:48: Jahr kommen und früh die Tickets kaufen und euch früh für Workshops anmelden? Ich glaube,
00:34:52: also ich glaube, wir müssen jetzt nicht aufzählen, mit welchen coolen Leuten wir uns alles unterhalten
00:34:56: haben. Inhaltlich. Ihr wisst, wer ihr seid. Ihr wisst, wer ihr seid. Ihr wisst, wer ihr seid, wenn ihr das
00:35:00: hört. Liebe Grüße, wie man so sagt im Podcast. Ich glaube, inhaltlich müssen wir, glaube ich,
00:35:04: auch nicht so, es gab einen Workshopsformat. Also es war keine klassische Konferenz im Sinne
00:35:07: von, es gab eine Bühne und Leute reden runter, sondern es gab verschiedene Workshops zu verschiedensten
00:35:12: Themen. Ich glaube, man kann sich das auf der Webseite Mediamenis-Lebde auch noch anschauen,
00:35:16: wenn man mal nachgucken möchte, was die Themen waren. Die Bilder sind inzwischen auch schon online,
00:35:22: wenn ihr noch ein bisschen FOMO haben wollt. Musst fairerweise sagen, es gab trotzdem eine Bühne von
00:35:26: der Leute, die untergeredet haben. Aber das waren mehr so Inputs und so Zwischensachen. Ich glaube,
00:35:31: der Kern war schon das aktive und das Mitarbeit. Und das, wo wir da wirklich am kompetensten
00:35:35: darüber reden können, ist, glaube ich, der Workshop, den wir gegeben haben mit einer sehr coolen Gruppe,
00:35:39: Chat-in-house-Rules. Also auch nicht erzählen, wer da drin war oder so. Aber wir haben noch mal so
00:35:45: ein bisschen den State of Innovation Report vorgestellt, den wir hier auch schon im Podcast
00:35:48: besprochen haben, den es auch immer noch auf der Medialabseite gibt. Ich packe ihn noch mal in
00:35:51: die Show Notes und ja, ein paar interessante Sachen, die da einfach drin vorkamen. Zum einen fand
00:35:57: ich super, wie gesagt, dieser Punkt, der ökologischer Impact von KI, der da angesprochen wurde, den ich
00:36:02: vorhin tatsächlich auch nicht so auf dem Schirm hatte. Gleichzeitig aber auch interessant. Wir haben
00:36:06: uns da sehr skeptisch hingestellt. Also wir hatten KI-Teil, der ja auch in dem State of Innovation
00:36:10: Report drin ist und haben so ein bisschen, haben wir gesagt, okay, hier, wir sind die Skeptiker,
00:36:13: wir sagen jetzt mal, was wir kritisch sehen und haben dann aber auch explizit dazu eingeladen,
00:36:17: uns zu widersprechen. Und das ist aber auch passiert. Also ich glaube, man kann irgendwie sagen,
00:36:21: von einer Gruppe, ich sage mal sicher nicht repräsentativ für die Medienbranche, aber doch
00:36:25: mit vielen Praktikerinnen und Praktikern, die da drin saßen, ja, wie hast du das wahrgenommen?
00:36:30: Also ich glaube so ganz skeptisch wie wir waren sie nicht. Ich hatte eine Ahnung,
00:36:34: einig hat ein gutes Pokerface. Deswegen ist es schwer sagen können, was verfernt ist. Ich
00:36:38: glaube, das ist sicher teil. Pokerface im Sinne von, die haben sich gedacht, wir reden Unsinn und
00:36:42: wollten es nicht sagen oder? Das oder Stille Zustimmung, sie wollten es nicht öffentlich sagen.
00:36:46: Okay. Nee, ich glaube tatsächlich, dass wir definitiv, ja, wir sind doch, wir sind glaube
00:36:53: ich kritischer unterwegs an einigen Stellen, an vielen Stellen als ein Großteil des Medien-
00:37:00: Ökosystems, was auch vollfair ist. So, wir können ja auch etwas auf der Seitenlinie stehen und
00:37:05: entspannt runter quatschen und unsere Meinungen haben, ist trotzdem ganz gut so ein bisschen
00:37:11: zum Realitätscheck zu haben. Heißt nicht, dass unsere Meinung falsch ist im Gegenteil? Ich
00:37:15: bin immer noch schwer davon überzeugt, wir liegen komplett richtig. Mehr denn je. Nein, aber ich
00:37:21: glaube, es war gut, es war gut, das zu diskutieren, dass wir gute Chancen haben, da auch unterschiedliche
00:37:24: Meinungen zu hören. Und ich glaube, das ist schon interessant. Da ist ein empfundener Leidensdruck
00:37:29: sehr hoch. Deswegen kann ihr als sehr relevant auch empfunden wird und deswegen da auf viel
00:37:34: gerade rein investiert wird, ohne da jetzt über Gründe zu spekulieren. Das ist sicher auch was,
00:37:39: was ich, ich nehme es mal, ich bin ein bisschen Unterschätzer an der Stelle, wo es auch gute
00:37:43: so eine Gegenmeinung einfach zu haben. Ich meine, wir werden es einfach sehen, wie sich es weiter
00:37:48: entwickelt an der Stelle. Ich meine, wir beide haben, wie gesagt, den großen Luxus, da jetzt keine
00:37:53: unternehmerischen Entscheidungen auf der Basis fällen zu müssen, sondern wir dürfen hier in
00:37:57: den Mikro quatschen und einen Report schreiben und haben den Luxus einfach nur eine Meinung zu haben.
00:38:03: Und die hat ja, Meinung hat ja bekanntlich jeder. Ein zweiter Punkt, weil du es gerade auch gesagt
00:38:10: hast, mit Business Entscheidungen zu treffen, vielleicht auch noch ohne das jetzt kommen,
00:38:13: ich glaube, wir müssen den Workshop nicht komplett nach erzählen. Aber ein Punkt, den ich noch sehr
00:38:17: spannend fand, weil das ja auch so ein bisschen das Kernthema von dem Report war, von den Hörern
00:38:22: und Hörern, welchen noch nicht gelesen hat, es geht viel auch um Strategie. Wer darf strategische
00:38:27: Entscheidungen treffen? Wer trefft Business Entscheidungen? Welchen Stellen oder welchen
00:38:32: Hierarchie-Ebenen in den Medienunternehmen kommen diese Entscheidungen wie an? Und was ich super
00:38:37: spannend fand, es ging ja an einer Stelle im Report geht es darum, dass sich wenig überraschend
00:38:42: Geschäftsführerinnen und Geschäftsführer, Sea Level stärker mit Geschäftsmodellen auseinandersetzen,
00:38:47: als dass, ich sag mal, die Mannschaft darunter tut. Und wir haben dann einmal rumgefragt, durften
00:38:55: die Leute sich melden. Wer hat denn das Gefühl, dass bei euch die Business-Strategie oder das
00:39:00: Geschäftsmodell gut kommuniziert wurde, dass ihr das gut versteht? Ich glaube, es hat sich niemand
00:39:05: gemeldet von 27 Medienprofis im Raum. Und ich glaube, da sind wir irgendwie was auf der Spur und
00:39:12: ich glaube, das ist was, was wir als Media Lab und auch wir so als in unseren Köpfen ein bisschen
00:39:17: nochmal weiter verfolgen können, weiter drauf rumdenken können, so dieses interne Kommunikationsthema.
00:39:22: Und wie kommuniziert man eine Strategie und wie schafft man Alignment zu einer Strategie? Wie
00:39:27: kommuniziert man diese Art von Entscheidungen? Weil auch das war ja ein Ergebnis des Reports,
00:39:32: diese Entscheidungen lieben beim Management, die werden im Management getroffen. Das sind die
00:39:35: Macht haben in den Organisationen. Aber wie verbessert man da die Kommunikation und wie
00:39:40: schafft man es, dass da alle an einem Strang ziehen und dass eben das Geschäftsmodell nicht nur was
00:39:46: ist, was im Elfenbeinturm, im Ziel-Level entschieden wird, wo sich dann alle anderen daran halten
00:39:50: müssen, sondern dass alle auch wissen, wofür sie arbeiten und warum Entscheidungen so getroffen
00:39:54: werden, was wirklich nicht so wahnsinnig gut zu funktionieren scheint in der großen Breite
00:39:59: von verschiedenen Medienunternehmen, die da drin saßen? Ja, definitiv. Ich glaube,
00:40:03: es ist auch ein Sofern interessant, weil ich meine, das spricht ja dafür,
00:40:06: ich meine, wer immer dieses Kooperationsprogramm mit dem Journalismus Lab NRW, der Media Masterclass,
00:40:11: die ja auf Führungskräfte auch getrimmt ist, die ja einige dieser Themen hier auch
00:40:15: ekepsiert anspricht, wo ich sagen würde, Bestätigung, das ist der richtige Schritt,
00:40:20: das ist was, was gebraucht wird. Gleich sind natürlich die Frage. Okay, was ist so das Angebot
00:40:25: jetzt für die Mannschaft, wie du es genannt hast? Media Business Model Literacy oder Mediengeschäft
00:40:32: und Elkompetenz aufzubauen. Ja, vollbrechliche Frage an der Stelle vielleicht auch, hey,
00:40:38: wenn ihr Ideen habt, jederzeit gerne. Oder wenn jemand zuhört, der sagen würde, bei uns funktioniert,
00:40:43: weil das bei unserer Frage gibt es bei euch, gibt es hier in dieser Runde jemanden, bei dem das
00:40:47: funktioniert, bei dem ihr das Gefühl habt, alle Seiten sind da gut informiert und da gab es
00:40:50: Nullen. Wenn ihr jetzt das Gefühl habt, bei euch funktioniert das, meldet euch bitte und sagt
00:40:54: uns, wie ihr es macht, weil ich glaube, wenn das bei euch klappt, seid ihr was auf der Spur,
00:40:59: was echt wichtig ist. Ich denke auch, das ist denke ich auch eine Forschungsfrage,
00:41:01: ich nenne es immer Forschungsfrage, das ist ein cooler, das ist eine Forschungsfrage,
00:41:04: die wir so ein bisschen nachgehen werden jetzt denke ich das nächste halbe Jahr, weil das ein
00:41:08: Riesenpenpoint ist. Auf jeden Fall. Gut, das soweit, genau, du hast schon gesagt, Fotos sind
00:41:14: online vom Innovation Festival, das Essen war auch sehr gut. Also ein guten CTA am Ende,
00:41:19: was will man mehr? Also nur der Hinweis wird es nächstes Jahr wiedergeben,
00:41:23: die Tickets rechtzeitig, seid auf der Webseite, abonniert unseren Newsletter und
00:41:29: da gibt es die ganzen Planks, dass ihr das mitbekommt, wenn das wieder stattfindet, das war
00:41:32: sehr schön und ja, auch nochmal liebe Grüße, wir haben den Podcast auch geplankt, noch spontan
00:41:38: am Schluss, also falls jetzt jemand zuhört, der im Workshop saß, liebe Grüße, toll, dass ihr da wart.
00:41:42: Und ja, ich glaube, dann sind wir durch, wir hatten am Anfang, ich muss sagen im Vorgespräch gesagt,
00:41:48: okay, vielleicht machen wir mal eine kürzere Folge, ich glaube, es sind wir doch wieder so bei 50
00:41:51: Minuten. Ja, wir hören uns einfach gerne reden. Ja, und vielleicht gibt es ja auch andere,
00:41:55: die uns auch gerne reden hören und die bleiben dann dran und der Rest hat schon längst ausgeschaltet,
00:42:00: aber im nächsten Monat versuchen wir es wieder, würde ich sagen. Und ja, alle, es ist jetzt erst mal
00:42:07: auch Urlaubszeit für viele, also ich hatte schon gesagt, ich bin jetzt erst mal im Urlaub, viele
00:42:10: andere vielleicht auch, schönen Sommer, sag ich mal, oder jetzt den schönen Monat, bis wir uns
00:42:15: wieder hören. Wir machen keine richtige Sommerpause, also es wird auch im Juli eine Folge geben.
00:42:18: Kletz stellen wir uns gegenseitig Pull-Actülen vor. Können wir gerne machen, ich weiß nicht,
00:42:22: ob das so wahnsinnig interessant ist für die Zuhörerinnen und Hörer, weil wie gesagt,
00:42:24: ich lese ja nur Sci-Fi-Trash am Pool eigentlich. Also wir können gerne mal eine Folge nur über
00:42:28: das Warhammer Universum reden, aber ich weiß nicht, ob uns jemand zuhört. Wenn es den Wunsch gibt,
00:42:32: meldet euch doch einfach. Reverse Podcast-Stressige, wir leben so lange, bis Leute uns alle
00:42:38: deaboniert war hatten. Ja, also ich meine, ich kann problemlos mehrere Stunden über dieses Thema
00:42:42: auch podcast füllen, gar kein Problem. Vielen Dank, dass ihr wieder dabei wart. Danke Johannes,
00:42:46: für deine Zeit. Ich danke dir. Macht's gut, bleibt innovativ und genießt den Sommer. Bis da!
00:42:52: [Musik]
Neuer Kommentar