OpenAIs Social-Pläne, Knowledge Graphs, KI im Kundenservice

Shownotes

Unser Partner-Podcast This is Media now: https://thisismedianow.podigee.io/

Ed Zitrons Longread zur finanziellen Situation bei OpenAI: https://www.wheresyoured.at/openai-is-a-systemic-risk-to-the-tech-industry-2/

Die Meldung zu OpenAIs Social-Media-Plänen: https://www.theverge.com/openai/648130/openai-social-network-x-competitor

Der KI-Report von Media Lab Bayern und dem AI for Media Network: https://www.media-lab.de/de/research/ai-for-media-report/

Die Foren-Diskussion beim YCombinator zu Cursor: https://news.ycombinator.com/item?id=43683012

Transkript anzeigen

00:00:00: [Musik]

00:00:22: Willkommen zurück beim Medellab-Beyon-Hype-Institut, eure Podcast über Hype und alle seine Umstände und Verbrechen.

00:00:32: Christian, was macht der Hype?

00:00:34: Der Hype denkt darüber nach ein soziales Netzwerk zu starten, glaube ich.

00:00:38: Das sind die neuesten News von OpenAI, dem personifizierten Hype im Moment.

00:00:43: Und ich glaube, wir kommen nicht drumherum, es wird eine sehr AI-lastige Folge schon wieder.

00:00:49: Wir schaffen es einfach nicht, davon loszukommen.

00:00:51: Vielleicht sind wir auch die schlimmsten Hype-Opfer, Johannes.

00:00:56: Wir werden es auch nicht schaffen, dich drüber zu reden.

00:00:59: Ich hatte gerade schon im Vorgespräch gesagt, wir haben unsere Chance verpasst,

00:01:02: zum 1. April eine Folge aufzunehmen, in der wir uns einfach mal über die Druckerpresse unterhalten oder so.

00:01:07: Vielleicht machen wir das nächstes Jahr.

00:01:09: Aber ich freue mich auf jeden Fall, dich zu sehen.

00:01:10: Wir hatten im letzten Monat die letzte Folge, war die Sondervolge vom Innovation Festival,

00:01:15: wo du nicht dabei warst, sondern stattdessen Lukas Schöne vom Podcast "This is Media Now".

00:01:20: An dieser Stelle nochmal eine Hörempfehlung, sowohl für die Folge als auch für den ganzen Podcast.

00:01:24: Da haben wir speziell so ein bisschen über den Audiobereich besprochen und Hypes im Audiobereich,

00:01:29: wo es natürlich auch ein bisschen um KI ging, aber nicht nur.

00:01:32: Aber ja, wir haben einige KI-Themen auf der Liste.

00:01:35: Womit wollen wir anfangen? Wollen wir vielleicht direkt mit OpenAI's Social Network Ankündigung anfangen?

00:01:40: Ja, es ist eine Kerne Ankündigung, muss man dazu sagen.

00:01:42: Also, TheWords hat berichtet, dass es intern anscheinend ein Prototypen gibt,

00:01:47: ein Social Network zu bauen.

00:01:50: Da war ein schönes Zitat im Moment.

00:01:52: "One idea behind the OpenAI social prototype is to have AI help people share better content."

00:01:58: Was sehr witzig ist, wir reden jetzt nicht ob die Qualität von Content, die aus Generatoren aussitzt.

00:02:05: Aber ja, das ist, glaube ich, ein sehr unsubtiler Mittelfinger in Richtung Elon Musk und Elon Musk's X,

00:02:13: ehemals Twitter, was ja von Elon Musk's KI-Spin-off XAI aufgekauft wurde.

00:02:21: Wir reden jetzt nicht darüber, aber ich glaube, das ist alles kompliziert und nervig und anstrengend.

00:02:29: Auf jeden Fall haben wir hier zwei Silicon Valley Milliardäre,

00:02:32: die im Hundegarde und Social Media Schwanz vergleichen, auf die beiden Stellen.

00:02:36: Wobei ich da einstrengen würde, du hast es gerade schon gesagt, Mittelfinger Richtung Elon Musk.

00:02:40: Ich halte das eher für ein Testballon.

00:02:42: Ich kann mir nicht vorstellen, dass dieses soziale Netzwerk jemals kommt.

00:02:47: Ich glaube, das ist so ein bisschen Säbelrasseln und so ein bisschen Richtung Elon Musk.

00:02:51: Hey, hör mal auf zu behaupten, dass Softbank die Milliarden nicht hat, die sie uns versprochen haben,

00:02:55: sondern für Projekts Stargate,

00:02:58: sondern sonst am Ende machen wir ein eigenes soziales Netzwerk auf und senken den Wert von deinem noch weiter.

00:03:05: Ich glaube eher, dass es in dieser Richtung geht, insofern Schwanz vergleich wahrscheinlich schon richtig.

00:03:11: Ich kann mir nicht vorstellen, dass das jemals kommt.

00:03:15: Ich begründe das vergleich, warum ich das so sehe.

00:03:18: Ich habe aber tatsächlich auch noch einen anderen Gedanken dazu.

00:03:21: Beziehungsweise ich stehe auf den Schulterpunkt Giganten.

00:03:24: Ich habe noch eine andere Meinung dazu gelesen, die ich gerne noch vorstellen würde.

00:03:27: Erst mal, was The Virtue auch schreibt und was der Gedanke dahinter ist,

00:03:32: also share better content, bla bla.

00:03:34: Aber das ist ja sehr stark auch auf dem Bildgenerator

00:03:38: passieren soll oder sehr stark mit dem Bildgenerator verzahnt sein soll,

00:03:41: weil offenbar Sam Orton ein Beindruck davon war, wie Grog auf Twitter integriert ist, also Grog die Twitter-AI

00:03:48: und wie die Leuten hilft, da schnell irgendwelche Memes zu teilen, ist, glaube ich, der Kern der Aussage.

00:03:55: Und ich würde da einmal die These aufstellen.

00:03:59: Ich glaube, das letzte, was OpenAI gerade wollen kann,

00:04:04: ist, dass mehr Leute kostenlos ihren Bildgenerator benutzen.

00:04:08: Ich verweise da auf den aktuellsten Longread von Ed Citron.

00:04:12: Ich weiß jetzt die Tänin oft.

00:04:13: Ich weiß auch, in welchen Probleme es mit Ed Citron gibt,

00:04:16: vor allen Dingen, dass er Borderline Unreadable ist manchmal

00:04:18: und ich wünsche dem Mann einen besseren Editor.

00:04:20: Aber er hat einen Longread beschrieben, in dem er sehr, sehr genau auflistet,

00:04:26: was die finanziellen Probleme von OpenAI tatsächlich sind,

00:04:28: auch was mit der Finanzierungsrunde.

00:04:30: Ja, sie haben gerade 40 Milliarden vorgeblich eingesammelt, die größte Finanzierungsrunde für ein Start-up jemals.

00:04:36: Das Ganze kommt damit ein paar Problemen.

00:04:39: Zum einen, dass der Hauptgeldgeber Softbank eben das Geld selber gar nicht hat,

00:04:44: sondern sich das Geld auch leihen muss bzw. weitere Investoren dafür finden muss.

00:04:48: Gleichzeitig aber interne Regeln haben, die ihnen vorschreiben, wie viele Schulden sie machen dürfen.

00:04:54: Zum anderen auch, dass Teile dieser 40 Milliarden, also ganze 10 Milliarden von diesen 40 Milliarden,

00:05:01: sind davon abhängig, dass OpenAI bis Ende 2026 schafft,

00:05:04: von einer Non-profit-Firma zu einer For-profit-Firma umgewandelt zu werden,

00:05:09: was dann komplett außerhalb meiner Expertise ist, was aber scheinbar gar nicht so einfach ist.

00:05:13: Und das Ganze führt dann dazu, dass OpenAI ja jetzt schon an Kapazitätsgrenzen stößt,

00:05:19: zumindest wenn man den Tweets glaubt von Sam Ordmann, was sowohl die Nutzerzahlen angeht,

00:05:25: oder die vermischen ja gerne Nutzerzahlen mit Sign-ups.

00:05:28: Also wir alle wissen, dass nur, weil 500 Millionen Menschen sich da angemeldet haben,

00:05:32: heißt das nicht, dass sie 5 Millionen regelmäßige Nutzer*innen haben.

00:05:35: Aber offenbar stoßen sie an Kapazitätsgrenzen, was die Rechenleistung für den Bildgenerator angeht.

00:05:42: Und es scheint nicht besonders realistisch, dass sie diese Kapazitätsprobleme in unmittelbarer Zukunft werden lösen können,

00:05:48: wenn überhaupt, einfach weil sie Geldprobleme haben und weil natürlich Rechenzentren nicht einfach so vom Himmel fallen

00:05:54: und sich auch nicht innerhalb von wenigen Tagen materialisieren lassen.

00:05:57: Weil ich verlinke den ganzen Artikel unten in den Show-Notes, es ist wirklich ein "an long read", aber er lohnt sich.

00:06:04: Und vor allen Dingen darf man auch nicht vergessen, dass OpenAI mit jeder einzelnen Nutzung Verlust macht.

00:06:10: Selbst mit dem 200 Dollar per month subscription Tier, das sie inzwischen haben,

00:06:15: verlieren sie Geld, weil die Leute, die bereits sind 200 Dollar im Monat für OpenAI zu bezahlen,

00:06:20: das natürlich auch so intensiv nutzen, dass sie viel mehr Kosten verursachen, als mit diesen 200 Dollar abgedeckt werden.

00:06:27: Und AdSittion nennt eine Zahl, dass ich glaube für jeden Dollar, den OpenAI ausgibt, verlieren sie 2 Dollar.

00:06:35: Krass.

00:06:36: So. Und jetzt kann man im Detail vielleicht kritisieren, wie AdSittion zu seinen Zahlen kommt.

00:06:41: Also ein paar Stellen bin ich mir nicht so ganz sicher, ob seine Rechnung da immer so 100%ig korrekt ist.

00:06:47: Aber the point being ist, ich kann mir nicht vorstellen, dass OpenAI gerade ein finanzielles Gesteiger des Interesses daran haben kann,

00:06:54: dass noch mehr Leute für noch weniger Geld noch mehr Bilder generieren.

00:06:59: Und deshalb glaube ich tatsächlich, dass da eine Nebelkerze ist.

00:07:03: Ich kann mir nicht vorstellen, dass unter den aktuellen Bedingungen, die tatsächlich ein Netzwerk starten,

00:07:07: und dass genau darauf basiert, nämlich noch mehr Leute produzieren, noch günstiger, noch mehr Anfragen an die Bildgenervierung.

00:07:15: Ah, ja. Diese Industrie ist einfach inherent komisch, ehrlicherweise.

00:07:24: Also das ist die Sache, die mich immer wieder irritiert und auch mit OpenAI irritiert.

00:07:29: Das ist ein sehr komisches Modell, um Fortschritt zu produzieren.

00:07:35: Ich meine finanziell, weil es da geht, weil er längst über den Gesamtbudget von Apollo.

00:07:42: Du meinst die Mondmission?

00:07:44: Nicht nur die Mondmission, Gesamt Apollo.

00:07:48: Also nicht nur der Flug zum Mond, sondern alle Flüge davor und alle Flüge danach im Rahmen des Apollo-Projekts.

00:07:56: Wobei man da ja sagen muss, dass Projekt Stargeld effektiv noch nicht existiert.

00:07:59: Genau, es existiert nicht. Es ist eine Zahl auf einem Papier.

00:08:02: Aber wenn es existieren würde, wäre das also teurer als die gesamten Apollo-Missionen.

00:08:07: Ja, ja. Anyway.

00:08:10: Ich möchte vielleicht noch einen zweiten Punkt, das ich gerade eben so ein bisschen angeteasert hatte, aus dem aktuellen garbage day.

00:08:16: Also Ryan Broderick, der ja, nein, einmal noch, immer noch einer der klügsten und analytischsten Internet- und Internet-Kultur-Analysten ist, den wir gerade haben.

00:08:26: Der, ich sag mal, unsere Skepsis gegenüber KI nicht so ganz teilt, was ja fair enough ist.

00:08:32: Und er tatsächlich, da sieht okay, vielleicht ist das ein soziales Netzwerk, also der, der, der Value von so einem sehr, sehr stark GenAI gestützten Netzwerk könnte natürlich weniger auch in der Content-Produktion, also vielmehr in der Content-Kuration liegen.

00:08:46: Also so ein bisschen eine bessere Art durch den ganzen Morass durchzufiltern und Sachen zu finden, die tatsächlich nützlich sind.

00:08:54: Was auf der einen Seite vielleicht stimmt, was auf der anderen Seite aber natürlich auch nur dann eine sehr schrittweise Verbesserung von dem ist, was ja Empfehlungsalgerittenen bisher ohnehin schon versuchen.

00:09:05: Und wo sich ja relativ deutlich zeigt, dass sie ja gerade nicht nach Qualität oder Relevanz sortieren, sondern nach den Metriken, die halt den Plattformen Betreibenden nützen.

00:09:13: Ja, total. Also wollte ich auch gerade sagen so, dass klingt erstmal cool und nett und ja klar KI kann personalisieren.

00:09:20: Das ist ja auch so ein, so eine Narrativ, das man ja auch gerne im Journalismus nutzt und hört.

00:09:27: Facebook setzt ein Jahrzehnte-Machine Learning Algorithmen an.

00:09:29: Ein TikTok ist ein Wandel in der Maschinen Learning Algorithmus, der tut nichts anderes als Personalisieren und Inhalte entsprechend ausspricht.

00:09:36: Ich glaube, der Punkt ist halt einfach der, ich kann Relevanz nicht messen. Geht nicht.

00:09:40: Das ist ein innerend unmesbbarer Wert. Ich kann nur Nährungen oder Annäherungen von Relevanz versuchen zu messen, indem ich sage,

00:09:49: "Kli bleibt die Person länger auf diesem Stück mehr Inhalt, liked die den, kommentiert die drunter, teilt die die vielleicht auch."

00:09:57: Also ich kann nur Signale drum herumnehmen und dann mich nähern an das Thema Relevanz.

00:10:01: Das heißt aber nicht, dass es tatsächlich relevant ist oder relevante Content ist für die Person.

00:10:07: Das kann einfach nur sein, dass sie das Handy hat liegen lassen, während sie auf der Toilette ist.

00:10:11: Das kann sein, dass sie den Artikel oder den Post weitergesendet hat, weil eine Person gefragt hat, dass man darauf die Augen offen hält danach

00:10:19: oder man hat sich vertippt oder das Kind hatte mal das Handy in der Hand.

00:10:23: Also all die Signale messen ja nicht relevant.

00:10:26: So, ich kann mich immer nur nähern und habe immer eine gewisse Unschärfe drin.

00:10:32: Deswegen, und dann ist ja das Näsothema, wo wir auch sagen, diese ganzen Algorithmen sind ja dann optimiert darauf,

00:10:38: im socialen Netzwerk zu optimieren. Das ist der Outcome.

00:10:43: Total, das ist das, was ich meinte. Es geht nicht darum, um Qualität oder Relevanz im Endeffekt, sondern darum,

00:10:48: wie wirst du am wertvollsten für die Plattform selber.

00:10:52: Ich würde dir das Relevanz Thema gerne, würde dir gerne ein bisschen widersprechen, glaube ich,

00:10:57: weil ja, ich sage mal so, die Fälle, die du beschrieben hast, gibt es garantiert, das würde dir jetzt mal für Edge Cases halten.

00:11:02: Also ich glaube nicht, dass die meisten Empfehlungen daher kommen, dass Leute ihr Handy, keine Ahnung, dass ihre Katze übers Handy gelaufen ist oder so.

00:11:10: Das glaube ich nicht. Ich würde es eher so sagen, ich glaube schon, also ich sage mal, was das auf keinen Fall messen kann, ist positive Relevanz.

00:11:18: Also was die auf gar keinen Fall hinkriegen ist zu unterscheiden, hat jetzt jemand da kommentiert, weil er diesen Inhalt gut findet

00:11:24: und mehr von diesem Inhalt sehen will oder hat der kommentiert, um sich drüber lustig zu machen oder um Counter Speech zu betreiben oder aus welchem anderen Grund auch immer.

00:11:32: Ich glaube, was sie auf jeden Fall auch nicht können, ist irgendeine Form von normativer gesellschaftlicher Relevanz.

00:11:38: Und so was ist denn in Anführungszeiten wirklich wichtig?

00:11:42: Was sie ja schon sehr gut können, also klar, das ist ja auch irgendwie die einfachste Aufgabe, sie kriegen es sehr gut hin, dir Content vorzuspielen,

00:11:50: der dem Content ähnlich ist, den du bereits konsumierst.

00:11:54: Definitiv.

00:11:55: Und das ist, jetzt könnte man ergehen, das ist ja eine Art von Relevanz.

00:11:59: Ja, nein, das ist halt...

00:12:01: Eine Datafahrer sehr, sehr individuellen Ebene, also das ist halt sehr individuelle Relevanz.

00:12:06: Und jetzt könnte man, das ist jetzt, glaube ich, ein anderes Gesellen, man könnte diskutieren, gibt es eine individuelle Relevanz überhaupt oder ist Relevanz immer irgendwie,

00:12:12: hat das immer diesen gesellschaftlichen Aspekt, keine Ahnung, aber ich glaube diese Unterscheidung braucht es schon.

00:12:18: Und weil das ist ja auch ein bisschen zu einfach zu sagen, sie kriegen das gar nicht hin.

00:12:22: Nee, das sage ich nicht, sie kriegen das gar nicht hin, aber nur das Relevanz ist ein Wort, in dem man sich versteckt und man man eigentlich nur Nutzungsdauer.

00:12:30: Oder Interaktion, Engagement, Auseinandersetzung mit Aufmerksamkeit?

00:12:35: Das, ja, Nutzungsdauer. Am Ende sehe ich ja, dass die Person maximal viele Anzeigen sehen kann, während sie Zeit verbringt in diesem Netzwerk.

00:12:42: Das heißt, um das da hinzukommen, muss sich Nutzungsdauer optimieren, dann versuche ich also, Inhalte auszuspielen, die die Personen im Netzwerk halten.

00:12:50: Denn es hat Relevanz ein schönes Schlagwort, das man da so ein bisschen bringt, aber dann nehmen wir uns sich natürlich auch verstecken kann.

00:12:58: Genau, vielleicht ist die Frage nicht Relevanz ja oder nein, sondern Relevanz für wen?

00:13:01: Ja, ich glaube, das ist es bessere. Und ich muss mir auch da sagen, wenn wir über Personalisierung sprechen,

00:13:06: dass auch das immer, was ich finde, in Gesprächen mit dem Kontext Journalismus auftraufen, dass ich auch sage,

00:13:11: Personalisierst nur dann, wenn du den Leuten Ernsthaftkontrolle über diese Form von Personalisierung gibst.

00:13:16: Dann ist es echter Personalisierung. Und gerade in Facebook, gerade in TikTok, verstecken gerne die Funktionalitäten,

00:13:23: Sachen nicht sehen zu rollen, hinter drei, vier Klicks, oder wenn ich sagen will, okay, welche Themen werden eigentlich für mich rausgesucht,

00:13:31: dann muss ich drei Menüpunkte tief gehen, um die überhaupt erst finden zu können.

00:13:35: Ich sehe das jedes Mal, diesen Menüpunkt zu löschen, auch wieder zwei Klicks. Also da zum Thema so Dark Matter und Friction.

00:13:42: Das ist so, ja.

00:13:45: Ja, das führt jetzt ein bisschen zu weit, weil eigentlich sind wir gerade an einem sehr schönen Punkt.

00:13:48: Ich weiß.

00:13:49: Um von der Personalisierung auf ein anderes Thema zu gehen, über das wir auch noch sprechen wollten im KI-Kontext, nämlich über Content-Pools.

00:13:55: Aber vielleicht doch ein Punkt dazu, auch wieder eine kleine Einschränkung, weil ich bin grundsätzlich voll bei dir.

00:14:01: Ich würde auch immer Kontrolle und Transparenz und eigene Entscheidungen bevorzugen.

00:14:07: Ich glaube nur, das ist nicht das Mediennutzungsverhalten der Mehrheit.

00:14:13: Also weil ich glaube, das zeigt mir, es gibt ja theoretisch die Möglichkeit, du kannst dir nach wie vor deinen Content-Mix,

00:14:18: ja, das ganze Internet existiert, du kannst es dir ja relativ gut selber zusammenstellen.

00:14:22: Die meisten Leuten wollen diese Arbeit nicht machen?

00:14:25: Sie vermeiden deine Nachrichten. Das ist der Punkt.

00:14:28: Ich rede gar nicht so sehr im Nachrichten. Es geht mir um Content generell.

00:14:30: Ja, oder sie vermeiden die Inhalte.

00:14:32: Du machst das ja trotzdem. Nur du entscheidest dann, du benutzt die Plattform nicht, du benutzt bestimmte Suchbegriffe nicht.

00:14:38: Du vermeidest dann, also du switchst vielleicht auch schneller weiter, was dann auch wieder ein Signal ist.

00:14:43: Du machst die Arbeit schon. Sie ist noch nicht weniger aktiv, weil einfach die Funktionalität nicht da ist.

00:14:48: Nur für mich zum Verständnis, du sagst also quasi, wenn Instagram ein super elaboriertes, detailliertes Tool oder Möglichkeiten hätte,

00:14:56: seine Content-Präferenzen einzustellen, würden Leute das auch verstärkt nutzen und nicht einfach sagen,

00:15:01: okay, also ich nicht auf den Algorithmen muss ich stark verlassen.

00:15:03: Ich denke passiv und aktive Art von Interaktion definitiv beides.

00:15:08: Und ich kann das auch anders bauen. Aber das Interesse an der Stelle ist ja gar nicht so sehr zu sagen,

00:15:13: dass man sich perfekt personalisierte Inhalte für dich befindet, die Inhalte haben, die so optimiert sind, dass sie dich im Netzwerk halten.

00:15:19: Ja, ja klar. Ich bin mir gerade jetzt rein hypothetisch von einer Welt, in der soziale Netzwerke das machen wollen würden.

00:15:25: Es ist auch wirklich jetzt sehr detaillierte Diskussion, die wir uns hier verlieren.

00:15:29: Da könnte man sich eine Bachelorarbeit drüber freuen oder eine Masterarbeit.

00:15:32: Die Chance hast du ja vielleicht bald.

00:15:34: Die habe ich noch, ja.

00:15:35: Dann lass uns zum nächsten Thema gehen, weil es so schön, wie ich gerade schon meinte, zu diesem Personalisierungsthema passt,

00:15:40: nämlich zu dem Thema Content Pool.

00:15:42: Vor allem auch was wie David Caswell das beschreibt.

00:15:48: Ich glaube, der ist wahrscheinlich vielen bekannt.

00:15:50: Wir hatten gerade ein großes Interview mit ihm in unserem Kali-Report, den wir zusammen mit dem AI vor Media Network des Bayerischen Rundfunks gemacht haben.

00:15:58: Er ist auch sehr aktiv auf LinkedIn.

00:15:59: Ich habe viele Interviews mit ihm gelesen.

00:16:01: In letzter Zeit ist, glaube ich, primär Berater, war aber auch für die BBC tätig und so weiter.

00:16:04: Es geht mir gar nicht so sehen mit ihm als Person, sondern es geht mir um, dass er in meinem Netzwerk

00:16:11: irgendwie wortstärkste Vertreter von dieser Idee ist, hey, was wir mit KI machen können,

00:16:15: ist, dass sich die Aufgabe von Journalismus dahin ändert, einen Content Pool zu erschaffen,

00:16:20: in dem Fakten ablegen.

00:16:22: Und dann kann quasi KI dafür sorgen, dass jede Nutzerin, jeder Nutzer dann faktenbasierte Inhalt bekommt,

00:16:30: in genau dem Format, in genau der Form, die er oder sie sich wünscht.

00:16:34: Also, hey, ich habe hier den Content Pool von MediumX und ich gehe in eine Chat-Oberfläche und sage, hey,

00:16:41: erzähl mir doch mal bitte, ich würde mir gerne ein Podcast anhören, was es mit diesen ganzen Tarifenzellen bei Trump auf sich hat.

00:16:49: Und dann zieht sich die KI eben aus diesem Content Pool die Fakten und produziert sie dann als Podcast für mich

00:16:54: und jemand, der es als Long-Read haben will, kriegt es als Long-Read und so weiter und so fort.

00:16:57: Und ich sehe da ein paar Probleme mit, vorsichtig gesagt.

00:17:02: Und genau, deswegen wollte ich mal mit dir darüber reden.

00:17:05: Du kennst den Begriff, oder? Du bist im Bilde.

00:17:09: Ich kenne den Begriff, ich habe den Begriff inzwischen, glaube ich, 4-mal gelayoutet,

00:17:13: weil ich das Design für diesen Report gemacht habe, das was ich habe, das Ding gelesen, inhaliert und in Pixel gepackt.

00:17:21: Es sieht sehr gut aus, muss man an dieser Stelle auch sagen.

00:17:24: Danke, danke, danke an der Stelle, man kann ihn bei uns runterladen, kostet nur eine E-Mail-Adresse.

00:17:29: Ja, ich war mir auch nicht so 100% sicher, ich glaube, ich lese ihn weniger als du ihn kennst.

00:17:34: Ich habe nur das interviewer gesehen und das interviewer auch durchgelesen.

00:17:38: Ich glaube, auch da sind ein paar Annahmen drin, die, ich sage es mal vorsichtig, "challengen" würde an der Stelle.

00:17:45: Das muss man vielleicht einmal klarstellen, das ist auch so, ich will da gar nicht so dagegen sein.

00:17:51: Ich habe aber ein paar Fragen daran, die ich bisher von Ihnen noch nicht beantwortet gesehen habe.

00:17:57: Was nicht heißt, dass es nicht gemacht hat.

00:17:59: Meldet euch gerne, wenn ihr dazu was habt, das interessiert mich.

00:18:03: Aber tatsächlich, auch da wieder kann man, glaube ich, erstmal sehr praktisch rangehen und irgendwie sehr philosophisch rangehen.

00:18:09: Praktisch die Frage, was macht das mit Marken, was macht das mit Medienmarken?

00:18:14: Im Interview sprichte davon, dass sich öffentlich-rechtliche Medien zusammentun sollten,

00:18:18: um einen öffentlich-rechtlichen Contentpool zu schaffen.

00:18:21: Was auf der einen Seite total Sinn macht, weil die sollten, die können kooperieren, die haben keine Konkurrenz im Markt, die sollten kooperieren, das tun sie ja auch.

00:18:29: Jetzt schon, da macht die Idee irgendwo Sinn.

00:18:32: Auf der anderen Seite stellt sich natürlich im nächsten Schritt die Frage, wofür braucht man denn dann überhaupt noch unterschiedliche Stationen, Sender?

00:18:39: Die Diskussion gibt es ja jetzt schon, ARD und ZDF.

00:18:42: Also wenn das alles in einen Contentpool fließt, welches Branding wird dann eigentlich ausgespielt, wenn ich mir ein Podcast wünsche von diesem gemeinsamen Contentpool.

00:18:51: Und selbst das darf und kann für öffentlich-rechtliche Medien eine zweitragende Frage sein.

00:18:56: Sobald wir dann über private Medien reden, die das machen wollen, ist es keine nachgelagerte Frage mehr.

00:19:02: Wie funktioniert das, wenn die Fakten, in Anführungszeichen alle die gleichen sind und ich lasse es mir von der KI ausspielen,

00:19:09: wo kommt dann noch so was wie Markenbild oder Stimme oder Haltung von einem Medium rein?

00:19:15: Und dann direkt die zweite Frage, Thema Fakten.

00:19:18: Was sind denn eigentlich die Fakten, die da reinkommen?

00:19:21: Und in welcher Form, also keine Ahnung, bei Wissenschaftsnews ist das immer noch relativ

00:19:29: einfach, weil wir uns darauf geeinigt haben, so gesamtgesellschaftlich, die meisten von

00:19:33: uns, dass Wissenschaften eine ziemlich gute Möglichkeit ist, sich so etwas wie Realität

00:19:38: irgendwie anzunähern.

00:19:39: Aber was sind das denn für Fakten, sobald es um, keine Ahnung, Vermögenssteuer geht, pro

00:19:43: Kontra?

00:19:44: Welche Fakten stehen denn dann da drinnen?

00:19:46: Eben, das ist sehr aus der Technik schon die Ebene gedacht, aber ich meine, wir hatten

00:19:50: das Thema ja schon, es gab immer so mehrere Versuche, was wären der Newsartikel auf die

00:19:55: Blockchain packen, um Fake News zu bekämpfen?

00:19:57: Und das klingt für mich sehr nach genauer Thematik, weil du genau in die Problematik

00:20:02: reinläufst so, ah ja, okay, was, wenn ich einen Fehler aus versehen in so was reinpacke?

00:20:08: Wie sehen die Prozesse denn dann aus?

00:20:10: So, was mache ich, wenn ein Fakt überholt ist?

00:20:13: Wer guckt denn da wieder drauf und geht durch den Content Pool drauf und editiert das Ganze?

00:20:18: Also, das ist so der, die Idee ist charmant, würde ich es jetzt mal nennen, aber unklar

00:20:24: und etwas wunderschaf, wie das genau funktionieren soll, wenn ich versuche, aber auch so ein

00:20:28: bisschen die Befürchtung, man versucht da wieder ein eigentlich wirtschaftliches, ein

00:20:34: spezielles Problem durch eine technische Lösung zu ersetzen und zu sagen, na ja, das ist halt

00:20:39: die Zukunft, also müssen wir das jetzt machen.

00:20:41: Ich glaube auch zum Thema Mark, ich glaube so wie ich das verstanden habe, so Mark

00:20:45: hat dann auch, na ja, ist eher nice to have, denn die Idee oder die Grundidee ist ja, dass

00:20:50: ich gar nicht mehr auf einer Nachrichtenseite gehe, sondern ich habe halt meinen privaten

00:20:53: Chatbot und der zieht sich dann die Inhalte.

00:20:56: Das heißt, so, ihr setzt auch die gesamte Nachrichtenoberfläche durch Chat und die

00:21:02: Annahme dahinter ist auch, dass das so das prominente Interface der Zukunft wird, an

00:21:07: der Stelle, woher sein würde so, weiß ich jetzt nicht, ob ich da so 100% durchgehen würde,

00:21:12: ich weiß, woher das kommt und meine Theorie ist mal einfach, man hat etwas zu sehr über

00:21:17: Nachrichtenutzer und Nutzung nachgedacht und geht nur aus Nutzungssituationen ran, die

00:21:23: so einen reinen Neats-Based-Ansatz an Nachrichten haben.

00:21:27: Ich will jetzt eine Information haben, also frage ich meinen Chatbot, das ignorierst halt

00:21:32: natürlich all die anderen Nutzungen von Nachrichten, wie ich vielleicht will mich unterhalten,

00:21:35: vielleicht ein bisschen Zeit trotzschlagen, vielleicht habe ich ja gar keine wirkliche

00:21:38: Frage, vielleicht will ich mich einfach auch nur ganz grob informieren und will gar nicht

00:21:42: so sehr in Interaktion damit eintreten, sondern ich will vielleicht einfach nochmal kurz

00:21:46: drüber scrollen.

00:21:47: Und natürlich kann man hier auch wieder argumentieren, na ja, muss ja nicht und geht ja trotzdem,

00:21:52: aber trotzdem diese Idee mit Chatbots als Nachrichteninterface kommt sehr aus dieser sehr engen Neats-Based-User-Definition.

00:22:02: Wobei ich auch da behaupten würde, wenn man, also ich glaube nicht, wenn man ehrlich

00:22:08: mit Nachrichtennutzer*innen über Nachrichten-Nutzung spricht, dass man dann auf das Bedürfnis kommt,

00:22:14: oh, ich würde mich gerne mit den Nachrichten unterhalten.

00:22:16: Definitiv nicht.

00:22:17: Also ich finde, das sind nochmal zwei Schritte, weil ich kann mir total vorstellen, dass man

00:22:21: nichts finde, wie ich möchte informiert sein, ich möchte mich auf einen Blick informieren,

00:22:26: vielleicht auch ich möchte eine Nachfrage, ich möchte bessere Erklärungen zu Dingen

00:22:30: bekommen, die ich nicht verstehe, ich möchte das irgendwie angepasst auf meinen Wissensstand,

00:22:34: weil diese Dinge glaube ich total und dann ist vielleicht ein Chatbot eine mögliche Lösung,

00:22:40: die Teile dieser Dinge dann abfängt, aber sicher nicht die einzige und vielleicht in

00:22:45: vielen Fällen auch nicht die beste, weil, also das ist jetzt so ein bisschen dieses schnellere

00:22:49: Pferde- und Fort-zugeschriebenes-Tatgeschichte, die man relativ sicher das noch nie im Nutzer

00:22:53: gesagt hat, boh, ich würde mich so gerne mit meiner Zeitung unterhalten.

00:22:56: Also so wirklich als Problem von wegen, ah, ich hätte die Nachricht ja gelesen, wenn ich

00:23:00: mich mit ihr hätte unterhalten können.

00:23:01: Eben.

00:23:02: Das wird sicher nicht passiert sein.

00:23:04: Eben.

00:23:05: Und ich glaube halt auch, und da es ja auch wieder ein Punkt mehr ist, höhlt die Arbeit

00:23:09: eines Journalisten extrem aus.

00:23:11: Da geht es dann auch nicht mehr darum, was der Journalist als relevant findet an den einzelnen

00:23:16: Sachen oder eine Ordnung, ist dann im Grunde komplett raus, denn dann ist die Aufgabe des

00:23:20: Journalisten ja im Grunde nur Fakten in einen Content-Pult zu werfen, wie auch immer der

00:23:25: Aussehen mal.

00:23:26: Was ich dann noch interessant finde, wenn wir zu diesem Thema auch, ich kann mir das

00:23:29: ausspielen lassen, wie ich will, da hatten wir auch in der letzten Folge bei dem Live-Podcast

00:23:34: auf dem Innovation Festival, da hatten wir Gäste auf der Bühne, unter anderem Lukas

00:23:37: Petzmann vom Start-up Article, die genauso Liquid-Content machen, also Content von einer

00:23:42: Medienform, in denen die andere übertragen, mit Hilfe von KI, der zum einen gesagt hat,

00:23:47: dass es relativ gut funktioniert, in den Fällen, in denen sie es nutzen, was ich ihm auch total

00:23:50: glaube, aber der auch ganz eindeutig gesagt hat, es gibt Fälle, von denen lassen wir

00:23:54: einfach die Finger, weil du halt politisch, keine Ahnung, kontroverse News halt schlecht

00:24:01: in die Form einer WhatsApp-Bachricht gießen kannst, ohne dass Dinge verloren gehen.

00:24:07: Genauso gilt das auch für Sachen, glaube ich, wenn ein beliebtes Beispiel ist, wenn

00:24:12: wir sagen, oh, wir können dann Content aus diesem Content-Pult nehmen und die ihn automatisch

00:24:15: in TikTok-Post oder so etwas umwandeln lassen, ich glaube, das ignoriert so ein bisschen,

00:24:20: welche TikTok-Posts gut funktionieren, weil was gut funktioniert auf TikTok, wie in

00:24:23: anderen sozialen Netzwerks, sind zum einen kontroverse Inhalte, zum einen superpersönliche

00:24:28: Inhalte "authentisch", was im Internet-Zeitaliter Yunock bedeutet, es ist ein Gesicht, das

00:24:34: es sagt und keine schwarz-weißen Schrift, sondern es ist halt ein Mensch, der das irgendwie

00:24:39: sagt, das ist ja das, was Authentizität im Internet bedeutet und vor allen Dingen auch

00:24:43: mit Haltung und mit Meinung und mit Einordnung, wie du schon gesagt hast.

00:24:47: Und was macht denn, das macht die KI denn dann, also wenn du den Content-Pult hast und

00:24:52: sagst, okay, was auf TikTok gut funktioniert, mach mir einen guten TikTok-Post, dann ist

00:24:56: es ein TikTok-Post, der irgendwie Meinung, Haltung, Persönlichkeit reinbringt, ja, welche

00:25:00: Persönlichkeit denn?

00:25:01: Ja, ja, ja.

00:25:02: So, ist es dann automatisch immer die Persönlichkeit, die der Person, die die KI nutzt, um auf

00:25:08: den Content-Pult zuzugreifen, gerade am besten passt?

00:25:10: Oder ist es der Medienmarke, die den Content-Pult gebaut hat?

00:25:14: Im besten Persönlichkeit ist es denn dann?

00:25:16: Es ist sehr, sehr platt und das ist ein bisschen Problemeschleifung, mein' ich auch so, aber

00:25:21: ein bisschen, Bistre Rosenweiler ist den "Deview from nowhere" bezeichnet hat, also Journalismus,

00:25:27: der sich selbst komplett rausnimmt, so, der keine Positionierung, keine Ansicht hat,

00:25:31: so nicht immer der Meinung ist neutral und gibt nur Fakten weiter.

00:25:35: Was das im Grunde dazu führt, ist ein bisschen, und das fand ich am schwierigsten, es ist

00:25:43: Journalismus ohne Journalisten.

00:25:45: Und Journalisten selber werden dürfen Input geben, aber nicht ausspielen, dürfen nicht

00:25:51: in Kontakt treten, all das automatisieren wir weg.

00:25:54: Und das ist eine Zukunft, wo ich mir echt nicht sicher bin, ob die in irgendeiner Form

00:26:01: erstrebenswert ist und umso schwieriger finde ich es, dass sie verkauft wird als, na ja,

00:26:05: sie wird halt kommen und wir können dagegen nichts machen.

00:26:08: Was zum Thema, Fidget-Finking und Visionen, und selbst der für eine Profit sein gewesen

00:26:13: alle, das ist nicht der Fall.

00:26:16: So, nur wenn wir davon auch wirklich ausgehen, dass sie tatsächlich kommt, dann gehen wir

00:26:20: auch nicht dagegen und schaffen keinen Alternativen.

00:26:22: Das ist, glaube ich, der Worst Case.

00:26:25: Ich möchte nur kurz einen zweiten Aspekt sagen, bevor wir da weitergehen.

00:26:28: Eine zweite Fehlernahme, inhaltlich an der Modelltechnisch, ist halt auch, dass wenn

00:26:32: ich Sprachmodelle, also Language-Models, nur mit Fakten fütter spucken die auch wieder

00:26:37: Fakten aus, was de facto, ha, de facto, nicht der Fall ist.

00:26:42: Ich habe von der BBC vor ein paar Wochen auch die Studie, da haben sie mehrere Sprachmodelle

00:26:48: getestet, mit journalistischen Artikeln, ich glaube sie haben Zusammenfassungen generiert

00:26:54: und 51 Prozent des Outputs waren irgendeiner vor falsch.

00:26:58: Ja.

00:26:59: Das heißt, selbst wenn ich diesen Content-Pult habe und die Fakten stimmen alle, heißt das

00:27:04: immer noch nicht, dass der Output faktisch korrekt sein wird.

00:27:08: Ja, total.

00:27:10: Da bin ich jetzt ein bisschen außerhalb meines technischen Verständnisses.

00:27:14: Ich habe die Frage Lukas Petzmann auch gestellt in dem Podcast und er meinte, dass sich das

00:27:19: tatsächlich mit den Retrieval Augmented Generation, also mit Ragsystemen, ganz gut in den Griff

00:27:24: kriegen lässt und ich habe keinen Grund, ihm das nicht zu glauben.

00:27:27: Nein.

00:27:28: Verstehst du da mehr von?

00:27:29: Retrieval of Augmentation, just saying for the elderly, die Swiss'n.

00:27:31: Ist im Grunde, ist es ein zweischrittiger Prompting Schritt.

00:27:34: Und zwar, ich lasse erst eine Suchfunktion laufen, überall die Inhalte, die ich habe,

00:27:39: die dann die drei, vier relevantesten raus, pack die mit hinter den Prompt ran und lasse

00:27:46: das als Gesamtkontext durch das Sprachmodell laufen.

00:27:49: Das ist Retrieval of Augmentation.

00:27:51: Ist es nicht auch, dass tatsächlich die Datengrundlage von der sich das LLM dann bedienen darf,

00:27:57: ausschließlich die Datenquellen sind, die du ihm vorgibst?

00:28:00: Ja, genau.

00:28:01: Das ist ja im Grunde das, was Casperl auch sagt.

00:28:03: Er will gerne diesen Node schlafen.

00:28:05: Das ist, ne, genau das.

00:28:07: Genau, ja.

00:28:08: Aber du enderst nix.

00:28:09: Also ja, du gibst den Modell nochmal mehr Kontext und das minimiert, sagen wir mal,

00:28:15: falsch Aussagen.

00:28:16: Es verhindert sich aber nicht.

00:28:18: Sind die Systeme, die in der BBC-Studie, sind die schon auf Rackbasis?

00:28:23: Also, oder sind da noch?

00:28:24: Nee, das war sehr basic.

00:28:25: Aber auch da ist im Grunde der gleichen Schritt passiert.

00:28:27: Du hast ja den Modell den Gesamtartikel gegeben.

00:28:30: Das ist nichts anderes, als was in so einem Rackler auch passiert ist, dass du dem Ding

00:28:33: einfach mehr Kontext mitgibst.

00:28:35: Und der war der gesamte Artikel mit drin im Prom sozusagen.

00:28:40: Auch das funktioniert nicht.

00:28:42: Und das ist ja auch einer der Gründe.

00:28:44: Der Hype um Racks ist deswegen auch so ein bisschen abgeflaut, ist funktioniert zum

00:28:48: Teil und das macht die Antworten besser und spezifischer und es war dann wie freilich, wenn ich so

00:28:52: was wie Softwaredokumentationen durchsuchen will.

00:28:56: Aber das verhindert trotzdem letztendlich keine falsche Aussage.

00:29:00: Okay, lasse ich so stehen, kann ich nicht sinnvoll was zu sagen.

00:29:06: Alles gut.

00:29:07: Nee, nee, nee, dafür machen wir das hier jetzt zu zweit.

00:29:10: Ich würde sagen, lasst uns mit Blick auf die Zeit, zwei Themen, kleine Themen noch, ein

00:29:16: Dauner und eine lustige Sache, machen wir die lustige Sache vielleicht zum Abschluss.

00:29:20: Den Dauner und den Apper zum Schluss.

00:29:22: Genau, obwohl der Apper ganz gut passt zu dem, was du gerade gesagt hast, aber dann kommen

00:29:25: wir einfach gleich nochmal drauf zurück.

00:29:26: Ich würde nämlich gerne noch einmal ganz kurz, und ich weiß, wir sind sauspät dran,

00:29:30: damit es ist jetzt im Endeffekt auch schon wieder vorbei.

00:29:32: Ich würde noch einmal ganz kurz über den Ghibli-Trend sprechen wollen, über die Ghibli-Generierungen.

00:29:37: Und es ist eigentlich alles dazu gesagt.

00:29:41: Ich muss da glaube ich nie mehr so tief rein gehen und irgendwie weiß ich natürlich auch,

00:29:44: dass ich dann irgendwie gerade auch Teil des Problems bin, weil ich jetzt jetzt nochmal drüber

00:29:48: rede, obwohl der Trend eigentlich schon durch ist und jetzt, wir nehmen halt jetzt auf, deswegen

00:29:53: rede ich nochmal drüber.

00:29:54: Ich möchte es auch ganz kurz, ich wollte nur an einer Stelle, bei einem Kollege, den

00:29:57: ich jetzt nicht nenne, von einem nördigen deutschen Online-Medium, der immer darauf

00:30:01: hingewiesen hat, wenn sich Leute über diesen Trend beschwert haben, dass dieses Zitat

00:30:06: von Miyazaki über AIs an Insult to Life Itself, da hat er recht, muss man sagen, das ist in

00:30:12: einem ganz anderen Kontext entstanden, das ist einige Jahre alt, da ging es um, ich glaube,

00:30:17: 3D-Animationen, die ihm gezeigt wurde.

00:30:20: Es ging ihm da speziell auch drum, dass er das Gefühl hatte, dass das ablästisch ist,

00:30:24: dass das Mensch mit Behinderungen ihre Erfahrungen abspricht und sowas.

00:30:29: Und zu diesem Kontext hat er es gesagt, er hat das nicht zu moderner Generei gesagt,

00:30:34: das stimmt, das muss man mal festhalten.

00:30:36: So, großes Arbe danach, und das sage ich jetzt als jemand, der eine sehr enge emotionale

00:30:42: Beziehung zu Stühlen, die ihr Geblieffilmen hat, wenn man diese Filme sich ansieht und

00:30:47: sie auch irgendwie, nur irgendwie auf eine Art Rezipiert, die nicht nur reim ästhetisch

00:30:53: ist, dann kann man nicht auf die Idee kommen, dass Miyazaki uns die Geblieffilmung für

00:30:59: irgendetwas anderes als fürchterlich halten kann.

00:31:01: Also, das ist so offensichtlich, diese Filme sind nicht wahnsinnig subtil.

00:31:05: Und wenn du dir Prinzessin Mononoke angeschaut hast und danach glaubst, dass, Moment mal,

00:31:12: vielleicht meint Miyazaki ja nur diese eine spezielle KI, die er für eine Beleidigung

00:31:16: an das Leben selbst hält und nicht diese Form von KI.

00:31:19: Also, der Schleim in Prinzessin Mononoke, der die Tiere im Wald befällt, oder der Vielfraas,

00:31:26: der in "Spirit of the Way", in "Gerus Raisi in Stabola", in das Badhaus kommt und alles

00:31:29: frisst, bis er platzt, das ist so ein ruchlose Ästhetizismus, dass Leute diese Gebliedinger

00:31:36: haben animieren lassen, obwohl sie offensichtlich nichts von dem gehört haben, was Miyazaki

00:31:41: versucht zu sagen.

00:31:42: Sorry, bin ich zu emotional?

00:31:45: Nein, ich bin ganz bald hier.

00:31:46: Ich glaube, da kann man eine breite Diskussion austreten, dieses Thema so, dass man muss

00:31:50: nicht alles zu Content verflachen.

00:31:52: Und ich glaube, das ist eines der großen Problemen, das ist eines der großen Problemen

00:31:56: von Social Media, dass es keinen Unterschied gibt.

00:31:58: Es ist immer nur Content, es ist immer nur Wasser auf den Mühen des Algorithmus und ich kriege

00:32:03: Likes und ich muss ja was produzieren und dass man da nicht innehält.

00:32:08: Also, ich meine, das ist ja eh schon das Aller das Gleiche machen, die so Generatoren werden

00:32:12: verkauft als "Haha!

00:32:13: Ich kann jetzt unendlich kreativ sein und alle produzieren am gleichen, am Ende der

00:32:18: gleichen Ghibli-Portraits und Actionfiguren."

00:32:22: Das ist, glaube ich, bezeichnend, das an der Stelle.

00:32:25: Ich möchte nur kurz bei dem Zitat anmerken, in diesem Video pitschen die beiden Miyazaki

00:32:33: unter anderem aber auch die Vision, dass sie eine Maschine bauen können, die selbstständig

00:32:38: Szenen malen kann.

00:32:40: Also, selbst wenn sie nicht Gen AI ihm direkt pitschen, pitschen sie ihm aber die Vision

00:32:46: von Gen AI am Ende des Tages.

00:32:48: Fair.

00:32:49: Ich möchte nur sagen, es ist nicht so easy, ich finde es sehr gut, dass sich hier Leute,

00:32:55: was ich sage, das Sub-Tweeting, Sub-Popcast ist, unterstützt sich sehr.

00:33:01: Ich nenne ja keine Namen, es geht ja auch nicht um einzelne Personen.

00:33:04: Ja, ja.

00:33:05: Aber das Argument habe ich auch schon gesehen und das ist auch kein sehr sauberes Argument,

00:33:08: da bin ich ganz bei dir.

00:33:09: Überhaupt nicht.

00:33:10: Das ist ein reines Gottscha, dein Zitat, stimmt nicht.

00:33:13: Was vielleicht auf einer Ebene korrekt ist, auf der anderen halt aber trotzdem nicht.

00:33:18: Also, ich kann mir auch nicht vorstellen, dass Miyazaki sich Open AI als Bildgenerator

00:33:23: und dann denkt, oh ja, damit habe ich kein Problem, alles voll subi.

00:33:26: Diese Leute haben verstanden, was ich ihnen sagen will.

00:33:28: Ja.

00:33:29: Die Kunst, die ich mal in meinem ganzen Leben gewidmet habe.

00:33:34: Genau, weil, ja, ich habe richtig verstanden, es geht darum, dass es schön aussieht.

00:33:38: Gut, dass wir das gekehrt haben.

00:33:42: War das der Dauner oder der Appa?

00:33:44: Das war der Dauner.

00:33:45: Ja, gut.

00:33:46: Tatsächlich.

00:33:47: Der Appa kommt dann jetzt, möchtest du darüber reden?

00:33:50: Es geht um KI im Kundenservice.

00:33:51: Oh ja, das war witzig.

00:33:52: Oh ja, richtig.

00:33:53: Zum Thema.

00:33:55: KI ist definitiv nicht korrekt.

00:33:58: Cursor AI, das ist im Grunde eine Software, die kann ich nutzen, um KI unterstützt zu

00:34:04: koben.

00:34:05: Ich habe sozusagen ein Interface mit drin, das mir also den Code weiter schreibt.

00:34:10: Wer nicht will oder ich kann ihn prompten und dann weiter schreiben lassen.

00:34:13: Auf jeden Fall hatte dieses System einen Bug.

00:34:16: Und zwar, dass es dies, ich glaube, aktiv gesperrt hat, wenn du dich von einem anderen

00:34:22: PC mit dem gleichen Account eingeloggt hast.

00:34:25: So, uncool, wirkt erst mal so, als wäre irgendwie Lizenzprobleme irgendwie, vielleicht, keine

00:34:30: Ahnung, ne?

00:34:31: Es gab eine ganze Reihe von Leuten, die sich natürlich an Cursor gewandt haben und

00:34:34: gefragt haben, so, hey, ich bin auf dieses Problem gestoßen, was ist los?

00:34:37: Ich finde dazu keine Antwort.

00:34:39: Cura nutzt einen automatisierten Kundenservice.

00:34:43: Also im Grunde halt auch wieder ein Sprachmodell, das dahinter sitzt und wahrscheinlich Rack

00:34:48: basiert, die eigenen Dokumentationen durchsucht und dann versucht Antworten zu geben.

00:34:52: Auf jeden Fall hat dieses Modell gesagt auf die Anfragen, hey, was ist hier los?

00:34:57: This is expected behavior.

00:34:58: So, das ist eigentlich genauso soll das sein und so ist das zu erwarten und dann aber

00:35:02: auch keine Hilfestellung gegeben in irgendeiner Form.

00:35:07: Hat das nicht sogar behauptet, das wäre Teil der neuen Policy?

00:35:09: Ich glaube auch.

00:35:10: Also eben so irgendwas in die Richtung war es natürlich nicht der Fall, war es einfach

00:35:14: ein Bug.

00:35:15: So, und dieses Modell hat aber halt falsche Antworten darauf gegeben, beziehungsweise

00:35:20: sieht dieses Unternehmen als ziemliches Arschloch dastehen lassen, was natürlich dazu geführt

00:35:25: hat, dass Cursor einiges an Kunden verloren hat.

00:35:28: Ja!

00:35:29: So ein Thema, können diese Modelle Wahrheitsgetreue Antworten oder ist es eine gute Idee, 100%

00:35:35: Kundservice zu automatisieren, ohne Fallbacklösung?

00:35:38: Ich habe es auch gelesen, ich fand es auch sehr lustig, weil auch der Poster, der das

00:35:42: geschrieben hat, ich verlinke den Original Thread auch in den Show Notes, auch gesagt

00:35:46: hat, viele Leute haben dann lautstark öffentlich ihre Accounts gekündigt, unter anderem ich.

00:35:51: Also das ist tatsächlich auch publicity-mäßig Probleme hatte und ich glaube die Firma hat

00:35:56: dann auch den entsprechenden Reddit Thread einfach kommentarlos löschen lassen und sich

00:35:59: nicht mehr dazu bezogen.

00:36:00: Ja.

00:36:01: Eine Randfrage dazu.

00:36:02: Ihr werdet sehen unten in den Show Notes, der Link dazu geht zum Forum des Y-Kombinators,

00:36:07: wo darüber halt gesprochen wird und das ist ein Ort, den mir in letzter Zeit oft mit

00:36:12: kritischer Technologiebetrachtung aufgefallen ist.

00:36:15: Hast du irgendeine Theorie, woran das liegt?

00:36:17: Weil der Y-Kombinator ist der letzte Ort, wo ich das erwartet hätte.

00:36:21: Ja, definitiv.

00:36:22: Ich glaube der Punkt, dass das Publikum von dem Y-Kombinators besteht oder von dem News

00:36:30: Punkt Y-Kombinator Forum besteht, hat viel aus technisch servisierten Leuten.

00:36:34: Da hast du viele Entwickler, viele Leute, die einfach tief in der Materie drin sind und

00:36:38: du wirst das immer wieder sehen.

00:36:39: Ich kann das gleich mal rausrufen.

00:36:41: Es gibt ein Modell, wo du genau das Punkt hast, je weiter du dich von der Materie entfernt

00:36:47: bist, also je weiter weg du von der Technik und in den technischen Details bist, dass

00:36:51: du sicherer bist, mit den Einschätzen, du triffst.

00:36:54: Wahrscheinlich glaubst du, dass das, was du glaubst, zu wissen auch wirklich korrekt

00:36:58: ist.

00:36:59: Ist das nicht einfach nur der "Dunning Crew Girl"-Effekt?

00:37:01: Nee, das ist nochmal was anderes.

00:37:03: Dein Crew Girl ist ja dieser Bogen.

00:37:04: Da ist das abnehmend.

00:37:06: Okay.

00:37:07: Und je stärker du an der Materie dran bist, dass du mehr weißt, wie viel Unsicherheit in

00:37:12: den Einzelnen Aufsägen drinsteckt, du kannst das besser einschätzen.

00:37:14: Und desto kritischer bist du auch gegenüber so Absolutismen, wie das ist die Zukunft von

00:37:20: X, weil du kennst diese Systeme in und auswendig.

00:37:24: Du weißt ganz genau, welche Limitierungen du habe und du willst eigentlich hinter dieser

00:37:27: Aussage immer gleichmental fünf Sternchen und Fußnoten sitzen und sagen, naja, hängt

00:37:33: aber davon ab, X, Y, Z.

00:37:35: Das ist doch ein Grunde der Unterschied.

00:37:37: Zumindest ist es halt in diesem Forum sehr stark genau diesen Effekt, dass es da auch

00:37:41: detektiv dran sind, die sich gut auskennen, die auch zunehmend, glaube ich, mit dem Hype

00:37:47: der Industrie Sichtwertung.

00:37:49: Insofern, ja, guter Ort, um darüber zu lesen.

00:37:53: Mal schauen, wann Marc-Andresen das Ding dicht wird.

00:37:56: In diesem Sinne machen wir jetzt hier dicht.

00:37:59: Vielen Dank, dass ihr wieder eingeschaltet habt.

00:38:01: Wir hören uns nächsten Monat.

00:38:03: Schauen wir, was bis dahin passiert.

00:38:05: Vielleicht gibt es die USA nicht mehr.

00:38:07: Wer weiß, wir bleiben dran und ihr hoffentlich auch...

00:38:10: Maske ist doch zum Maske flogen.

00:38:11: Maske ist doch zum Maske flogen.

00:38:13: Sie hatten diesen Spaceflight, über den haben wir jetzt gar nicht geredet, weil es, glaube

00:38:16: ich, auch einfach egal ist.

00:38:17: Ich habe mir nur gedacht, hey, Katy Perry und ich schießen.

00:38:19: Ist die eine Sache, aber warum hat man sie zurückkommen lassen?

00:38:22: Ist es irgendwie die andere?

00:38:24: Naja, sollen sich andere Projekte drüber unterhalten?

00:38:26: Wir hören uns nächsten Monat wieder und wünschen euch bis dahin alles Gute und bis

00:38:31: dann, macht's gut!

00:38:31: [Musik]

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.