DeepSeek, DeepSeek und DeepSeek
Shownotes
404 Media zu DeepSeek und OpenAIs Copyright-Empörung: https://www.404media.co/openai-furious-deepseek-might-have-stolen-all-the-data-openai-stole-from-us/
Transkript anzeigen
00:00:00: Christian, was macht der Hype?
00:00:26: Der Hype ist gut ins Neue hergekommen und fängt jetzt an Mandarin zu lernen, glaube ich.
00:00:31: Das wird, glaube ich, immer wichtiger.
00:00:33: I4One greet our new Chinese Overlords im Bereich KI zumindest.
00:00:38: So sieht es aus.
00:00:39: Ich glaube, da sind wir auch direkt beim Thema.
00:00:41: Es wird eine KI-Folge.
00:00:43: Überraschend.
00:00:44: Wir warten immer noch auf die erste Folge ohne KI.
00:00:46: Irgendwann kommt sie.
00:00:48: Ich bin mir ganz sicher.
00:00:49: Aber jetzt ist erstmal viel passiert über die Weihnachtsfähigen
00:00:54: und die Zeit kurz danach, der Januar ist jetzt auch schon fast wieder zu Ende.
00:00:58: Und das Thema ist, glaube ich, Diepsik, oder?
00:01:00: Ich glaube, das wird heute der Kern der Folge sein.
00:01:02: Und was das mit Open AI macht und was das mit der Medienbranche macht, würde ich sagen.
00:01:08: Wo warst du als Diepsik-Geläuptur?
00:01:11: Ehrlicherweise, ich weiß nicht, irgendwo ist jetzt nicht so was, würde ich jetzt sagen.
00:01:17: Das hat jetzt so ein Level an Relevanz.
00:01:20: Aber es ist witzig, würde ich jetzt mal sagen.
00:01:25: So ist nach einem leichten Schaden Freude.
00:01:28: Also, Marc-Andresen hat es schon als den Sputnik-Moment bezeichnet.
00:01:32: Was war möglicherweise gar nicht so Falsches?
00:01:36: Das funktioniert halt nur, wenn ich wirklich sehr unbedingt hart diese Space Race-Metapher mit tragen will, weiter.
00:01:43: Ja, und wenn man den Systemkonflikt mit China so krass sehen möchte,
00:01:48: hat auf jeden Fall den Punkt, dass die amerikanischen KI-Firmen und Nvidia als Chiphersteller
00:01:55: gerade ziemlich am Routieren sind.
00:01:58: Vermutlich ähnlich wie es die NASA nach dem Sputnik-Moment war.
00:02:01: Ja, sagen wir mal so, das ist halt genau das Problem mit der Metapher.
00:02:04: Es funktioniert nur dann, hätte die NASA gesagt, es gibt nur eine einzige Art korrekte Art und Weise, Raketen zu bauen.
00:02:10: Und das ist unsere und plötzlich zeigen die Russen, dass es andere Arten gibt.
00:02:14: Deswegen soll die Metapher ist nett, die funktioniert, wenn ich weiter zum weißen Haus laufen will und sagen,
00:02:21: "Wir sind super wichtig, wir brauchen richtig viel Geld."
00:02:24: Sie funktioniert aber halt wohl, wenn ich die Realität anschaue.
00:02:29: Auch das, das stimmt auch, Project Stargate ist auch passiert, die Inauguration,
00:02:34: also Trump ist jetzt offiziell wieder präsent, auch das ist passiert seit der letzten Folge.
00:02:38: Und das ist, ich finde, eine ganz interessante Parallele zwischen Project Stargate und Deepseak
00:02:42: ist tatsächlich, dass ich auch bei Project Stargate ein paar Tage gebraucht habe,
00:02:47: bis ich aus den Informationen rauskristallisieren konnte, um was es eigentlich tatsächlich geht.
00:02:52: Weil ich dachte, bei Project Stargate tatsächlich zuerst auch die US-Regierung wolle 500 Milliarden investieren in KI.
00:02:59: Und erst später habe ich dann verstanden, dass es eine Initiative war, die es schon vorher gab,
00:03:04: wonach Oracle und OpenAI und andere 500 Milliarden in KI investieren sollen.
00:03:10: Und das ist ja auch das, was ich jetzt auch bei Deepseak und ich glaube es ist immer noch ein bisschen so,
00:03:15: vielleicht ganz kurz zur Einführung für alle, die es noch nicht mitbekommen haben,
00:03:20: was ich bei unserer Zielgruppe für Unwahrscheinlichhalter, aber trotzdem,
00:03:25: Deepseak ein neues, large Language Model aus China,
00:03:29: das ähnliche Werte in den ganzen Benchmarks erreicht, wie OpenAI's O1-Modell,
00:03:37: wie gut diese Benchmarks sind und was diese Benchmarks jetzt tatsächlich aussagen, mal dahin gestellt,
00:03:42: es erreicht auf jeden Fall ähnliche Werte in diesen Benchmarks
00:03:45: und angeblich das Ganze zu einem Bruchteil des Geldes, also anstatt über weit über 100 Millionen,
00:03:53: um das Modell zu trainieren, haben sie angeblich nur 5 bis 6 Millionen Dollar dafür auszugeben,
00:03:57: mit älteren Chips, also einer der Hauptkostenpunkte bei den KI-Modellen aus amerikanischer OpenAI-Sicht,
00:04:04: ist ja das, um immer besser zu werden oder gut zu sein, brauchst du eben diese gigantischen Mengen
00:04:09: an sauteuren spezialisierten Computerchips, die sich in den Video herstellt
00:04:14: und scheinbar ist es jetzt gar nicht so, weil die haben es halt viel billiger gemacht mit älteren Chips,
00:04:20: deswegen auch direkt der Aktienkurs von Nvidia massiv eingebrochen ist,
00:04:24: ich glaube der größte Wertverlust an der Börse jemals.
00:04:27: Und gleichzeitig, und vielleicht kannst du mir da ein bisschen auf die Sprünge helfen,
00:04:31: bin ich mir dann noch nicht so 100% sicher, weil zum einen ist es ja so bei DeepSync,
00:04:37: dass man gar nicht so genau weiß, wie viele Chips haben sie jetzt benutzt,
00:04:40: wie viel hat es tatsächlich gekostet, wie viel politisches Interesse steckt dahinter,
00:04:43: dass es so wenig Geld war.
00:04:45: Und zum anderen ja offenbar, und da kommen wir glaube ich später nochmal zu, weil es wahnsinnig lustig ist,
00:04:50: DeepSync ja offenbar ein Distillat von ChatGPT ist, also ChatGPT eines der Tools war,
00:04:57: das genutzt wurde, um dieses neue Modell zu trainieren.
00:05:01: Und wo ich mich dann frage, okay, fair enough, aber ChatGPT hat halt so viel Geld gekostet
00:05:07: und dann das neue Modell da draufzusetzen hat weniger Geld gekostet,
00:05:11: aber hätte das auch funktioniert ohne die Vorarbeit, die teure Vorarbeit, die OpenAI geleistet hat.
00:05:16: Also wie sehr traust du dieser Zahl von 5 Millionen für das Modell?
00:05:20: Ja, der Punkt ist an der ganzen Sache, ist so ein bisschen, I don't really care.
00:05:26: Also das ist so, ich meine bei diesen 5 Milliarden, da muss man dazu sagen,
00:05:31: die Kosten für die Chips sind da nicht mit drin, 5 Millionen oder 5,6 Millionen US-Dollars sind das,
00:05:36: sondern das ist reine, so viel Energie und Strom haben wir ausgegeben, um zu trainieren.
00:05:42: Also das ist reines Laufzeit sozusagen.
00:05:47: Da ist nicht Materialkosten mit drin, da sind jetzt auch nicht irgendwie die Arbeitskosten mit drin,
00:05:52: der Experten, die dieses Modell gebaut haben, da ist nicht irgendwie eventuelle Datenkosten drin
00:05:58: oder Lizenzkosten oder Aufbereitungskosten mit drin.
00:06:01: Genau, was eben gemacht haben, ist das Modell dann auch unter anderem
00:06:05: im Output von ChatGPT trainiert.
00:06:07: So, so ein, man kann da jetzt glaube ich rausgehen und sagen, na ja, wäre das gegangen.
00:06:16: Der Punkt ist, es ist im Großen und Ganzen relativ egal, ob es möglich gewesen wäre
00:06:21: oder ob es nicht möglich gewesen wäre, denn ja, das Modell ist jetzt open source
00:06:25: und damit ist halt eher der viel interessanter Aspekt,
00:06:29: an der Stelle weniger, wer war zuerst da oder wer hat jetzt recht,
00:06:33: sondern das untergräbt im Grunde die gesamte kommerzielle Logik von OpenAI
00:06:40: und das ist viel, viel wichtiger, finde ich, an der Stelle.
00:06:43: Total, das finde ich jetzt aber gar nicht so ein Widerspruch,
00:06:46: weil ich glaube, unabhängig davon, wie viel es gekostet hat,
00:06:49: durch dieses Narrativ, hey, ist es so viel billiger und es ist open source
00:06:52: und wir stellen es einfach so zur Verfügung.
00:06:54: Klar, das, was wir ja auch schon hier im Podcast auch schon mehrfach gesagt haben,
00:06:58: das macht es natürlich so gut wie unmöglich, dass die Investitionen, die in OpenAI
00:07:03: jetzt schon getätigt wurden, jemals in irgendeiner Form wieder reingeholt werden.
00:07:07: Definitiv.
00:07:08: Gleichzeitig finde ich das aber schon auch relevant,
00:07:11: die Frage, wie teuer ist es denn jetzt oder war es denn jetzt,
00:07:14: weil es scheint ja schon deutlich effektiver zu sein, also ich habe,
00:07:18: oder effizienter Entschuldigung, ich habe Posts gesehen von Leuten,
00:07:21: die das Ding auf einem Raspberry Pi gehostet haben.
00:07:24: Ich habe einen Hackingface-Engineer gelesen, der mal vorgerechnet hat,
00:07:29: dass du ein Tool um das Ding selber komplett zu nutzen in einem akzeptablen Speed
00:07:35: mit einer akzeptablen Token pro Sekunde rate,
00:07:38: ein Setup dafür kostet ungefähr 6000 Dollar, unter 6000 Dollar
00:07:42: mit einfach kommerziell erhältlichen Tools und Server-Dingern.
00:07:46: Du brauchst halt, ich glaube, 650 Gigabyte RAM oder irgendwie sowas,
00:07:50: das kostet halt ein bisschen Geld, aber ist jetzt nicht das Ende der Welt.
00:07:53: Und ich glaube, das macht zumindest das Argument, was wir ja als große KIS-Skeptiker
00:07:59: so ein bisschen immer hatten mit, okay, man kann damit irgendwie coole kleine Produkte bauen,
00:08:04: aber man kann damit kein Produkt bauen, das 5 Milliarden Dollar im Quartal verdient.
00:08:09: Die Frage bestätzt ich jetzt gar nicht mehr so sehr, sondern jetzt ist die Frage,
00:08:12: okay, wenn das Tool oder wenn die Technologie so einfach und günstig,
00:08:16: verhältnismäßig günstigstens anzuwenden ist, dann ist ja schon die Frage,
00:08:19: dann gibt es ja vielleicht schon Anwendungsmöglichkeiten, die sich monetarisieren lassen,
00:08:23: auch wenn es nicht, ob ein AIS-ChatGPT ist, oder?
00:08:26: Naja, ich meine, das ist ja genau der Punkt.
00:08:28: Wie viele Anwendungsmöglichkeiten gibt es, die sich monetarisieren lassen
00:08:32: und inwiefern ändert das die Rechnung?
00:08:34: Ich denke, das sind zwei unterschiedliche Fragen.
00:08:37: Ich glaube, es muss mal so ein bisschen, also ist Artikel in Bullet Points automatisiert zusammenfassen,
00:08:45: ist das ein Business Case?
00:08:47: So, ja, ich kann das jetzt günstiger machen. Cool.
00:08:51: Also ich glaube, an der Stelle muss man so ein bisschen vorsichtig sein.
00:08:54: Es gab halt schon davor große Probleme, damit sensible Business Cases zu finden,
00:08:58: die tatsächlich auch funktionieren, die tatsächlich auch nennenswert monetären Impact haben.
00:09:05: Jetzt kann ich das natürlich in Ticken anders rechnen, das löst aber das Problem 1 nicht oder auch nur bedingt.
00:09:11: Weil was natürlich DeepSieg nicht macht, ist tatsächlich besser sein.
00:09:16: Also das muss man ja auch dazu sagen, das ist im besten Fall das gleiche Modell,
00:09:20: oder ein ähnliches Modell, was immer noch die gleichen Probleme hat,
00:09:23: wie es ist unzuverlässig, es ist fragil,
00:09:27: es ist nicht deterministisch im Einsatz, es hat keinerlei Relation zu Wahrheit oder Lüge.
00:09:33: All diese Dinge wurden ja nicht geändert.
00:09:35: So, das heißt, klar, der Einsatz ist günstiger geworden.
00:09:39: Klar, ich kann das jetzt selber hosten, klar, ich kann mir meinen eigenen On-Premise-Server hinstellen
00:09:43: und das jetzt darin lassen und das macht mich auch sicher etwas unabhängiger von einem GPD oder OpenAI.
00:09:51: Es sorgt auch dafür, dass die Sachen, die ich da reinwerfe, natürlich datenschutztechnisch,
00:09:57: vielleicht sehr viel andere Dimensionen haben, weil wenn es mein Service ist, es wurscht.
00:10:02: Das ist nicht 100% wurscht, aber ich kann dann gleich sehr viel anders im Grunde reagieren.
00:10:08: Punkte sind nur, das löst das erste Problem nicht, dass ich überhaupt erst Use Cases brauche, für die ich es einsetzen kann.
00:10:16: Also ich sehe es insofern ein bisschen anders, weil ich bin total bei dir, ich glaube nicht,
00:10:21: nach wie vor nicht, dass uns das jetzt irgendwie näher an AGI ranbringt.
00:10:26: Also auch wenn jetzt OpenAI mit der ganzen Rechenleistung, die sie haben und den modernen Chips jetzt die Lösung von DeepSeed nimmt,
00:10:34: was ihr könnt, sie ist ja Open Source, und quasi sagt, okay, wir machen jetzt das Gleiche mit diesen Effizienzsteigerungen,
00:10:39: aber mit der ganzen Rechenleistung, die wir schon haben,
00:10:42: meinen ganzer Stand und was ich gelesen habe und wie ich das so wahrnehme,
00:10:47: ist es immer noch so, dass wir erreichen AGI nicht dadurch, dass wir an so eine Art LNM einfach nur mehr Daten und so was werfen.
00:10:54: Also grundsätzlich...
00:10:55: Ja, das ist ja genau der Punkt. Also das ist ja wieder ein sehr, sehr anderer Thematik, aber AGI ist ein Mythos.
00:11:01: Das ist eine Story, die sich die gesamte Industrie erzählt als der Endpunkt,
00:11:05: aber es gibt keinerlei empirische Anhaltspunkte, dass AGI überhaupt möglich ist
00:11:10: und B, dass diese Unternehmen überhaupt auch nur in die Nähe davon kommen.
00:11:14: Total.
00:11:15: Also das muss man auch noch dazu sagen, das ist ja alles nur eine Story, die sich die Leute erzählen.
00:11:20: Bin ich total dabei. Ich sehe trotzdem nur so ein bisschen, dass...
00:11:24: Ich finde, das ist ja gar an sich nichts Schlimmes.
00:11:26: Also ja, wir können darüber reden, was der Hype auslöst und so weiter
00:11:30: und wie diese Vision von AGI auch benutzt wurde, um quasi zu lügen.
00:11:35: Ich meine, selbst bei OpenAI wurde ja im letzten Jahr veröffentlicht, die Definition gegenüber Microsoft und AGI
00:11:41: ist ja nur, sie machen 100 Milliarden Umsatz und dann nennen sie es AGI.
00:11:44: Aber ich finde, es ist ja grundsätzlich bei einer neuen Technologie nichts Verwerfliches zu sagen,
00:11:49: okay, sie macht halt kleine Detailverbesserungen oder Detaillösungen möglich
00:11:55: und das finde ich jetzt schon, ist ja dadurch deutlich realistischer geworden.
00:11:59: Ich würde gleich am Schluss gerne noch ein bisschen dazu kommen,
00:12:01: dass wir da so eine Verschiebung sehen von weg von, hey, wir müssen die technologische Vorherrschaft erreichen
00:12:07: und es ist jetzt noch stärker in Richtung dahingeht, wo es meine Sachen zingelt,
00:12:11: nämlich in die Produktecke und UX-Ecke. Und was machen wir damit eigentlich?
00:12:15: Weil das jetzt eben einfacher möglich ist, auch Sachen auszuprobieren.
00:12:17: Die Startups oder die Leute, die damit Sachen gebaut haben, die bisher sehr abhängig waren von OpenAI,
00:12:22: wo wir auch immer gesagt haben, okay, ihr könnt das jetzt machen,
00:12:25: aber OpenAI wird die Preise irgendwann erhöhen müssen, lohnt sich das dann immer noch.
00:12:28: Die Frage stellt sich, glaube ich, jetzt gar nicht mehr so stark.
00:12:30: Würde ich gerne am Schluss noch zukommen, lassen Sie vielleicht aber jetzt ein bisschen schon damit angefangen haben,
00:12:35: einmal kurz in die Richtung, was bedeutet das für OpenAI?
00:12:37: Wir haben es schon angesprochen.
00:12:39: Ich sehe gerade jetzt, wenn Modelle, die so gut sind wie ChatGPT quasi gratis zur Verfügung stehen
00:12:44: und im Zweifelsfall noch besser werden, auch außerhalb von OpenAI,
00:12:49: die Microsoft kann die Investitionen abschreiben, oder?
00:12:52: Ja, ich denke, Microsoft hat ja immer noch investiert,
00:12:55: zumindest in die Infrastruktur zusammen mit OpenAI.
00:12:58: So gesehen, ich glaube nicht, dass sie es abschreiben können.
00:13:01: Ich denke, der Punkt ist einfach der, das macht ja Facebook schon länger mit ihren Lama-Modellen,
00:13:06: die sie ja auch OpenSource freigeben, ganz bewusst aus dem Grund,
00:13:10: dass sie versuchen OpenAIs Markt da im Grunde eigentlich zu untergraben.
00:13:15: Ja, selbst wenn das jetzt der Riesendurchbruch noch kommt
00:13:18: und jetzt irgendwie wir Super-KI's haben, die tatsächlich 100% korrekte Aussagen liefern,
00:13:23: jedes einzelne Mal, der Markt wird sehr, sehr anders aussenken.
00:13:27: Und OpenAI wird nicht in der Lage sein, eine Monopolstellung einzunehmen darin.
00:13:31: Und ich glaube, eine Monopolstellung ist der einzige Weg,
00:13:34: also quasi eine Killer-App finden, eine Killer-Anwendung finden und demonopolisieren,
00:13:39: ist ja eigentlich der einzige Weg.
00:13:41: wie sie die Kosten, die sie schon verursacht haben,
00:13:42: jemals wieder reinholen können. - Definitiv.
00:13:45: Insofern sehe ich auch nicht, wie Open AI nochmal rauskommt.
00:13:48: Ich möchte aber noch auf den Seitenaspekt reingehen.
00:13:51: Ich glaube, du fandest es vorhin schon lustig.
00:13:53: Ich finde es auch immer noch sehr lustig,
00:13:54: dass Open AI sie jetzt beklagt hat,
00:13:56: dass es ja eine Copyright Verletzung
00:13:58: und Verletzung ihrer Terms of Services wäre,
00:14:00: dass DeepSeek ihr Modell genutzt hat, um das zu trainieren.
00:14:04: Und das ist natürlich wunderbar ironisch,
00:14:07: dass Open AI halt genau das Gleiche gemacht hat,
00:14:10: mit dem geistigen Eigentum von Millionen.
00:14:12: Dass sie sich jetzt versuchen, darüber zu beklagen,
00:14:15: obwohl sie gerade ja noch in dem Lawsuit mit den New York Times,
00:14:18: die New York Times hat ja gegen Open AI geklagt,
00:14:20: weil Open AI ja ganz eindeutig Inhalte den New York Times benutzt hat,
00:14:24: um Chatty Pizzi zu trainieren.
00:14:25: Und in dieser Lawsuit argumentiert Open AI ja ganz explizit,
00:14:29: dass sie sagen, ja, es geht gar nicht anders.
00:14:32: Das ist fair use.
00:14:34: Und wir benutzen so viele Daten,
00:14:37: dass diese paar New York Times Artikel,
00:14:39: die wir da rein haben, im Endeffekt so unwichtig sind
00:14:41: für das gesamte Trainingskorpus,
00:14:42: dass wir dafür auf jeden Fall nicht bezahlen müssen.
00:14:45: Und dass Ihnen jetzt genau dasselbe passiert,
00:14:47: ist schon wahnsinnig lustig.
00:14:48: Extreme. Extreme.
00:14:50: Also, ja.
00:14:51: Ich habe hier einen, ich habe dazu einen Text gelesen,
00:14:54: von Four of Four Media.
00:14:55: Die sind tatsächlich ziemlich gut,
00:14:57: was zur Techberichterstattung angeht.
00:14:58: Ich kann es auch unten verlinken.
00:15:00: Und in diesem Text, ich möchte es einfach kurz zitieren,
00:15:02: er beschreibt auch genau,
00:15:03: dass ich gerade beschrieben habe mit dem Lawsuit.
00:15:05: Und er schreibt da nur,
00:15:06: ich zitiere wörtlich. I will explain what this means in a moment, but first ha ha ha, ha ha ha ha ha.
00:15:12: [Gelächter]
00:15:14: Ich gehe dann zwei Zeilen weiter mit "ha ha ha". Und dann mache er mit dem Artikel weiter. In so
00:15:19: fern auch das wird sicher nicht dazu führen, dass sie auf einmal ein besseres Standing in diesem
00:15:24: in diesem lawsuit haben, auch das ist also noch ganz interessant, was dann da eigentlich raus kommt.
00:15:29: Und es führt für mich dann aber wieder auf so ein bisschen zurück zu dem, was wir ganz einfach
00:15:32: besprochen hatten, so wenn du jetzt, wenn kleine Modelle oder günstige Modelle wie Deepseak die
00:15:39: Großmodelle irgendwie brauchen, um das zu trainieren, wie kriegt man dann eigentlich neue
00:15:43: Informationen in diese kleinere Modelle? Muss dann erst OpenAI wieder geupdatet werden,
00:15:47: damit die Kleineren sich alle dran trainieren können?
00:15:49: Ja, also das ist auch, ich müsste einfach nochmal reingemessen. Aber soweit ich es verstanden habe,
00:15:54: wurde das Modell nicht 100 Prozent trainiert, sondern ist ein OpenAI-Chachopity-Output,
00:16:00: sondern das Very Enforcement Learning. Also man hat das nochmal on top gesetzt sozusagen.
00:16:03: Der Punkt ist nur, das kannst du mit jedem anderen Modell genauso machen. Man hat einfach OpenAI
00:16:09: benutzt, weil Marktführer und die API-Rates relativ günstig sind.
00:16:14: Wir haben jetzt überhaupt mal gesprochen, super lustig, behalten wir im Auge. Wir haben über die
00:16:21: Technik gesprochen, soweit wir das können. Lass uns mal zu dem Kern des Ganzen kommen,
00:16:25: was ich eben schon so ein bisschen angesprochen hatte, nämlich was bedeuten,
00:16:27: dass jetzt eigentlich für Medien und für Leute, die im Medienbereich was mit KI machen.
00:16:32: Also ich finde schon, und du wirst mir sicher widersprechen, aber ich bin gespannt auf dein
00:16:36: Widerspruch, ich finde schon, dass jetzt die Leute, die tatsächlich was damit machen und sagen,
00:16:41: hey, ich habe jetzt hier halt irgendwie eine App gebaut, die dir beim Schnitt helft oder bei
00:16:45: Übersetzung sonst was, was diese klassischen Usescases dies ja schon gibt, die bisher halt
00:16:53: an OpenAI in den allermeisten Fällen irgendwie dran hängen, die das jetzt viel viel einfacher
00:16:57: machen können. Es wird viel mehr Leute geben, die auf einmal vielleicht damit experimentieren,
00:17:00: experimentieren können und viel mehr maßgeschneidete Lösungen. Und ich glaube, ist jetzt nicht gerade
00:17:06: erst die Stunde der Produktentwickler*innen, sag ich jetzt mal ganz allgemein, ich meine,
00:17:11: ich meine, dass in Häusern, ich meine, dass in Startups und so weiter und so fort, ist die jetzt
00:17:15: nicht eigentlich gerade erst gekommen, weil, also selbst bei so Themen wie UX oder sowas,
00:17:20: jetzt, wenn die Technik so allgegenwärtig wird, dann hast du ja schon einen Vorteil,
00:17:24: wenn du die beste UX machst und wenn das Ding einfach am besten aussieht und am einfachsten
00:17:27: funktioniert, am einfachsten in deinem Redaktionssystem geht oder was auch immer. Ich setze
00:17:31: nicht genau die Stunde dieser Produktleute eigentlich erst gekommen. Ja, total, weil wenn
00:17:36: wir eins wissen, ist das Redaktionssysteme sich durch glänzende UX-Leistungen auszeichnen.
00:17:41: Ja, ja, aber deswegen ist hier da Platz für Leute, die was Besseres bauen, zum Beispiel mit
00:17:46: KI. Ja, weißt du, der Punkt ist an der Stelle, ja, vielleicht tun wir uns, maybe, ich glaube,
00:17:50: der Punkt ist der, ich glaube, es wird sehr überschätzt, wie viel passiert, wie viele
00:17:55: Möglichkeiten es gibt und wie viel Use-Cases es tatsächlich auch an der Stelle gibt. Ja,
00:17:59: UX ist ein Thema, aber auch an der Stelle muss man ja auch sagen, ehrlicherweise. Ich habe
00:18:04: als Redaktion mein CMS und ich habe dann meine drei Button drin, aber das wird alles über den
00:18:08: Dienstleister eingebaut. Da habe ich als Redaktion in der Regel nicht so viel Spielraum drin. Ich
00:18:14: mache das vielleicht in Kooperation, aber es ist jetzt auch nicht so, es könnte ich von
00:18:17: heute auf morgen der Fix wechseln und das Konkurrenzprodukt nutzen. Ja, also ich werde
00:18:21: gar nicht so sehr an den Redaktionssysteme aufgehangen. Ich meine generell auch an die
00:18:26: Löse, von den Lösungen, die wir jetzt schon einige gesehen haben, wie gesagt auch im
00:18:30: Thema Schnitt und so weiter, jetzt gar nicht um die Redaktionssysteme angeknüpft, sondern
00:18:34: von mir ist einfach Teile der Tools, die halt Journalistinnen und Journalisten im Alltag
00:18:39: nutzen, dass es da jetzt wahrscheinlich irgendwie zu einer kleinen Explosion, wie auch immer,
00:18:46: von Möglichkeiten kommen wird. Also es ist auch einmal viel, viel mehr Tools gibt, die man
00:18:49: ausprobieren kann. Klar, viele davon werden sich nicht durchsetzen, das ist ja immer so,
00:18:52: aber dass die Möglichkeiten, dass viel, viel mehr entsteht und da vielleicht tatsächlich auch
00:18:57: wirklich viele nützliche Sachen dabei sind, die jetzt auch noch einfacher und weniger funktionieren,
00:19:01: die ist doch schon gestiegen, oder? Naja, ich glaube, das ist der Punkt, das sind der Stelle,
00:19:05: das haben doch alle Anbieter die letzten 18 Monate längst gemacht, irgendwelche Dinge
00:19:10: einzubauen. Klar, die können jetzt vielleicht ein bisschen günstiger anbieten, die können
00:19:15: vielleicht einfach auch ein paar mehr gehostete und Europa Funktionalitäten mit einbauen.
00:19:21: Ich bin so ein bisschen skeptisch, ob es da jetzt erst die riesige Explosion gibt, weil alle haben
00:19:27: die letzten 18 Monate damit verbracht, auf Teufel kommen raus, diese Sachen irgendwie zu integrieren.
00:19:32: Vielleicht bin ich da auch ein bisschen zu zynisch, aber ich sehe es nicht tatsächlich.
00:19:37: Also ich will auch gar nicht sagen, dass ich zehn Ideen im Kopf habe von Sachen, wo ich
00:19:42: sagen würde, hey, das geht jetzt, was es vorher nicht ging, aber ich habe doch schon irgendwie
00:19:47: das Gefühl, dass einfach die Möglichkeit, die Möglichkeit dasselbe zu machen,
00:19:52: allein dasselbe zu hosten und dass das Open Source ist und dass man sich selber auch daran
00:19:55: rum basteln kann, einfach dadurch, dass es sogar crowdsourced wird. Also einfach,
00:19:59: dass sich jetzt vielleicht Leute damit beschäftigen können, die sich vorher nicht damit beschäftigen
00:20:03: konnten und Leute jetzt an Teilen von dieser Toolchain arbeiten können, an denen sie vorher
00:20:07: vielleicht nicht arbeiten, weil vorher gab es ja immer diesen Spruch von dem Mode, also von diesem
00:20:12: Burggraben um AI. Ja, also der Punkt des Stairs ist ja nicht das erste Open Source-Modell,
00:20:18: das ist das erste Reasoning-Open Source-Modell, das ist wahrscheinlich der einzig große Unterschied
00:20:23: an der Stelle. Gut, und dass du lokal hosten kannst und dass du günstiger nachtrainieren kannst?
00:20:29: Du musstest, wir sind ein Podcast, Johannes King, du musstest mit, du sagst mit deinem Wort.
00:20:35: Ich weiß, ich habe gerade den Kopf etwas skeptisch geschüttelt, also Lama gibt es ja schon länger,
00:20:39: die Open Source-Modelle von Facebook, die ich ja auch hosten kann, die ich auch nutzen kann,
00:20:45: die sicher nicht auf dem gleichen Niveau mitspielen. Ich denke, was es halt vor allem zeigt und das
00:20:52: ist es denke ich, dass das einzig relevante ist, wird jetzt glaube ich nicht die große Tool Explosion
00:20:55: geben, weil viele dieser Möglichkeiten vorher schon gegeben waren. Ich denke wie gesagt,
00:21:00: der Punkt ist, hat eher es untergräbt gerade krass das Narrativ Amerikas und das untergräbt
00:21:05: krass das Narrativ, dass ein Open AI und ein Microsoft-Sichter zurechtgelegt haben und ein
00:21:10: Nvidia-Sicht zurechtgelegt haben, auf deren Basis im Grunde mehr oder weniger die gesamte Tech-Industrie
00:21:16: gerade ausgerichtet wurde, wo alle Investitionen reinfließen, wo irgendwie alle Blicke hingingen
00:21:23: und jetzt kommt ein kleines, scrappy chinesisches Start-up, da gibt es sogar ein Hedge Fund.
00:21:29: Wobei man das ja schon glaube ich ein bisschen anschrecken muss, genau, es kommt ja von dem
00:21:31: Hedge Fund, das ist glaube ich so wie ich das verstanden habe, ein bisschen einfach das Hobbyprojekt
00:21:35: des Hedge Fund Grunders gewesen, der also schon sehr, sehr reich und sehr, sehr etabliert ist.
00:21:40: Total. Das ist kein Garagen-Start-Up, das muss man schon sagen.
00:21:42: Nein, das ist kein Garagen-Start-Up, definitiv nicht, aber es zeigt halt trotzdem so,
00:21:45: "Hey, die Story, die ihr euch da erzählt, die ist nicht unbedingt korrekt und das ist jetzt auch
00:21:51: keine neue Kritik an der ganzen Sache." Man soll eben, gibt ja genügend Kritiker auch aus dem Feld,
00:21:58: die schon länger sagen, "Hey, dieses Skalieren funktioniert nur bis zum gewissen Punkt."
00:22:02: Und alles darauf auszurichten, weiter zu skalieren, wird nur begrenzt funktionieren.
00:22:07: Ergo, hier ist eine Bubble und was natürlich die Basik zeigt, ist ja, hier ist eine Investmentbubble.
00:22:13: Ich finde ich auch, ich habe jetzt die Namen leider gerade nicht parat, aber ich weiß auf jeden Fall
00:22:18: auch auf LinkedIn zum Beispiel, dass es da durchaus schon eigentlich die ganze Zeit Leute gibt,
00:22:22: die genau das mit diesem, es gibt eigentlich keinen Burggraben und es wird am Ende nicht an der
00:22:27: Technikhoheit oder der Verfügbarkeit von den Chips liegen. Die gibt es tatsächlich schon lange
00:22:31: und die können sich, glaube ich, wirklich sehr bestätigt fühlen, dass sie also die ganze Zeit
00:22:36: recht hatten. Definitiv. Mit dem, mit dem, was da passiert ist. Lass uns vielleicht zum Abschluss
00:22:42: noch eine ganz kleine Runde davon wegdrehen. Wir hatten das vor einigen Folgen schon mal kurz
00:22:47: angesprochen, wo wir so über Zukunftsvision und so was gesprochen haben, wenn die Blase jetzt
00:22:51: tatsächlich platzen sollte. Und es, es rauskommt, okay, wir können, wir können diese Technologie
00:22:56: nutzen für was auch immer, lass uns da nicht weiter darüber reden, ob man sie jetzt für was
00:23:00: sinnvolles Nutzern kann oder nicht. Aber sie ist irgendwie da, man kann sie nutzen und man braucht
00:23:04: dafür nicht diese gigantischen Datencenter, die schon gebaut wurden. Was machen die mit diesen
00:23:09: Datencentern? Die Nutzung von bestehenden Modellen noch günstiger machen, denn, dann hast du
00:23:14: Infrastruktur und du musst sie auch bedienen. Das heißt, die, die Kosten gehen immens nach unten
00:23:20: und ich werde die Sachen im Runde zu den Stromkosten nutzen können. Das ist die Konsequenz. Also ist ja,
00:23:27: wäre jetzt ja auch nicht. Also du meinst, dass sie quasi die Rechenleistung lieber dann für günstige
00:23:30: KI-Modelle verschleudern, als zu sagen, hey, we're cutting our loss. Nee, dass die Rechenleistung
00:23:35: einfach günstiger verkauft wird. Ich habe ein überangebot an Rechenleistung, dann, dass ich
00:23:41: irgendwie nutzen muss. Das heißt, die Konsequenz oder die Konsequenz wird halt sein, dass das mir
00:23:47: da weniger zu den Stromkosten, die ich Rechenleistung einkaufen kann. Und du meinst du jetzt für KI-Lösungen
00:23:52: speziell oder generell, also ich meine keine Ahnung, Amazon Web Services oder Microsoft, die das ja alles
00:23:56: auch im Rahmen ihrer Cloud-Dienste hosten, dass das dann auch für andere Use-Case in andere
00:24:02: Technologien geht, für die man sich Rechenleistung halt mietet oder ist das speziell für KI? So
00:24:06: deraus, ich denke, das kommt halt sicher darauf an, im Endeffekt ist GPU Cluster bzw. jetzt in
00:24:12: zwischen halt spezialisiertere KI-Chip Cluster. Das kommt darauf an. Also ich bin ja, ich bin
00:24:18: kein Experte, aber das sind ja alles Grafikkarten, diese, die wir da benutzen. Zum Teil. Vielleicht
00:24:22: wird dann doch der Durchbruch von Cloud Gaming irgendwann, das hatte ich vor allem von ja,
00:24:26: oder so schon mal als Theory, dass wenn das auf einmal so wahnsinnig günstig wird,
00:24:29: vielleicht können wir dann alle Videospiele streamen. GeForce, da ist ja eine Video auch dabei,
00:24:35: mit GeForce Now, mit diesen Sachen. Weil ich denke immer an diese Geschichte, die du mal erzählt
00:24:40: hast, mit dem das e-mail Spam ja eigentlich eine Folge des Platzens, der Dotcom-Blase war,
00:24:45: weil auf einmal im Silicon Valley Leute auf der Straße standen und Festplatten mit Kundendaten
00:24:49: verschleudert haben für Cent-Beträge. Und ich frage mich die ganze Zeit immer noch,
00:24:53: wenn diese Blase tatsächlich platzen sollte, was ist das Spam-Email-Equivalent zu dem,
00:24:58: was dann passiert, dass diese ganzen server, gigantischen Server-Farmen alle gebaut wurden,
00:25:02: die man mit denen man mit KI vielleicht nicht so viel oder kein Geld verdienen kann. Was macht
00:25:08: man damit stattdessen? Das finde ich immer noch eine interessante Frage und Cloud Gaming ist
00:25:12: vielleicht eine Theorie, aber ich weiß nicht, ob du noch eine bessere hast. Ich müsste darüber
00:25:16: nachdenken, tbh. Vielleicht nehmen wir das mal die nächste Folge mit. Ich finde das der
00:25:19: ganz interessant, was ist da noch, weil wie gesagt, das mit dem Cloud Gaming sage ich auch,
00:25:22: wie schon seit dem Jahr, und was besseres ist mir bisher auch noch nicht eingefallen,
00:25:25: aber da muss es ja noch was besseres geben. Kannst du mal DeepSig fragen? Ich könnte mal
00:25:28: DeepSig fragen, aber ja, es gibt ja noch andere Sachen, für die man Rechenleistung braucht,
00:25:33: habe ich mir sagen lassen. Also irgendwas brauchen wir die ganzen Dinger, ja. Und was da noch,
00:25:37: ob es da dann andere Möglichkeiten gibt und ob auf diesem Boden dann auch was Neues wachsen kann,
00:25:43: finde ich eine ganz interessante Frage. Die Matrix. Vielleicht die Matrix. Also ich meine,
00:25:49: das Ende der Matrix-Filme ist ja, dass sich jeder selber aussuchen kann,
00:25:52: ob er der Matrix wohnt oder nicht und "Hey, es ist ein Angebot", wenn man sich die Welt so anguckt.
00:25:58: Warum nicht? Das sollte optimistisch sein. Ja, es sollte optimistisch sein,
00:26:05: dass es eine gute Matrix wird. Ich hoffe, die Roboter sind genädigt zu uns. Ja super,
00:26:10: ich würde sagen, wir können die Folge hier beenden. Ich habe so ein bisschen die Befürchtung,
00:26:14: dass diese Folge vielleicht schon inhaltlich überholt ist, wenn wir sie veröffentlichen.
00:26:18: Ich glaube, wir werden noch mehr darüber lernen, wie Deep-Seek genau funktioniert,
00:26:23: was dahinter steckt, welche politischen Interessen dahinter stecken. Es ist,
00:26:27: glaube ich, gerade relativ spannend in den Open AI-Warrooms, wo sich über Monetarisierung
00:26:33: Gedanken gemacht wird. Auch da wird es irgendwann eine Antwort geben müssen. Und ich würde sagen,
00:26:38: wir bleiben dran und hören uns im nächsten Monat. Und dann, wenn nicht irgendwas wahnsinnig
00:26:46: spannend ist, passiert auch mal mit einem anderen, es wird wieder ein KI-Thema geben,
00:26:49: vielleicht auch mit zusätzlich noch einem anderen Thema, oder? Garantiert. Trump wird
00:26:53: sicher auch irgendwas machen. Gott sei Dank. Dann, vielen Dank, dass ihr auch diesen Monat wieder
00:27:00: dabei war. Ich hoffe, es war nicht zu viel KI, aber sei wie ehrlich, ihr denkt eh die ganze Zeit
00:27:04: drüber nach. Und ja, vielen Dank, Johannes. Und wir hören uns im Februar.
00:27:09: [Musik]
Neuer Kommentar