DeepSeek, DeepSeek und DeepSeek

Shownotes

404 Media zu DeepSeek und OpenAIs Copyright-Empörung: https://www.404media.co/openai-furious-deepseek-might-have-stolen-all-the-data-openai-stole-from-us/

Transkript anzeigen

00:00:00: Christian, was macht der Hype?

00:00:26: Der Hype ist gut ins Neue hergekommen und fängt jetzt an Mandarin zu lernen, glaube ich.

00:00:31: Das wird, glaube ich, immer wichtiger.

00:00:33: I4One greet our new Chinese Overlords im Bereich KI zumindest.

00:00:38: So sieht es aus.

00:00:39: Ich glaube, da sind wir auch direkt beim Thema.

00:00:41: Es wird eine KI-Folge.

00:00:43: Überraschend.

00:00:44: Wir warten immer noch auf die erste Folge ohne KI.

00:00:46: Irgendwann kommt sie.

00:00:48: Ich bin mir ganz sicher.

00:00:49: Aber jetzt ist erstmal viel passiert über die Weihnachtsfähigen

00:00:54: und die Zeit kurz danach, der Januar ist jetzt auch schon fast wieder zu Ende.

00:00:58: Und das Thema ist, glaube ich, Diepsik, oder?

00:01:00: Ich glaube, das wird heute der Kern der Folge sein.

00:01:02: Und was das mit Open AI macht und was das mit der Medienbranche macht, würde ich sagen.

00:01:08: Wo warst du als Diepsik-Geläuptur?

00:01:11: Ehrlicherweise, ich weiß nicht, irgendwo ist jetzt nicht so was, würde ich jetzt sagen.

00:01:17: Das hat jetzt so ein Level an Relevanz.

00:01:20: Aber es ist witzig, würde ich jetzt mal sagen.

00:01:25: So ist nach einem leichten Schaden Freude.

00:01:28: Also, Marc-Andresen hat es schon als den Sputnik-Moment bezeichnet.

00:01:32: Was war möglicherweise gar nicht so Falsches?

00:01:36: Das funktioniert halt nur, wenn ich wirklich sehr unbedingt hart diese Space Race-Metapher mit tragen will, weiter.

00:01:43: Ja, und wenn man den Systemkonflikt mit China so krass sehen möchte,

00:01:48: hat auf jeden Fall den Punkt, dass die amerikanischen KI-Firmen und Nvidia als Chiphersteller

00:01:55: gerade ziemlich am Routieren sind.

00:01:58: Vermutlich ähnlich wie es die NASA nach dem Sputnik-Moment war.

00:02:01: Ja, sagen wir mal so, das ist halt genau das Problem mit der Metapher.

00:02:04: Es funktioniert nur dann, hätte die NASA gesagt, es gibt nur eine einzige Art korrekte Art und Weise, Raketen zu bauen.

00:02:10: Und das ist unsere und plötzlich zeigen die Russen, dass es andere Arten gibt.

00:02:14: Deswegen soll die Metapher ist nett, die funktioniert, wenn ich weiter zum weißen Haus laufen will und sagen,

00:02:21: "Wir sind super wichtig, wir brauchen richtig viel Geld."

00:02:24: Sie funktioniert aber halt wohl, wenn ich die Realität anschaue.

00:02:29: Auch das, das stimmt auch, Project Stargate ist auch passiert, die Inauguration,

00:02:34: also Trump ist jetzt offiziell wieder präsent, auch das ist passiert seit der letzten Folge.

00:02:38: Und das ist, ich finde, eine ganz interessante Parallele zwischen Project Stargate und Deepseak

00:02:42: ist tatsächlich, dass ich auch bei Project Stargate ein paar Tage gebraucht habe,

00:02:47: bis ich aus den Informationen rauskristallisieren konnte, um was es eigentlich tatsächlich geht.

00:02:52: Weil ich dachte, bei Project Stargate tatsächlich zuerst auch die US-Regierung wolle 500 Milliarden investieren in KI.

00:02:59: Und erst später habe ich dann verstanden, dass es eine Initiative war, die es schon vorher gab,

00:03:04: wonach Oracle und OpenAI und andere 500 Milliarden in KI investieren sollen.

00:03:10: Und das ist ja auch das, was ich jetzt auch bei Deepseak und ich glaube es ist immer noch ein bisschen so,

00:03:15: vielleicht ganz kurz zur Einführung für alle, die es noch nicht mitbekommen haben,

00:03:20: was ich bei unserer Zielgruppe für Unwahrscheinlichhalter, aber trotzdem,

00:03:25: Deepseak ein neues, large Language Model aus China,

00:03:29: das ähnliche Werte in den ganzen Benchmarks erreicht, wie OpenAI's O1-Modell,

00:03:37: wie gut diese Benchmarks sind und was diese Benchmarks jetzt tatsächlich aussagen, mal dahin gestellt,

00:03:42: es erreicht auf jeden Fall ähnliche Werte in diesen Benchmarks

00:03:45: und angeblich das Ganze zu einem Bruchteil des Geldes, also anstatt über weit über 100 Millionen,

00:03:53: um das Modell zu trainieren, haben sie angeblich nur 5 bis 6 Millionen Dollar dafür auszugeben,

00:03:57: mit älteren Chips, also einer der Hauptkostenpunkte bei den KI-Modellen aus amerikanischer OpenAI-Sicht,

00:04:04: ist ja das, um immer besser zu werden oder gut zu sein, brauchst du eben diese gigantischen Mengen

00:04:09: an sauteuren spezialisierten Computerchips, die sich in den Video herstellt

00:04:14: und scheinbar ist es jetzt gar nicht so, weil die haben es halt viel billiger gemacht mit älteren Chips,

00:04:20: deswegen auch direkt der Aktienkurs von Nvidia massiv eingebrochen ist,

00:04:24: ich glaube der größte Wertverlust an der Börse jemals.

00:04:27: Und gleichzeitig, und vielleicht kannst du mir da ein bisschen auf die Sprünge helfen,

00:04:31: bin ich mir dann noch nicht so 100% sicher, weil zum einen ist es ja so bei DeepSync,

00:04:37: dass man gar nicht so genau weiß, wie viele Chips haben sie jetzt benutzt,

00:04:40: wie viel hat es tatsächlich gekostet, wie viel politisches Interesse steckt dahinter,

00:04:43: dass es so wenig Geld war.

00:04:45: Und zum anderen ja offenbar, und da kommen wir glaube ich später nochmal zu, weil es wahnsinnig lustig ist,

00:04:50: DeepSync ja offenbar ein Distillat von ChatGPT ist, also ChatGPT eines der Tools war,

00:04:57: das genutzt wurde, um dieses neue Modell zu trainieren.

00:05:01: Und wo ich mich dann frage, okay, fair enough, aber ChatGPT hat halt so viel Geld gekostet

00:05:07: und dann das neue Modell da draufzusetzen hat weniger Geld gekostet,

00:05:11: aber hätte das auch funktioniert ohne die Vorarbeit, die teure Vorarbeit, die OpenAI geleistet hat.

00:05:16: Also wie sehr traust du dieser Zahl von 5 Millionen für das Modell?

00:05:20: Ja, der Punkt ist an der ganzen Sache, ist so ein bisschen, I don't really care.

00:05:26: Also das ist so, ich meine bei diesen 5 Milliarden, da muss man dazu sagen,

00:05:31: die Kosten für die Chips sind da nicht mit drin, 5 Millionen oder 5,6 Millionen US-Dollars sind das,

00:05:36: sondern das ist reine, so viel Energie und Strom haben wir ausgegeben, um zu trainieren.

00:05:42: Also das ist reines Laufzeit sozusagen.

00:05:47: Da ist nicht Materialkosten mit drin, da sind jetzt auch nicht irgendwie die Arbeitskosten mit drin,

00:05:52: der Experten, die dieses Modell gebaut haben, da ist nicht irgendwie eventuelle Datenkosten drin

00:05:58: oder Lizenzkosten oder Aufbereitungskosten mit drin.

00:06:01: Genau, was eben gemacht haben, ist das Modell dann auch unter anderem

00:06:05: im Output von ChatGPT trainiert.

00:06:07: So, so ein, man kann da jetzt glaube ich rausgehen und sagen, na ja, wäre das gegangen.

00:06:16: Der Punkt ist, es ist im Großen und Ganzen relativ egal, ob es möglich gewesen wäre

00:06:21: oder ob es nicht möglich gewesen wäre, denn ja, das Modell ist jetzt open source

00:06:25: und damit ist halt eher der viel interessanter Aspekt,

00:06:29: an der Stelle weniger, wer war zuerst da oder wer hat jetzt recht,

00:06:33: sondern das untergräbt im Grunde die gesamte kommerzielle Logik von OpenAI

00:06:40: und das ist viel, viel wichtiger, finde ich, an der Stelle.

00:06:43: Total, das finde ich jetzt aber gar nicht so ein Widerspruch,

00:06:46: weil ich glaube, unabhängig davon, wie viel es gekostet hat,

00:06:49: durch dieses Narrativ, hey, ist es so viel billiger und es ist open source

00:06:52: und wir stellen es einfach so zur Verfügung.

00:06:54: Klar, das, was wir ja auch schon hier im Podcast auch schon mehrfach gesagt haben,

00:06:58: das macht es natürlich so gut wie unmöglich, dass die Investitionen, die in OpenAI

00:07:03: jetzt schon getätigt wurden, jemals in irgendeiner Form wieder reingeholt werden.

00:07:07: Definitiv.

00:07:08: Gleichzeitig finde ich das aber schon auch relevant,

00:07:11: die Frage, wie teuer ist es denn jetzt oder war es denn jetzt,

00:07:14: weil es scheint ja schon deutlich effektiver zu sein, also ich habe,

00:07:18: oder effizienter Entschuldigung, ich habe Posts gesehen von Leuten,

00:07:21: die das Ding auf einem Raspberry Pi gehostet haben.

00:07:24: Ich habe einen Hackingface-Engineer gelesen, der mal vorgerechnet hat,

00:07:29: dass du ein Tool um das Ding selber komplett zu nutzen in einem akzeptablen Speed

00:07:35: mit einer akzeptablen Token pro Sekunde rate,

00:07:38: ein Setup dafür kostet ungefähr 6000 Dollar, unter 6000 Dollar

00:07:42: mit einfach kommerziell erhältlichen Tools und Server-Dingern.

00:07:46: Du brauchst halt, ich glaube, 650 Gigabyte RAM oder irgendwie sowas,

00:07:50: das kostet halt ein bisschen Geld, aber ist jetzt nicht das Ende der Welt.

00:07:53: Und ich glaube, das macht zumindest das Argument, was wir ja als große KIS-Skeptiker

00:07:59: so ein bisschen immer hatten mit, okay, man kann damit irgendwie coole kleine Produkte bauen,

00:08:04: aber man kann damit kein Produkt bauen, das 5 Milliarden Dollar im Quartal verdient.

00:08:09: Die Frage bestätzt ich jetzt gar nicht mehr so sehr, sondern jetzt ist die Frage,

00:08:12: okay, wenn das Tool oder wenn die Technologie so einfach und günstig,

00:08:16: verhältnismäßig günstigstens anzuwenden ist, dann ist ja schon die Frage,

00:08:19: dann gibt es ja vielleicht schon Anwendungsmöglichkeiten, die sich monetarisieren lassen,

00:08:23: auch wenn es nicht, ob ein AIS-ChatGPT ist, oder?

00:08:26: Naja, ich meine, das ist ja genau der Punkt.

00:08:28: Wie viele Anwendungsmöglichkeiten gibt es, die sich monetarisieren lassen

00:08:32: und inwiefern ändert das die Rechnung?

00:08:34: Ich denke, das sind zwei unterschiedliche Fragen.

00:08:37: Ich glaube, es muss mal so ein bisschen, also ist Artikel in Bullet Points automatisiert zusammenfassen,

00:08:45: ist das ein Business Case?

00:08:47: So, ja, ich kann das jetzt günstiger machen. Cool.

00:08:51: Also ich glaube, an der Stelle muss man so ein bisschen vorsichtig sein.

00:08:54: Es gab halt schon davor große Probleme, damit sensible Business Cases zu finden,

00:08:58: die tatsächlich auch funktionieren, die tatsächlich auch nennenswert monetären Impact haben.

00:09:05: Jetzt kann ich das natürlich in Ticken anders rechnen, das löst aber das Problem 1 nicht oder auch nur bedingt.

00:09:11: Weil was natürlich DeepSieg nicht macht, ist tatsächlich besser sein.

00:09:16: Also das muss man ja auch dazu sagen, das ist im besten Fall das gleiche Modell,

00:09:20: oder ein ähnliches Modell, was immer noch die gleichen Probleme hat,

00:09:23: wie es ist unzuverlässig, es ist fragil,

00:09:27: es ist nicht deterministisch im Einsatz, es hat keinerlei Relation zu Wahrheit oder Lüge.

00:09:33: All diese Dinge wurden ja nicht geändert.

00:09:35: So, das heißt, klar, der Einsatz ist günstiger geworden.

00:09:39: Klar, ich kann das jetzt selber hosten, klar, ich kann mir meinen eigenen On-Premise-Server hinstellen

00:09:43: und das jetzt darin lassen und das macht mich auch sicher etwas unabhängiger von einem GPD oder OpenAI.

00:09:51: Es sorgt auch dafür, dass die Sachen, die ich da reinwerfe, natürlich datenschutztechnisch,

00:09:57: vielleicht sehr viel andere Dimensionen haben, weil wenn es mein Service ist, es wurscht.

00:10:02: Das ist nicht 100% wurscht, aber ich kann dann gleich sehr viel anders im Grunde reagieren.

00:10:08: Punkte sind nur, das löst das erste Problem nicht, dass ich überhaupt erst Use Cases brauche, für die ich es einsetzen kann.

00:10:16: Also ich sehe es insofern ein bisschen anders, weil ich bin total bei dir, ich glaube nicht,

00:10:21: nach wie vor nicht, dass uns das jetzt irgendwie näher an AGI ranbringt.

00:10:26: Also auch wenn jetzt OpenAI mit der ganzen Rechenleistung, die sie haben und den modernen Chips jetzt die Lösung von DeepSeed nimmt,

00:10:34: was ihr könnt, sie ist ja Open Source, und quasi sagt, okay, wir machen jetzt das Gleiche mit diesen Effizienzsteigerungen,

00:10:39: aber mit der ganzen Rechenleistung, die wir schon haben,

00:10:42: meinen ganzer Stand und was ich gelesen habe und wie ich das so wahrnehme,

00:10:47: ist es immer noch so, dass wir erreichen AGI nicht dadurch, dass wir an so eine Art LNM einfach nur mehr Daten und so was werfen.

00:10:54: Also grundsätzlich...

00:10:55: Ja, das ist ja genau der Punkt. Also das ist ja wieder ein sehr, sehr anderer Thematik, aber AGI ist ein Mythos.

00:11:01: Das ist eine Story, die sich die gesamte Industrie erzählt als der Endpunkt,

00:11:05: aber es gibt keinerlei empirische Anhaltspunkte, dass AGI überhaupt möglich ist

00:11:10: und B, dass diese Unternehmen überhaupt auch nur in die Nähe davon kommen.

00:11:14: Total.

00:11:15: Also das muss man auch noch dazu sagen, das ist ja alles nur eine Story, die sich die Leute erzählen.

00:11:20: Bin ich total dabei. Ich sehe trotzdem nur so ein bisschen, dass...

00:11:24: Ich finde, das ist ja gar an sich nichts Schlimmes.

00:11:26: Also ja, wir können darüber reden, was der Hype auslöst und so weiter

00:11:30: und wie diese Vision von AGI auch benutzt wurde, um quasi zu lügen.

00:11:35: Ich meine, selbst bei OpenAI wurde ja im letzten Jahr veröffentlicht, die Definition gegenüber Microsoft und AGI

00:11:41: ist ja nur, sie machen 100 Milliarden Umsatz und dann nennen sie es AGI.

00:11:44: Aber ich finde, es ist ja grundsätzlich bei einer neuen Technologie nichts Verwerfliches zu sagen,

00:11:49: okay, sie macht halt kleine Detailverbesserungen oder Detaillösungen möglich

00:11:55: und das finde ich jetzt schon, ist ja dadurch deutlich realistischer geworden.

00:11:59: Ich würde gleich am Schluss gerne noch ein bisschen dazu kommen,

00:12:01: dass wir da so eine Verschiebung sehen von weg von, hey, wir müssen die technologische Vorherrschaft erreichen

00:12:07: und es ist jetzt noch stärker in Richtung dahingeht, wo es meine Sachen zingelt,

00:12:11: nämlich in die Produktecke und UX-Ecke. Und was machen wir damit eigentlich?

00:12:15: Weil das jetzt eben einfacher möglich ist, auch Sachen auszuprobieren.

00:12:17: Die Startups oder die Leute, die damit Sachen gebaut haben, die bisher sehr abhängig waren von OpenAI,

00:12:22: wo wir auch immer gesagt haben, okay, ihr könnt das jetzt machen,

00:12:25: aber OpenAI wird die Preise irgendwann erhöhen müssen, lohnt sich das dann immer noch.

00:12:28: Die Frage stellt sich, glaube ich, jetzt gar nicht mehr so stark.

00:12:30: Würde ich gerne am Schluss noch zukommen, lassen Sie vielleicht aber jetzt ein bisschen schon damit angefangen haben,

00:12:35: einmal kurz in die Richtung, was bedeutet das für OpenAI?

00:12:37: Wir haben es schon angesprochen.

00:12:39: Ich sehe gerade jetzt, wenn Modelle, die so gut sind wie ChatGPT quasi gratis zur Verfügung stehen

00:12:44: und im Zweifelsfall noch besser werden, auch außerhalb von OpenAI,

00:12:49: die Microsoft kann die Investitionen abschreiben, oder?

00:12:52: Ja, ich denke, Microsoft hat ja immer noch investiert,

00:12:55: zumindest in die Infrastruktur zusammen mit OpenAI.

00:12:58: So gesehen, ich glaube nicht, dass sie es abschreiben können.

00:13:01: Ich denke, der Punkt ist einfach der, das macht ja Facebook schon länger mit ihren Lama-Modellen,

00:13:06: die sie ja auch OpenSource freigeben, ganz bewusst aus dem Grund,

00:13:10: dass sie versuchen OpenAIs Markt da im Grunde eigentlich zu untergraben.

00:13:15: Ja, selbst wenn das jetzt der Riesendurchbruch noch kommt

00:13:18: und jetzt irgendwie wir Super-KI's haben, die tatsächlich 100% korrekte Aussagen liefern,

00:13:23: jedes einzelne Mal, der Markt wird sehr, sehr anders aussenken.

00:13:27: Und OpenAI wird nicht in der Lage sein, eine Monopolstellung einzunehmen darin.

00:13:31: Und ich glaube, eine Monopolstellung ist der einzige Weg,

00:13:34: also quasi eine Killer-App finden, eine Killer-Anwendung finden und demonopolisieren,

00:13:39: ist ja eigentlich der einzige Weg.

00:13:41: wie sie die Kosten, die sie schon verursacht haben,

00:13:42: jemals wieder reinholen können. - Definitiv.

00:13:45: Insofern sehe ich auch nicht, wie Open AI nochmal rauskommt.

00:13:48: Ich möchte aber noch auf den Seitenaspekt reingehen.

00:13:51: Ich glaube, du fandest es vorhin schon lustig.

00:13:53: Ich finde es auch immer noch sehr lustig,

00:13:54: dass Open AI sie jetzt beklagt hat,

00:13:56: dass es ja eine Copyright Verletzung

00:13:58: und Verletzung ihrer Terms of Services wäre,

00:14:00: dass DeepSeek ihr Modell genutzt hat, um das zu trainieren.

00:14:04: Und das ist natürlich wunderbar ironisch,

00:14:07: dass Open AI halt genau das Gleiche gemacht hat,

00:14:10: mit dem geistigen Eigentum von Millionen.

00:14:12: Dass sie sich jetzt versuchen, darüber zu beklagen,

00:14:15: obwohl sie gerade ja noch in dem Lawsuit mit den New York Times,

00:14:18: die New York Times hat ja gegen Open AI geklagt,

00:14:20: weil Open AI ja ganz eindeutig Inhalte den New York Times benutzt hat,

00:14:24: um Chatty Pizzi zu trainieren.

00:14:25: Und in dieser Lawsuit argumentiert Open AI ja ganz explizit,

00:14:29: dass sie sagen, ja, es geht gar nicht anders.

00:14:32: Das ist fair use.

00:14:34: Und wir benutzen so viele Daten,

00:14:37: dass diese paar New York Times Artikel,

00:14:39: die wir da rein haben, im Endeffekt so unwichtig sind

00:14:41: für das gesamte Trainingskorpus,

00:14:42: dass wir dafür auf jeden Fall nicht bezahlen müssen.

00:14:45: Und dass Ihnen jetzt genau dasselbe passiert,

00:14:47: ist schon wahnsinnig lustig.

00:14:48: Extreme. Extreme.

00:14:50: Also, ja.

00:14:51: Ich habe hier einen, ich habe dazu einen Text gelesen,

00:14:54: von Four of Four Media.

00:14:55: Die sind tatsächlich ziemlich gut,

00:14:57: was zur Techberichterstattung angeht.

00:14:58: Ich kann es auch unten verlinken.

00:15:00: Und in diesem Text, ich möchte es einfach kurz zitieren,

00:15:02: er beschreibt auch genau,

00:15:03: dass ich gerade beschrieben habe mit dem Lawsuit.

00:15:05: Und er schreibt da nur,

00:15:06: ich zitiere wörtlich. I will explain what this means in a moment, but first ha ha ha, ha ha ha ha ha.

00:15:12: [Gelächter]

00:15:14: Ich gehe dann zwei Zeilen weiter mit "ha ha ha". Und dann mache er mit dem Artikel weiter. In so

00:15:19: fern auch das wird sicher nicht dazu führen, dass sie auf einmal ein besseres Standing in diesem

00:15:24: in diesem lawsuit haben, auch das ist also noch ganz interessant, was dann da eigentlich raus kommt.

00:15:29: Und es führt für mich dann aber wieder auf so ein bisschen zurück zu dem, was wir ganz einfach

00:15:32: besprochen hatten, so wenn du jetzt, wenn kleine Modelle oder günstige Modelle wie Deepseak die

00:15:39: Großmodelle irgendwie brauchen, um das zu trainieren, wie kriegt man dann eigentlich neue

00:15:43: Informationen in diese kleinere Modelle? Muss dann erst OpenAI wieder geupdatet werden,

00:15:47: damit die Kleineren sich alle dran trainieren können?

00:15:49: Ja, also das ist auch, ich müsste einfach nochmal reingemessen. Aber soweit ich es verstanden habe,

00:15:54: wurde das Modell nicht 100 Prozent trainiert, sondern ist ein OpenAI-Chachopity-Output,

00:16:00: sondern das Very Enforcement Learning. Also man hat das nochmal on top gesetzt sozusagen.

00:16:03: Der Punkt ist nur, das kannst du mit jedem anderen Modell genauso machen. Man hat einfach OpenAI

00:16:09: benutzt, weil Marktführer und die API-Rates relativ günstig sind.

00:16:14: Wir haben jetzt überhaupt mal gesprochen, super lustig, behalten wir im Auge. Wir haben über die

00:16:21: Technik gesprochen, soweit wir das können. Lass uns mal zu dem Kern des Ganzen kommen,

00:16:25: was ich eben schon so ein bisschen angesprochen hatte, nämlich was bedeuten,

00:16:27: dass jetzt eigentlich für Medien und für Leute, die im Medienbereich was mit KI machen.

00:16:32: Also ich finde schon, und du wirst mir sicher widersprechen, aber ich bin gespannt auf dein

00:16:36: Widerspruch, ich finde schon, dass jetzt die Leute, die tatsächlich was damit machen und sagen,

00:16:41: hey, ich habe jetzt hier halt irgendwie eine App gebaut, die dir beim Schnitt helft oder bei

00:16:45: Übersetzung sonst was, was diese klassischen Usescases dies ja schon gibt, die bisher halt

00:16:53: an OpenAI in den allermeisten Fällen irgendwie dran hängen, die das jetzt viel viel einfacher

00:16:57: machen können. Es wird viel mehr Leute geben, die auf einmal vielleicht damit experimentieren,

00:17:00: experimentieren können und viel mehr maßgeschneidete Lösungen. Und ich glaube, ist jetzt nicht gerade

00:17:06: erst die Stunde der Produktentwickler*innen, sag ich jetzt mal ganz allgemein, ich meine,

00:17:11: ich meine, dass in Häusern, ich meine, dass in Startups und so weiter und so fort, ist die jetzt

00:17:15: nicht eigentlich gerade erst gekommen, weil, also selbst bei so Themen wie UX oder sowas,

00:17:20: jetzt, wenn die Technik so allgegenwärtig wird, dann hast du ja schon einen Vorteil,

00:17:24: wenn du die beste UX machst und wenn das Ding einfach am besten aussieht und am einfachsten

00:17:27: funktioniert, am einfachsten in deinem Redaktionssystem geht oder was auch immer. Ich setze

00:17:31: nicht genau die Stunde dieser Produktleute eigentlich erst gekommen. Ja, total, weil wenn

00:17:36: wir eins wissen, ist das Redaktionssysteme sich durch glänzende UX-Leistungen auszeichnen.

00:17:41: Ja, ja, aber deswegen ist hier da Platz für Leute, die was Besseres bauen, zum Beispiel mit

00:17:46: KI. Ja, weißt du, der Punkt ist an der Stelle, ja, vielleicht tun wir uns, maybe, ich glaube,

00:17:50: der Punkt ist der, ich glaube, es wird sehr überschätzt, wie viel passiert, wie viele

00:17:55: Möglichkeiten es gibt und wie viel Use-Cases es tatsächlich auch an der Stelle gibt. Ja,

00:17:59: UX ist ein Thema, aber auch an der Stelle muss man ja auch sagen, ehrlicherweise. Ich habe

00:18:04: als Redaktion mein CMS und ich habe dann meine drei Button drin, aber das wird alles über den

00:18:08: Dienstleister eingebaut. Da habe ich als Redaktion in der Regel nicht so viel Spielraum drin. Ich

00:18:14: mache das vielleicht in Kooperation, aber es ist jetzt auch nicht so, es könnte ich von

00:18:17: heute auf morgen der Fix wechseln und das Konkurrenzprodukt nutzen. Ja, also ich werde

00:18:21: gar nicht so sehr an den Redaktionssysteme aufgehangen. Ich meine generell auch an die

00:18:26: Löse, von den Lösungen, die wir jetzt schon einige gesehen haben, wie gesagt auch im

00:18:30: Thema Schnitt und so weiter, jetzt gar nicht um die Redaktionssysteme angeknüpft, sondern

00:18:34: von mir ist einfach Teile der Tools, die halt Journalistinnen und Journalisten im Alltag

00:18:39: nutzen, dass es da jetzt wahrscheinlich irgendwie zu einer kleinen Explosion, wie auch immer,

00:18:46: von Möglichkeiten kommen wird. Also es ist auch einmal viel, viel mehr Tools gibt, die man

00:18:49: ausprobieren kann. Klar, viele davon werden sich nicht durchsetzen, das ist ja immer so,

00:18:52: aber dass die Möglichkeiten, dass viel, viel mehr entsteht und da vielleicht tatsächlich auch

00:18:57: wirklich viele nützliche Sachen dabei sind, die jetzt auch noch einfacher und weniger funktionieren,

00:19:01: die ist doch schon gestiegen, oder? Naja, ich glaube, das ist der Punkt, das sind der Stelle,

00:19:05: das haben doch alle Anbieter die letzten 18 Monate längst gemacht, irgendwelche Dinge

00:19:10: einzubauen. Klar, die können jetzt vielleicht ein bisschen günstiger anbieten, die können

00:19:15: vielleicht einfach auch ein paar mehr gehostete und Europa Funktionalitäten mit einbauen.

00:19:21: Ich bin so ein bisschen skeptisch, ob es da jetzt erst die riesige Explosion gibt, weil alle haben

00:19:27: die letzten 18 Monate damit verbracht, auf Teufel kommen raus, diese Sachen irgendwie zu integrieren.

00:19:32: Vielleicht bin ich da auch ein bisschen zu zynisch, aber ich sehe es nicht tatsächlich.

00:19:37: Also ich will auch gar nicht sagen, dass ich zehn Ideen im Kopf habe von Sachen, wo ich

00:19:42: sagen würde, hey, das geht jetzt, was es vorher nicht ging, aber ich habe doch schon irgendwie

00:19:47: das Gefühl, dass einfach die Möglichkeit, die Möglichkeit dasselbe zu machen,

00:19:52: allein dasselbe zu hosten und dass das Open Source ist und dass man sich selber auch daran

00:19:55: rum basteln kann, einfach dadurch, dass es sogar crowdsourced wird. Also einfach,

00:19:59: dass sich jetzt vielleicht Leute damit beschäftigen können, die sich vorher nicht damit beschäftigen

00:20:03: konnten und Leute jetzt an Teilen von dieser Toolchain arbeiten können, an denen sie vorher

00:20:07: vielleicht nicht arbeiten, weil vorher gab es ja immer diesen Spruch von dem Mode, also von diesem

00:20:12: Burggraben um AI. Ja, also der Punkt des Stairs ist ja nicht das erste Open Source-Modell,

00:20:18: das ist das erste Reasoning-Open Source-Modell, das ist wahrscheinlich der einzig große Unterschied

00:20:23: an der Stelle. Gut, und dass du lokal hosten kannst und dass du günstiger nachtrainieren kannst?

00:20:29: Du musstest, wir sind ein Podcast, Johannes King, du musstest mit, du sagst mit deinem Wort.

00:20:35: Ich weiß, ich habe gerade den Kopf etwas skeptisch geschüttelt, also Lama gibt es ja schon länger,

00:20:39: die Open Source-Modelle von Facebook, die ich ja auch hosten kann, die ich auch nutzen kann,

00:20:45: die sicher nicht auf dem gleichen Niveau mitspielen. Ich denke, was es halt vor allem zeigt und das

00:20:52: ist es denke ich, dass das einzig relevante ist, wird jetzt glaube ich nicht die große Tool Explosion

00:20:55: geben, weil viele dieser Möglichkeiten vorher schon gegeben waren. Ich denke wie gesagt,

00:21:00: der Punkt ist, hat eher es untergräbt gerade krass das Narrativ Amerikas und das untergräbt

00:21:05: krass das Narrativ, dass ein Open AI und ein Microsoft-Sichter zurechtgelegt haben und ein

00:21:10: Nvidia-Sicht zurechtgelegt haben, auf deren Basis im Grunde mehr oder weniger die gesamte Tech-Industrie

00:21:16: gerade ausgerichtet wurde, wo alle Investitionen reinfließen, wo irgendwie alle Blicke hingingen

00:21:23: und jetzt kommt ein kleines, scrappy chinesisches Start-up, da gibt es sogar ein Hedge Fund.

00:21:29: Wobei man das ja schon glaube ich ein bisschen anschrecken muss, genau, es kommt ja von dem

00:21:31: Hedge Fund, das ist glaube ich so wie ich das verstanden habe, ein bisschen einfach das Hobbyprojekt

00:21:35: des Hedge Fund Grunders gewesen, der also schon sehr, sehr reich und sehr, sehr etabliert ist.

00:21:40: Total. Das ist kein Garagen-Start-Up, das muss man schon sagen.

00:21:42: Nein, das ist kein Garagen-Start-Up, definitiv nicht, aber es zeigt halt trotzdem so,

00:21:45: "Hey, die Story, die ihr euch da erzählt, die ist nicht unbedingt korrekt und das ist jetzt auch

00:21:51: keine neue Kritik an der ganzen Sache." Man soll eben, gibt ja genügend Kritiker auch aus dem Feld,

00:21:58: die schon länger sagen, "Hey, dieses Skalieren funktioniert nur bis zum gewissen Punkt."

00:22:02: Und alles darauf auszurichten, weiter zu skalieren, wird nur begrenzt funktionieren.

00:22:07: Ergo, hier ist eine Bubble und was natürlich die Basik zeigt, ist ja, hier ist eine Investmentbubble.

00:22:13: Ich finde ich auch, ich habe jetzt die Namen leider gerade nicht parat, aber ich weiß auf jeden Fall

00:22:18: auch auf LinkedIn zum Beispiel, dass es da durchaus schon eigentlich die ganze Zeit Leute gibt,

00:22:22: die genau das mit diesem, es gibt eigentlich keinen Burggraben und es wird am Ende nicht an der

00:22:27: Technikhoheit oder der Verfügbarkeit von den Chips liegen. Die gibt es tatsächlich schon lange

00:22:31: und die können sich, glaube ich, wirklich sehr bestätigt fühlen, dass sie also die ganze Zeit

00:22:36: recht hatten. Definitiv. Mit dem, mit dem, was da passiert ist. Lass uns vielleicht zum Abschluss

00:22:42: noch eine ganz kleine Runde davon wegdrehen. Wir hatten das vor einigen Folgen schon mal kurz

00:22:47: angesprochen, wo wir so über Zukunftsvision und so was gesprochen haben, wenn die Blase jetzt

00:22:51: tatsächlich platzen sollte. Und es, es rauskommt, okay, wir können, wir können diese Technologie

00:22:56: nutzen für was auch immer, lass uns da nicht weiter darüber reden, ob man sie jetzt für was

00:23:00: sinnvolles Nutzern kann oder nicht. Aber sie ist irgendwie da, man kann sie nutzen und man braucht

00:23:04: dafür nicht diese gigantischen Datencenter, die schon gebaut wurden. Was machen die mit diesen

00:23:09: Datencentern? Die Nutzung von bestehenden Modellen noch günstiger machen, denn, dann hast du

00:23:14: Infrastruktur und du musst sie auch bedienen. Das heißt, die, die Kosten gehen immens nach unten

00:23:20: und ich werde die Sachen im Runde zu den Stromkosten nutzen können. Das ist die Konsequenz. Also ist ja,

00:23:27: wäre jetzt ja auch nicht. Also du meinst, dass sie quasi die Rechenleistung lieber dann für günstige

00:23:30: KI-Modelle verschleudern, als zu sagen, hey, we're cutting our loss. Nee, dass die Rechenleistung

00:23:35: einfach günstiger verkauft wird. Ich habe ein überangebot an Rechenleistung, dann, dass ich

00:23:41: irgendwie nutzen muss. Das heißt, die Konsequenz oder die Konsequenz wird halt sein, dass das mir

00:23:47: da weniger zu den Stromkosten, die ich Rechenleistung einkaufen kann. Und du meinst du jetzt für KI-Lösungen

00:23:52: speziell oder generell, also ich meine keine Ahnung, Amazon Web Services oder Microsoft, die das ja alles

00:23:56: auch im Rahmen ihrer Cloud-Dienste hosten, dass das dann auch für andere Use-Case in andere

00:24:02: Technologien geht, für die man sich Rechenleistung halt mietet oder ist das speziell für KI? So

00:24:06: deraus, ich denke, das kommt halt sicher darauf an, im Endeffekt ist GPU Cluster bzw. jetzt in

00:24:12: zwischen halt spezialisiertere KI-Chip Cluster. Das kommt darauf an. Also ich bin ja, ich bin

00:24:18: kein Experte, aber das sind ja alles Grafikkarten, diese, die wir da benutzen. Zum Teil. Vielleicht

00:24:22: wird dann doch der Durchbruch von Cloud Gaming irgendwann, das hatte ich vor allem von ja,

00:24:26: oder so schon mal als Theory, dass wenn das auf einmal so wahnsinnig günstig wird,

00:24:29: vielleicht können wir dann alle Videospiele streamen. GeForce, da ist ja eine Video auch dabei,

00:24:35: mit GeForce Now, mit diesen Sachen. Weil ich denke immer an diese Geschichte, die du mal erzählt

00:24:40: hast, mit dem das e-mail Spam ja eigentlich eine Folge des Platzens, der Dotcom-Blase war,

00:24:45: weil auf einmal im Silicon Valley Leute auf der Straße standen und Festplatten mit Kundendaten

00:24:49: verschleudert haben für Cent-Beträge. Und ich frage mich die ganze Zeit immer noch,

00:24:53: wenn diese Blase tatsächlich platzen sollte, was ist das Spam-Email-Equivalent zu dem,

00:24:58: was dann passiert, dass diese ganzen server, gigantischen Server-Farmen alle gebaut wurden,

00:25:02: die man mit denen man mit KI vielleicht nicht so viel oder kein Geld verdienen kann. Was macht

00:25:08: man damit stattdessen? Das finde ich immer noch eine interessante Frage und Cloud Gaming ist

00:25:12: vielleicht eine Theorie, aber ich weiß nicht, ob du noch eine bessere hast. Ich müsste darüber

00:25:16: nachdenken, tbh. Vielleicht nehmen wir das mal die nächste Folge mit. Ich finde das der

00:25:19: ganz interessant, was ist da noch, weil wie gesagt, das mit dem Cloud Gaming sage ich auch,

00:25:22: wie schon seit dem Jahr, und was besseres ist mir bisher auch noch nicht eingefallen,

00:25:25: aber da muss es ja noch was besseres geben. Kannst du mal DeepSig fragen? Ich könnte mal

00:25:28: DeepSig fragen, aber ja, es gibt ja noch andere Sachen, für die man Rechenleistung braucht,

00:25:33: habe ich mir sagen lassen. Also irgendwas brauchen wir die ganzen Dinger, ja. Und was da noch,

00:25:37: ob es da dann andere Möglichkeiten gibt und ob auf diesem Boden dann auch was Neues wachsen kann,

00:25:43: finde ich eine ganz interessante Frage. Die Matrix. Vielleicht die Matrix. Also ich meine,

00:25:49: das Ende der Matrix-Filme ist ja, dass sich jeder selber aussuchen kann,

00:25:52: ob er der Matrix wohnt oder nicht und "Hey, es ist ein Angebot", wenn man sich die Welt so anguckt.

00:25:58: Warum nicht? Das sollte optimistisch sein. Ja, es sollte optimistisch sein,

00:26:05: dass es eine gute Matrix wird. Ich hoffe, die Roboter sind genädigt zu uns. Ja super,

00:26:10: ich würde sagen, wir können die Folge hier beenden. Ich habe so ein bisschen die Befürchtung,

00:26:14: dass diese Folge vielleicht schon inhaltlich überholt ist, wenn wir sie veröffentlichen.

00:26:18: Ich glaube, wir werden noch mehr darüber lernen, wie Deep-Seek genau funktioniert,

00:26:23: was dahinter steckt, welche politischen Interessen dahinter stecken. Es ist,

00:26:27: glaube ich, gerade relativ spannend in den Open AI-Warrooms, wo sich über Monetarisierung

00:26:33: Gedanken gemacht wird. Auch da wird es irgendwann eine Antwort geben müssen. Und ich würde sagen,

00:26:38: wir bleiben dran und hören uns im nächsten Monat. Und dann, wenn nicht irgendwas wahnsinnig

00:26:46: spannend ist, passiert auch mal mit einem anderen, es wird wieder ein KI-Thema geben,

00:26:49: vielleicht auch mit zusätzlich noch einem anderen Thema, oder? Garantiert. Trump wird

00:26:53: sicher auch irgendwas machen. Gott sei Dank. Dann, vielen Dank, dass ihr auch diesen Monat wieder

00:27:00: dabei war. Ich hoffe, es war nicht zu viel KI, aber sei wie ehrlich, ihr denkt eh die ganze Zeit

00:27:04: drüber nach. Und ja, vielen Dank, Johannes. Und wir hören uns im Februar.

00:27:09: [Musik]

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.