Scarlett Johansson, AGI, Moonshots

Shownotes

Wetten werden noch angenommen: Wann schafft es das Hype Institut, eine Folge aufzunehmen, in der es nicht um KI geht? Today is not this day! Nach einer urlaubsbedingten APril-Pause sind Johannes und Christian zurück und sprechen über die neuesten Entwicklungen im KI-Bereich, über den Film "Her" und über Google, das sein Moonshot-Team einstellt - inklusive Jobangebot für die Google-Chefs!

Der NPR-Text zur Cause Johansson: https://www.npr.org/2024/05/20/1252495087/openai-pulls-ai-voice-that-was-compared-to-scarlett-johansson-in-the-movie-her

Der KI-Report des Media Lab Bayern: https://www.media-lab.de/de/research/ki-report/

Transkript anzeigen

00:00:00: [Musik]

00:00:21: Okay, herzlich willkommen zu einer neuen Folge des Hype-Instituts aus dem Medialab Bayern.

00:00:27: Wir hatten eine kleine Pause, ist es jetzt Mai, wir haben im April keine Folge aufgenommen.

00:00:32: Ich glaube, wir waren beide im Urlaub und viele andere Sachen zu tun mit dem Innovation Festival,

00:00:38: das im Juni stattfindet.

00:00:39: Jetzt sind wir wieder da und im nächsten Monat mutmaßlich auch und im Sommer müssen wir

00:00:44: mal schauen, ob es weitergeht mit Urlauben und wieder zu kommen.

00:00:47: Und ja, bei mir wie immer, Johannes Klingebild, schön dich vor dem Mikro zu sehen.

00:00:53: Ja, hi.

00:00:54: Wir haben einen Monat nicht aufgenommen.

00:00:55: Ich habe nicht das Gefühl, dass sich so wahnsinnig viel verändert hat.

00:00:57: Ich glaube, wir hätten eine sehr ähnliche Folge, wie wir sie jetzt irgendwie machen wollen,

00:01:01: auch im April aufnehmen können, weil es geht um KI, es geht viel um KI, habe ich das Gefühl.

00:01:08: Weiterhin.

00:01:09: Wir haben ein paar KI-Themen irgendwie dabei, ein bisschen was zu Google, glaube ich, auch

00:01:13: zu dem Moonshock-Team von Google, das wir ansprechen wollen.

00:01:17: Aber ja, es ist doch wieder einiges passiert, auch gerade im Bereich OpenAI und ich meine

00:01:23: jetzt damit nicht mal unbedingt GPT4OMNI, sondern mehr so ein paar Business-Sachen, die irgendwie

00:01:29: drumherum passiert sind.

00:01:30: Was war denn da aus deiner Sicht das Spannendste in den letzten Wochen, Johannes?

00:01:35: Das Spannendste.

00:01:36: Ich glaube, das kommt so ein bisschen darauf an, wie man spannend definiert.

00:01:41: Also persönlich, muss ich sagen, aber das legt wahrscheinlich einfach an einem Overload

00:01:44: an KI-Themen.

00:01:45: Ich finde, ich finde sehr viel spannender, was bei Google gerade passiert.

00:01:48: Was nicht mit KI zusammenhängt dazu, also das Moonshock-Thema.

00:01:52: Ansonsten, ich weiß nicht, wo soll man anfangen, von OpenAI schafft es schon wieder verklagt

00:02:00: zu werden, diesmal von Scarlett Johansson.

00:02:04: Ja, ich glaube, sie hat gesagt, da sind wir beim ersten Thema, ich glaube sie hat gesagt,

00:02:07: dass sie erst mal keine, sie ist hier strebt, erst mal keine Klage an, wenn ich das richtig

00:02:11: verstanden habe.

00:02:12: Aber vielleicht, wenn wir damit anfangen, fragen wir uns doch nochmal auf den selben

00:02:16: Stand, was da genau los war mit Scarlett.

00:02:18: Was ist das?

00:02:19: Deiner guten persönlichen Freundin Scarlett Johansson.

00:02:20: Ja, genau.

00:02:21: Wir haben letztens beim Kaffee drüber geredet.

00:02:23: Es ist ehrlich aber so ein bisschen kompliziert, weil natürlich jetzt hat nicht alle Sachen

00:02:29: irgendwie auf dem Tisch liegen.

00:02:30: Aber Hintergrund ist einfach der, oder Hintergrund ist der, dass OpenAI ein Voice Interface,

00:02:38: also OpenAI hat sich entschieden, wenn man jetzt auch eine Alexa, und packen ein Voice

00:02:42: Interface an interaktives auf JudgePT drauf.

00:02:46: Und um eine Stimme dafür auszusuchen, ist ein bisschen unklar, wie das dazu kam.

00:02:52: Es gibt jetzt inzwischen sehr viele verschiedene Varianten.

00:02:54: Eine davon ist, aber was sicher ist, dass OpenAI Scarlett Johansson zweimal kontaktiert

00:03:02: hat, mit der Frage, ob sie das nicht übernehmen will.

00:03:05: Denn anscheinend hat es…

00:03:06: Bist du also, ob sie ihre Stimme dafür benutzen dürfen?

00:03:09: Genau, ob sie ihre Stimme dafür benutzen dürfen, ob sie das eben einsprechen will.

00:03:13: Und anscheinend hat Sam Altman eine kleine Obsession mit dem Film "Hör", wo sie eben

00:03:20: auch die Rolle einer KI-Assistentin spielt.

00:03:24: Und sie hat beide Male abgelehnt.

00:03:27: Und in der Öffentlichung oder in der Demo-Video war die Stimme dann doch überraschend nah

00:03:36: an der von Scarlett Johansson dran.

00:03:38: Und das ist halt insofern problematisch, weil, naja, also aus rein rechtlichen Gründen

00:03:44: ist es halt so, dass das, glaube ich, das recht am eigenen Bild, bzw. recht an der eigenen

00:03:48: Stimme, dass wenn ich allein schon die Intention zeige, deine Stimme zu verwenden, ich habe

00:03:54: Absage, ist es tatsächlich auch nicht legal, jemanden zu nehmen, der eine ähnliche Stimme

00:04:00: hat oder der in der Lage ist, die Stimme zu emittieren.

00:04:03: So, das ist halt sogar dieses rechtliche Problem.

00:04:05: Was natürlich ein wundervolles Futter für all die Leute ist, mich eingeschlossen, die

00:04:10: da meinen, sind das Open AI, sehr wenig Rücksicht auf Künstler, Kreative gibt, Urheberrecht

00:04:19: auch nicht unbedingt Interesse hat, irgendwie zu wahren, sondern da meinung ist, sie können

00:04:23: da einfach durchwalzen.

00:04:25: So gesehen, ich hoffe sehr, dass Scarlett Johansson sie tatsächlich am Ende verklagt.

00:04:30: Also, man kann vielleicht mal so sagen, genau zum einen, was du sagst, das habe ich auch

00:04:33: gelesen, dass es da auch vor KI schon vergleichbare Fälle gab, wo für irgendwelche Werbungen,

00:04:39: irgendwelche Firmen, prominente angefragt hatten, sie nicht bekommen haben und dann

00:04:45: Stimmendubels genommen haben oder Leute, die so ähnlich klangen, was wie du gesagt hast,

00:04:48: wo sie dann auch verklagt wurden und verloren haben.

00:04:50: Also, dass das tatsächlich die Stimme da auch, zumindest im amerikanischen Rechtsbereich,

00:04:56: in dieses Recht am eigenen Bild, sag ich mal, einen weiteren Sinne, ich glaube im Englisch

00:04:59: haben sie irgendwie gesagt, own likeness, mit der eigenen Ähnlichkeit irgendwie so, dass

00:05:06: das durchaus ein bekannter Fall ist, dass auch durch KI nichts Neues passiert ist.

00:05:09: Und man sollte der Fairnessherber vielleicht noch sagen, ich glaube zuerst war die Berichterstattung,

00:05:13: dass sie dann einfach die Stimme von Scarlett Johansson quasi gegen ihren Willen synthetisiert

00:05:18: hätten und es halt bei KI-Stimme war, wo dann Openair aber gesagt hat, nein, sie hätten,

00:05:24: ist wie seit die normale Stimme einer anderen Schauspielerin, Voice Actorin, was auch immer

00:05:29: gewesen, die sie stattdessen genutzt hätten, was sie aber offenbar rechtlich dann auch

00:05:33: keine Rolle spielt, weil es ja zum einen öffentlich einsehbar so eben so ist, dass Sam

00:05:38: Altmann großer Fan des Films Hör ist und es eben auch nachweisbar ist, dass Scarlett

00:05:42: Johansson haben wollten und sie angefragt haben, weswegen sie da wahrscheinlich rechtlich

00:05:46: irgendwie einen schweren Stand hätten.

00:05:48: Aber genau mein letzter Stand war jetzt, was ich gelesen hatte, dass sie bisher nicht,

00:05:53: was sie nicht verklagen will, sie hat irgendwie öffentlich ihren Unmut bekundet, Openair hat

00:05:56: die Stimme auch wieder geändert bzw. diese Scarlett Johansson Version entfernt und das

00:06:02: könnte es gewesen sein.

00:06:03: Ich habe jetzt heute gerade im immer lesenswerten Gabelstey Newsletter von Ryan Broderick die

00:06:07: Verschwörungstheorie hier lesen, dass sie es vielleicht absichtlich so gemacht haben,

00:06:10: weil es natürlich ein großer PR-Stand war und Openair als die Platzhirsche, wie immer

00:06:15: natürlich auch am meisten von Regulierung profitieren würden, wenn es sie denn gibt,

00:06:19: als die Konkurrenz ausschaltet.

00:06:21: Weiß ich nicht, ob das eine sinnvolle Verschwörungstheorie ist oder nicht.

00:06:25: Nichtsdestotrotz, es wurde mal wieder sehr viel darüber geredet.

00:06:28: Gerade auch mit dem Start von Omni, vielleicht muss man es einmal dazu sagen, dass jetzt

00:06:33: eben die große Neuerung sein soll, dass es kein neues GPT-Modell, also die Fähigkeiten

00:06:38: sind wohl vergleichbar zu GPT4, aber eben jetzt mit Bildgenerierung und Voice-Commands

00:06:43: quasi in derselben Oberfläche, sodass man jetzt das GPT, das man schon kannte, auch

00:06:47: mit seiner Stimme prompten kann, es besser mit Bildern umgehen können soll, besser

00:06:51: Bilder generieren können soll.

00:06:52: Genau, also ich glaube, das ist um das zusammenzufassen, ich glaube, dass man zu GPT-Omnien

00:06:56: einfach sagen muss.

00:06:57: Das ist im Grunde, ist es UX, das ist nicht mehr und auch nicht mehr technisch unter der

00:07:02: Haube, es sind tatsächlich ein paar UX-Verbesserungen.

00:07:04: Was ich neu denke und das ist das Wetter finde ich, das Interessante ist ein Verschwörungstheorie.

00:07:08: Ich glaube, manche Leute haben echte Schwierigkeiten damit nicht zu glauben, dass jemand wie Sam

00:07:13: Altman oder Alan Musk-Engineer ist und das alles also geplant sein muss und ich glaube,

00:07:18: daher kommen die einfach und das ist hier definitiv nicht der Fall.

00:07:22: Ja, ich wollte es auch nur weitergeben, ich glaube, Ryan Blowregins auch nicht so ganz

00:07:26: ernst, es ist ja auch ein oft humoristischer Newsletter.

00:07:30: Was ich noch ganz interessant fand, bevor wir vielleicht zu einem verwandten Thema kommen,

00:07:34: was ich nämlich spannend fand, im Zuge dieser UX-Verbesserungen und im Zuge dessen, dass

00:07:38: quasi Services, die bisher verschiedene KI-Anwendungen waren, nämlich einmal irgendwie Voice Interfaces

00:07:44: zusammen mit ChatGPT, zusammen mit Bildgenerierung usw.

00:07:47: Ja, eigentlich so ein bisschen in der Hand von kleineren Startups waren, die diese Rapper

00:07:53: gebaut haben, aber dazu vielleicht gleich.

00:07:55: Ich wollte nur ein lustiges Titbit, das mir aufgefallen war, der Artikel, den ich dazu

00:07:59: gelesen habe zu dem ganzen Thema ist von NPR, also National Public Radio aus den USA, den

00:08:03: kann ich gerne nach unten verlinken.

00:08:04: Und was ich da nur eine lustige Anekdote fand, ist, dass in diesem Artikel sind natürlich

00:08:10: automatische Artikelvorschläge dran, wie man sie von zwischen den meisten Medienseiten

00:08:15: kennt, wo automatisiert, ich vermute automatisiert, ich weiß, ich kenne es auch noch aus meiner

00:08:20: eigenen Arbeit bei großen deutschen Medienhäusern, das wurde ja auch oft manuell gemacht, also

00:08:25: diese Empfehlungen unter dem Artikel wollen Sie nicht noch mehr lesen, dass die manuell

00:08:29: gesetzt wurden.

00:08:30: Es gab aber auch schon sehr, sehr lange, bevor dem KI-Hype natürlich Möglichkeiten

00:08:33: haben, das automatisiert zu machen, die jetzt immer mehr sophisticated werden.

00:08:36: Und auch bei NPR.com gibt es eben diese Empfehlungen neben dem Artikel, das könnte Sie auch interessieren,

00:08:44: vielleicht durch KI ausgewählt, vielleicht auch nicht, wenn es durch KI ausgewählt wäre,

00:08:47: fand ich es sehr lustig, weil einer der Artikel, der neben diesem doch recht kritischen KI-Artikel,

00:08:53: der sich mit dieser Scarlett Johansson Geschichte auseinandersetzt, wird eben ein Artikel empfohlen

00:08:57: über den Rapid Air One, das ist diese kreischend-orange KI-Box, die angeblich mit KI so Dinge wie

00:09:04: Essen bestellen, Uber bestellen und sie machten das ein Large Action Model, also quasi KI

00:09:10: tatsächlich in der echten Welt zum Einsatz bringen wollte und dann sehr, sehr schlecht

00:09:13: reviewed wurde.

00:09:14: Aber der Artikel, der da eben automatisiert verlinkt wird, heißt First There Were AI Chatbots,

00:09:20: Now AI Assistance Can Order Ubers and Book Vacations.

00:09:23: Und wer sich jetzt denkt, Moment mal, aber das stellt sich heraus, dass das Ding all diese

00:09:26: Sachen überhaupt nicht konnte, ja, der Artikel ist halt aus dem Februar.

00:09:30: Und damit vor dem Launch des Rapid Air 1, wo der Artikel aber noch sehr davon ausgeht,

00:09:35: oh, dieses Gerät wird all diese Dinge können.

00:09:37: Und sehr, sehr stark auf den Hype fokussiert es und sehr, sehr stark auf die Kommunikation

00:09:42: der Firma, die den Rapid Air 1 zu dem Zeitpunkt gerade entwickelt hat und dann verkaufen

00:09:47: wollte und ich glaube gekraut fundet hat.

00:09:48: Nein, nicht gekraut fundet, aber die hatten einen Pre-Sale und haben tatsächlich ausverkauft.

00:09:54: Pre-Sale, genau.

00:09:55: Und der Artikel, der eben noch, der damals in Februar ein ganz normaler, in Anführungszeichen

00:09:59: KI Artikel war, weil er eben über die ganzen grandiose Fähigkeiten spricht, die der Rebel

00:10:04: Air 1 haben sollte, der aber jetzt halt keine vier Monate nach Veröffentlichung halt schon

00:10:10: komplett überholt ist, weil sie rausstellte, dass nichts davon stimmte.

00:10:13: Und du mit dem Rebel Air 1 kein Uber bestellen kannst und kein Pizza bestellen kannst und

00:10:18: nicht mal eine KI dahinter steckt, wie man jetzt hört, und die Firma auch noch vorher

00:10:21: so Crypto NFTs Games gemacht hat.

00:10:23: Das fand ich mir sehr, sehr lustig, dass neben dem guten kritischen KI Artikel automatisiert,

00:10:29: verlinkt, ein super, super unkritischer KI Artikel steht, der wunderbar zeigt, wie viel

00:10:34: von der Berichterstattung darüber sich von diesen Hype-Zeugeln weiten lässt.

00:10:38: Ja, beziehungsweise, wo du dann einfach wirklich nur das Marketing dieser Unternehmen kopierst.

00:10:43: Also ich meine, ich hab's gerade ge-googelt nebenbei.

00:10:45: Alexa ist tatsächlich im November vor zehn Jahren rausgekommen und diese ganzen Sachen

00:10:52: Uber bestellen, Pizza bestellen, das konnte Alexa mit dem Launch vor zehn Jahren auch

00:10:58: nicht perfekt im Gegenteil, aber definitiv deutlich besser ist, was der Rebel Air 1

00:11:05: präsentiert hat, dann ein bisschen was nicht präsentiert hat, aber wie sich herausgestellt

00:11:08: hat in einem Einsatz.

00:11:09: So gesehen, es ist schon ein bisschen interessant, wie auch da vielleicht so diese, diese ahistorische

00:11:16: Dimensionen, die da immer wieder mit schwingt.

00:11:18: Alles ist neu und alles ist nie da gewesen, stellt sich aber raus.

00:11:22: Eigentlich gibt's so was schon seit zehn Jahren ein Gerät, das das genau schon kann.

00:11:26: Wobei, also ich muss gar nicht sagen, ich kenne niemanden, der Alexa oder Google Home oder

00:11:32: sowas für sowas nutzt, beziehungsweise schon mal genutzt hat, das sind eigentlich nur

00:11:35: Timer und Spotify-Entgeräte, in denen Anwärts-Szenarien, die ich kenne, aber das, das fühlt mich auf

00:11:41: dem Punkt, was ist eigentlich aus diesem Google-Produkt geworden, das es mal geben sollte, wo siehst,

00:11:46: dass du auch zum Beispiel Essen bestellen kannst bei Restaurants, die gar nicht auf den entsprechenden

00:11:51: Apps sind, wo du dann einem Sprachassistenten, dem Befehl gibt's da Pizza zu bestellen, der

00:11:56: Sprachassistent, damit eine Roboterstimme für dich bei diesem Laden anruft, den hast

00:11:59: du dich da dran noch.

00:12:00: Ja genau, das war mal große Demo, ne?

00:12:02: Genau, aber was ist da drüber geworden?

00:12:04: Soweit, ich weiß nichts.

00:12:05: Ich hab da auch nie wieder was davon gehört, ist eigentlich interessant, weil das geht ja

00:12:09: voll in die Richtung eigentlich auch und ist eigentlich eher verwunderlich, dass selbst

00:12:13: mit den Apps, wo du API-Smoot maßlich hast, ob es jetzt Fedora, Uber, Eats oder sonst was

00:12:18: ist, dass es trotzdem noch nicht funktioniert.

00:12:20: Ja, ich glaube also das Problem ist halt, dass ich diese, diese, diese Übersetzungsleistung

00:12:25: von menschlicher Sprache in strukturierte Befehle an der API geben, halt schwieriger

00:12:32: ist, gerade in EdgeCases deutlich schwieriger ist, als angenommen.

00:12:37: Also allein schon dieses Pizza bestellen.

00:12:39: Alexa bestell mir mal eine Pizza, wird nicht funktionieren.

00:12:42: Muss sehr genau die richtige Reihenfolge der Wörter wie ein Zauberspruch aufsagen und

00:12:46: dann hoffen, dass ich auch richtig verstanden werde, nicht nur schüllen, nicht so weit weg

00:12:50: vom Gerät sein und dann wird das wahrscheinlich irgendwie vielleicht möglicherweise funktionieren.

00:12:55: Und ich glaube, das unterschätzt man immer wieder, dass unterschätzen auch viele Leute,

00:13:01: die diese Tools bauen und das unterschätzen auch viele der Leute, die diese Demos sehen

00:13:07: und allein auf Basis einer perfekten Demo und oft ja auch eine inszenierten Demo dann

00:13:13: extrapolieren.

00:13:14: Wohin geht die Reise?

00:13:16: Was kann das denn alles?

00:13:17: Also es gibt so diese Fantasieweltetechnologie und es gibt halt die reale Welttechnologie,

00:13:23: in der ich halt für jeder Meldung in Kriegel, in der Dinge zusammenbrechen, denen mein Internet

00:13:27: ausfällt, in denen das Mikro kaputt geht, in denen die APIs Down Times haben und so weiter

00:13:32: und so fort.

00:13:33: Und man bewegt sich gerne auf dieser Fantasie.

00:13:36: Aber wir vermischen das so ein bisschen.

00:13:37: Ich weiß, wir bewegen uns gerade weg von einem Thema.

00:13:38: Was ist ein cooles Thema?

00:13:39: Ich kann damit lange drüber reden.

00:13:40: Nein, nein, nein, das ist total okay.

00:13:41: Wir vermischen die zwei Themen, die ich dachte, ich dachte, wir machen sie getrennt, aber

00:13:44: das ist ja kein Problem.

00:13:45: Nämlich diese eigentlich so ganz generell GPT4 Omni plus diese Rapper und diese Agents.

00:13:51: Ich würde da vielleicht nochmal gerne explizit drauf kommen, aber vielleicht ein Punkt

00:13:55: zu dem, was du sagst, was total nachvollziehbar ist.

00:13:58: Dinge, die für Menschen einfache Instructions sind oder einfache Nachfragen prompten würden,

00:14:04: sind für Technologie sehr schwierig.

00:14:05: Aber mir ist dann durch Zufall doch aufgefallen, dass der große Skeptiker Johannes Klingebiel,

00:14:10: du hast auf LinkedIn einen Postgeleit von, ich glaube, Peter Bier, kann es sein, der

00:14:15: von seinen sehr positiven Erfahrungen mit GPT4 Omni berichtet und ich glaube da, dass

00:14:21: das Protoinlassprodukt von USA und Deutschland vergleichen lässt und sich das als Grafik

00:14:27: ausspucken lässt und sich das interpretieren lässt und gerade sagt das, hey, das ist

00:14:32: ein super komplexes Set von Instructions und sagt, dass das sehr gut funktioniert.

00:14:36: Hast du Omni schon ausprobiert?

00:14:37: Löst das diese Probleme vielleicht so ein bisschen?

00:14:39: Naja, der Punkt ist halt, ich werde das ein bisschen vorsichtig zu sagen, dass du löst

00:14:43: die Probleme, denn es ist de facto GPT4, also GPT4 unter der Motorhaube.

00:14:50: Das heißt, da ist tatsächlich kein neues wirkliches Modell drunter.

00:14:54: Das heißt, das ist im Grunde das gleiche Modell.

00:14:56: So gesehen.

00:14:57: Aber auch irgendwas scheint ja bei der Umwandlung von "Ich gebe mit Sprache einen Befehl"

00:15:02: Umwandlung in einem Prompt mit dem, ein automatisiert Umwandlung in einem Prompt mit dem Chat GPT offensichtlich

00:15:07: ganz gut was anfangen kann, scheint ja zumindest in diesem einen Beispiel für Peter hat es

00:15:11: ja scheinbar ganz gut funktioniert.

00:15:13: Ja, total.

00:15:14: Also das ist auch spannend und ich meine, dazu muss man ja sagen, denn oben in der Eier hat

00:15:18: ja Whisper im Hintergrund laufen, das ist der Transkriptionsalgorithmus, der verdammt

00:15:25: gut ist.

00:15:26: Muss man ehrlicherweise wirklich sagen, also ich habe noch nie so solide Transkriptionen

00:15:29: auf dem Rechner gehabt, man kann das dem noch offline laufen lassen, so.

00:15:32: Das ist cool.

00:15:33: Das ist richtig cool.

00:15:35: Das wird da auch im Hintergrund laufen und was sichert Chat GPT deutlich besser kann,

00:15:41: als ein Alexa und vielleicht auch ein Rabbit Air One, ist halt eben mit so Fuzzy Eingaben

00:15:47: umzugehen.

00:15:48: Auch nicht perfekt, so muss man leider auch dann wieder dazu sagen, es wird auch trotzdem

00:15:53: seine Probleme weiterhin haben, aber dass das definitiv funktioniert und vielleicht auch

00:15:57: besser funktioniert, ja voll.

00:15:59: Bei aller Kritik, die ich auch immer wieder anbringe, das sind coole Werkzeuge.

00:16:03: Man kann damit viel tun.

00:16:05: Ich wäre so ein bisschen vorsichtig eben auf der Basis von zwei, drei Interaktionen, einem

00:16:10: Demo-Video zu extra polieren, dass das jetzt so revolutionär ist, wie manche Leute es

00:16:17: vielleicht gerne hätten.

00:16:18: Das ist auch die Kritik, die ich immer wieder anbringe so.

00:16:21: Dafür ist die Datenbasis einfach nicht gegeben, muss man ehrlich und wahrlich so sagen.

00:16:26: Wenn es auf jeden Fall wenn es tatsächlich dann so funktioniert, finde ich insofern ganz

00:16:28: lustig und frage mich, ob die Prompt Engineers jetzt dann auch alle auf Sprache umsatteln

00:16:34: und wir dann doch wieder bei den richtigen Zaubersprüchen sind, die man lernen muss,

00:16:38: um dann per Sprache richtig zu prompten.

00:16:40: Aber dann lass uns doch mal und wir hatten jetzt schon so ein bisschen darüber gesprochen,

00:16:44: aber dann lass uns doch mal explizit einen Schritt weitergehen zum zweiten sehr verwandten

00:16:48: Thema und zwar zu dem Thema, für was nutzen wir das Werkzeug eigentlich, was machen wir

00:16:52: damit?

00:16:53: Wir hatten jetzt gerade schon darüber geredet Tools, was macht man eigentlich damit?

00:16:57: Ich hatte Omni schon so beschrieben, dass da verschiedene bisher getrennte Anwendungen

00:17:02: zusammenfließen und ich erinnere mich, als wir den KI-Report geschrieben haben fürs MediaLab,

00:17:07: ich kann den unten nochmal verlinken, hatten wir ja mit vielen Startups gesprochen, die

00:17:11: auch alle keine eigenen LLMs entwickelt haben, sondern eben auf bestehende LLMs aufsetzen,

00:17:18: also in Form von AI Rapper oder AI Agent, also Rapper nicht Kendrick Lamar, sondern mit

00:17:23: W, also Rapper, Umschlag oder Box, um die, quasi die Anwände verpackt und in eine bessere

00:17:30: UX um eine klare Anwendungsfeld geist.

00:17:33: Und wir haben dieses Startups, die auch gefragt, hey, cool, dass euer Startup ist kann und

00:17:38: cool, dass ihr diese Veränderungen an den Modellen vornimmt und diese Modelle so anpasst,

00:17:41: dass das am Ende für euch funktioniert, habt ihr nicht Angst davor, dass wenn ChatGPT

00:17:46: entsprechend besser wird und besser wird, dass das diese Aufgaben nicht sowieso erfüllt.

00:17:50: Und viele von den Gründerinnen und Gründern waren da sehr selbstbewusst.

00:17:55: Ich erinnere mich an Summ.ai, mit dem wir gesprochen haben, die dieses Übersetzungstool haben,

00:17:59: mit KI Texte leichte Sprache zu übersetzen, die meinten, was wir da an Nachttraining machen,

00:18:04: ist so spezialisiert und arbeitet halt wirklich mit Trainer*innen für leichte Sprache und

00:18:10: Expertin*innen zusammen.

00:18:12: Klar könnte OpenAI das auch machen, wenn sie wollten, aber es gibt für sie eigentlich

00:18:15: keinen Grund, das zu tun.

00:18:17: Weswegen GPT immer diese breiten Anwendungen bleiben wird und sie eben eine Spezialisierung

00:18:20: draus machen, was so ungefähr auch die meisten anderen Gründerinnen und Gründer gesagt haben,

00:18:25: die eben auf ein large language Model aufsetzen.

00:18:27: Aber ich frage mich, wenn wir jetzt über diese Werkzeuge reden, wo glauben wir denn, dass

00:18:32: die Reise hingeht?

00:18:33: Also ist es wirklich so, dass die Großen irgendwann doch alles fressen, zumindest für

00:18:38: die meisten Anwendungsfälle oder diese Verpackungen, die es jetzt gerade gibt in vielen Startups,

00:18:44: für den Grundungen halt einfach nur eine Zwischenschritt sind?

00:18:47: Oder wird es weiterhin den Nied für diese spezialisierteren Anwendungen geben?

00:18:52: Und die Frage ist auch so ein bisschen in deiner Richtung, weil du da normalerweise sehr gut

00:18:55: informiert bist.

00:18:56: Es gibt ja eh diese Kleineentwicklung, die sagt, wie kriegen wir es eigentlich hin, KI-Anwendungen

00:19:00: auch lokal zu hosten, dass man eben nicht die ganze Zeit die großen Modelle prompten

00:19:03: muss und so was?

00:19:04: Oder ist das dann der Weg, wo es hingeht, dass man sagt, okay, ja, GPT wird cool, das kann

00:19:08: viel, aber für diese kleinen Anwendungen, die ich mobil nutzen will etc., bringt es

00:19:12: mir eigentlich nicht so viel.

00:19:13: Ist eine gute Frage.

00:19:14: Und ehrlicherweise, wenn das zum Moment, wo ich sagen würde, hey, lass nochmal die Summai-Eigründe

00:19:18: fragen und genau diese Fragen stellen und deren Einschätzende zu holen, weil ich glaube,

00:19:23: die könnten das deutlich besser nochmals ich das jetzt kann.

00:19:25: Ich meine, so ein bisschen gefragt haben wir sie ja.

00:19:27: Ich denke jetzt nicht nur an Sie, sondern auch an die Bildbearbeitungstools.

00:19:32: Gut, die gehörten ja teilweise eh schon zu.

00:19:34: Die OpenAI, das war eh schon das gleiche.

00:19:37: Aber jetzt anderes Beispiel, diese ganzen audiogenerierte Audio, ist dadurch die Musik zum Beispiel machen,

00:19:44: SONA-AI oder sowas.

00:19:45: Ist das am Ende, sehen wir da so eine Monopolisierung, wie wir bei Social Media vielleicht auch gesehen

00:19:49: haben, dass du entweder irgendwann in der Versenkung verschwindest oder von OpenAI einfach geschluckt

00:19:53: wirst und deine Funktionalität integriert wird?

00:19:55: Oder gibt es da überhaupt eine Zukunft für AI-Anwendungen, die nicht direkt von OpenAI

00:20:01: kommen?

00:20:02: Oder von mir aus klart oder sonst was?

00:20:04: Also ich glaube, Punkt ist ein bisschen der.

00:20:07: Also grundsätzlich glaube ich, wir sind ein guter Moment mal so den, lass uns mal Zukunfts-Szenarien

00:20:12: Baukasten rauszuholen und das mal so durchzuspielen.

00:20:14: Deswegen, ich weiß nicht, ob man eine Antwort geben kann.

00:20:17: Ich glaube, man kann vielleicht so ein paar Variablen vielleicht mal aufzeigen.

00:20:20: Ich denke, Variabler 1 ist halt natürlich klar.

00:20:23: Man weiß nicht, wie sich die Tools weiterentwickeln und was die vielleicht noch können.

00:20:28: Ich glaube, dass das argumentär wir können das mit sehr spezifischen Trainings tatsächlich

00:20:33: auf einen Use Case sehr gut anpassen, definitiv korrekt ist.

00:20:37: Und wenn der Markt jetzt nicht groß genug ist, glaube ich auch nicht, dass ein OpenAI

00:20:42: zum Beispiel in Terrasse hätte das sehr gezielt abzugreifen, sondern so.

00:20:46: Es kann dann zwar durchaus passieren, dass das irgendwie zufällig damit reinrutscht,

00:20:49: zufällig ein größeresprachendelle diese Fähigkeit, eine anführenden Fähigkeit haben, aber das

00:20:56: ist nicht unbedingt gegeben.

00:20:57: Variablet 2.

00:20:58: Und ich glaube, das ist halt eher das größere Thema ist Geld.

00:21:03: OpenAI ist nicht profitabel.

00:21:05: Und ab einem gewissen Punkt werden die aber profitabel sein müssen.

00:21:10: Und angenommen zum Beispiel diese Modelle laufen zu lassen wird nicht nennenswert billiger,

00:21:17: muss das bedeuten, dass der Preis diese Modelle zu nutzen teurer wird, was dann wieder Konsequenzen

00:21:24: fürs Geschäftsummel hätte.

00:21:25: Also nur so.

00:21:26: runtergebrochen. Noch weiter runter geht. Die meisten dieses ist dieser Cluster.

00:21:32: Der Server-Cluster sind in der Regel auch irgendeiner von Monopolisiert.

00:21:38: Die gehören zu Amazon, die gehören zu Microsoft, die gehören zu...

00:21:42: Suche ich hier Cloud-Anbieter raus. Also große Cloud-Anbieter, Google zum Beispiel auch.

00:21:49: Und auch da ist so die Frage, welchen Punkt entscheiden die sich vielleicht auch zu sagen.

00:21:54: Da haben wir relativ viele Anwendungen und vielleicht können wir dabei ein Ticken mehr Geld verdienen.

00:21:58: Und dann hat man so ein Kaskarteneffekt im Pricing.

00:22:01: Alles nicht gegeben, kann auch in die andere Richtung gehen.

00:22:03: Das muss man sagen, wir haben effizientere Grafikkarten, effizientere KI-Chips oder neuronale Chips,

00:22:11: die eben spezifisch für solche Dinge gebaut werden.

00:22:14: Damit wird das auch billiger und energieeffizienter Sünden.

00:22:16: Ja, dazu, Amarande, ich habe es heute auch erst gelesen.

00:22:20: Ich glaube, der Aktienwert von Nivedia hat sich, glaube ich, vervierfacht.

00:22:24: Ja, genau.

00:22:25: Seit vergleichbarer Quartal letztes Jahr.

00:22:27: Schön für Nivedia, würde ich sagen.

00:22:29: So starke Kursanstiege, schon auch immer so ein bisschen blasig.

00:22:33: Aber schauen wir mal.

00:22:34: Das ist definitiv blasig. Also muss man ehrlicherweise sagen,

00:22:38: das hat alle Anzeichen einer Investmentblase.

00:22:43: Also so cool ist schön, aber man sollte nicht erwarten, dass das Wachstum in alle Ewigkeit weitergeht.

00:22:50: Und dann ist auch der dritte Punkt, wo die dritte Variable, die ich in den Spiel bringen würde,

00:22:54: sind die Open Source Modelle.

00:22:56: Und viele von den Sprachmodellen sind inzwischen sehr, sehr, sehr gut, auch die Open Source Modelle.

00:23:01: Inwiefern kann ich also einen GPT-4 zum Beispiel aus meiner Infrastruktur rausstreichen

00:23:07: und vielleicht eines dieser Modelle reinflücken oder reinklatschen

00:23:13: und das dann vielleicht auch selber laufen, das dann selber hosten.

00:23:16: Und ich glaube, dass es dann wo es eher interessant wird oder die strategischen Entscheidungen und Abwägungen,

00:23:23: die man da einfach treffen muss, da ist Gründer oder ist Gründerin.

00:23:26: Also wie viel meiner Infrastruktur kontrolliere ich tatsächlich?

00:23:30: Denkt das für sich zeigen über die nächsten Jahre auch, wie das weitergeht?

00:23:34: Ja, ich denke, ein guter Punkt ist auf jeden Fall, dass dachten,

00:23:37: was die, ob wir da nur mal so drüber gesprochen haben oder ob ein Mikrofon dabei lief.

00:23:41: Aber das ganze Thema mit, was ist eigentlich das Geschäftsmodell von Open AI

00:23:45: und wie passt es zu den Use Cases?

00:23:47: Du hattest es, das war auf jeden Fall im Podcast, mal so Single-Use-Plastic-Anwendungen bezeichnet irgendwie so.

00:23:53: Die Anwendungen, wo man GPT bisher bedenkenlos einsetzen kann,

00:23:57: sind nicht die Anwendungen, wo großes Geld drinsteckt,

00:24:00: sondern eben spaßig sind oder kleine Verbesserungen liefern

00:24:04: oder eben erst, dass man sie umprogrammieren kann oder neu weiter trainieren kann

00:24:10: für einen noch spezifischen Use Case.

00:24:12: Aber gerade bei Open AI ist das, wofür man das benutzt, ja offensichtlich noch relativ begrenzt.

00:24:19: Also lustigerweise, es gab hier mal, man quasi nicht beurteilen kann,

00:24:23: was man immer wieder hört, dass es ja doch offenbar beim Coding sehr, sehr stark hilft,

00:24:27: was natürlich schon ein riesen Thema ist, auch finanziell, Coder verdienen sehr, sehr gut.

00:24:32: Aber auch, zum Beispiel bei Beratungen, was ja auch nur so war,

00:24:37: bei der Rechercheb-Tie wird die Analyse und Business-Beratung so was,

00:24:40: wo dann Berater wenig überraschend festgestellt haben,

00:24:43: dass ich glaube, es war sogar McKinsey, die es getestet haben,

00:24:46: dass es bei allem, was irgendwie komplexer ist als der Hundefriseur um die Ecke,

00:24:50: die menschliche Leistung dann doch immer noch besser ist,

00:24:53: gut, das haben natürlich dann die Menschen von McKinsey auch so analysiert,

00:24:56: die weiterhin ihre Jobs haben wollen, die werden, die bei allen anderen,

00:24:59: wirk rationalisiert werden, aber das scheint hier bisher so zu sein.

00:25:03: Wo ist diese Balance zwischen, okay, das ist so nützlich, wie wir es irgendwie gerade machen können,

00:25:08: zu, dass es der höchste Preis, den wir dafür verlangen können,

00:25:10: und wo gerät es aus der Balance mit, okay, der Preis, den Sie jetzt verlangen müssen,

00:25:15: weil sich die Umstände geändert haben, weil der Druck von den Stakeholdern höher wird,

00:25:19: weil Sie selber bestiegene Kosten haben, zu dem Punkt, wo die Leute sagen,

00:25:23: ja gut, okay, also so viel ist es mir jetzt auch nicht wert.

00:25:25: Total. Und ich glaube, das wird für viele da eher langweilig,

00:25:29: aber das ist da, wo ich finde, wird es richtig spannend.

00:25:32: Wie sieht tatsächlich die Technologie-Adaption aus, on the ground?

00:25:36: Also wenn ich wegkomme von den shiny Demos und der Fantasie von Technologie hin zu,

00:25:42: okay, wie sieht sie dann tatsächlich im Einsatz aus, und wofür wird sie genutzt überhaupt?

00:25:46: Und wofür sind Leute bereit, dann zu bezahlen?

00:25:48: Genau.

00:25:49: So ist es so, hey, es erleichtert mir jetzt schon irgendwie, LinkedIn-Post zu schreiben,

00:25:53: sicherlich, aber bin ich auch wert dafür nicht mehr,

00:25:57: was kostet die Premium-Variante, 12 Dollar im Monat?

00:26:00: Ich glaube 20 Dollar im Monat.

00:26:03: 20 Dollar, aber okay, weil würde ich dafür auch 100 Dollar bezahlen für die LinkedIn-Post.

00:26:07: Und ich denke vielleicht nicht, oder vielleicht ist der Punkt auch bei 1000 Dollar oder bei 10.000,

00:26:12: das ist genau das, was ich mit der Balance meine,

00:26:14: und das wird, glaube ich, auf jeden Fall spannend zu sehen, wie es dann weitergeht.

00:26:18: Ja, voll. Ich freue mich sehr auf die Bücher oder die Paper, die das rückwirkend analysieren werden in zwei, drei Jahren.

00:26:25: Wir könnten, glaube ich, noch mehr darüber reden.

00:26:27: Ich hatte auch noch mal so aufgeschrieben, den Punkt, den Spanen uns vielleicht mal auf,

00:26:30: der ist auch sich am nächsten Monat noch relevant, so was macht das eigentlich mit SEO und mit Search?

00:26:34: Oh ja.

00:26:35: Ich habe Perplexity ein bisschen getestet, in den letzten Wochen war nicht beeindruckt,

00:26:41: einfach weil, es war halt oft nicht richtig, und es gibt dann zwar brav die Quellen an,

00:26:45: sagt aber trotzdem Sachen, die in den Quellen nicht drinstehen,

00:26:47: können wir vielleicht beim nächsten Mal darüber reden,

00:26:49: weil ich noch ein anderes KI-Thema hätte, und wir wollen ja auch noch kurz über Google reden.

00:26:53: Lass uns doch vielleicht kurz ins nächste Thema wechseln und einmal noch über Sicherheit reden.

00:26:59: Was gibt es bei der Sicherheit zu besprechen?

00:27:03: Es gab auch jetzt in der letzten Woche, glaube ich, also relativ aktuell,

00:27:06: wurde viel darüber gesprochen, dass das sogenannte Super-Alignment-Team von OpenAI

00:27:11: nicht mehr zu existieren scheint oder zumindest in sehr, sehr abgespeckter Form.

00:27:14: Viele Leute, die da drin federführend waren, haben es verlassen.

00:27:18: Was war das Super-Alignment-Team?

00:27:20: Das war ein Team in OpenAI, das speziell die Aufgabe hatte, die KI so vorzubereiten

00:27:25: oder die KI so zu entwickeln, dass wenn sie denn dann unweigerlich in den Status einer AGI,

00:27:30: also, wer wuft steht das auch nochmal, allgemeine künstliche Intelligenz?

00:27:34: Artificial General Intelligence.

00:27:36: Artificial General Intelligence, das ist es genau, das A ist klar, das G ist das Problem.

00:27:39: Ja, Artificial General Intelligence geht, dass sie dann uns nicht alle in die berühmten Büroklammern umwandelt,

00:27:45: sondern dass sie den Menschen irgendwie hilfreich ist.

00:27:48: Und dieses Team ist jetzt stark abgespeckt worden und viele Leute haben sich sehr große Sorgen darüber gemacht.

00:27:54: Und ich wollte mal deine Meinung dazu hören, weil meine Meinung so ein bisschen war.

00:27:58: Zum einen sind viele aus dem Super-Alignment-Team sehr involved mit dieser sehr sektenartigen

00:28:04: Effektiv-Ortrism-Bewegung, die ja quasi diese KI schon auf einen psoidoreligüsen Anspruch auf diese KI hat.

00:28:13: Natürlich sind die überzeugt, dass AGI irgendwann kommt.

00:28:16: Gleichzeitig gab es aber auch einen schönen Satz in einem Artikel, den ich gelesen habe,

00:28:20: der, ich zitiere einfach mal, the whole point of setting up the super alignment team was,

00:28:25: that there's actually different kinds of safety issues, that arise if the company is successful in building AGI.

00:28:31: A person with inside knowledge told me, so this was dedicated investment in that future.

00:28:36: Also, eine, dieses super alignment team als Investition in eine Zukunft,

00:28:39: in der es eine Artificial General Intelligence gibt, für die wir uns schützen müssen,

00:28:43: oder die uns wohlgesonnen sein sollte.

00:28:45: Und mein Gedanke war dann einfach, okay, was ist denn, wenn Open AI einfach erkannt hat,

00:28:49: dass das vielleicht ein Problem ist, dass sich auf absehbare Zeit nicht stellt

00:28:52: und dass sie deshalb auch die Investitionen in dieses super alignment team unterlassen können.

00:28:56: Wie siehst du das?

00:28:58: Ja, ich glaube, dass es gute Zeiten nochmal über den Menschen zwischen Fantasie und Realität zu sprechen in dem Kontext,

00:29:04: weil es gibt keinen Grund anzunehmen, dass Open AI auch nur schrittweise oder auch nur in der Nähe ist von einer General Artificial General Intelligence.

00:29:16: So, das ist genau dieses Problem.

00:29:18: Ich nehme so ein paar Datenpunkte, extrapoliere das dann in die Zukunft und nehme dann an, dass ich an den Punkt landen werde.

00:29:24: Aber es gibt keinen Grund, das zu glauben, muss man halt ehrlicherweise auch dazu sagen.

00:29:27: Auch viele zunehmende Größe oder Masse von KI-Forschern, Wissenschaftlern, wie man das auch immer nennen will,

00:29:37: sind inzwischen überzeugt, dass ich im Sprachmedia nicht wirklich der Weg dahin, nur weil ich da mehr Daten reinpacke

00:29:45: und mehr Rechenleistung, denn da heißt das nicht, dass ich das erreiche, also dass ich nur über reine Skalierung da irgendwie hinkommen kann.

00:29:52: Es gibt natürlich genügend Leute, die der Anderen Meinung sind, aber ich wäre da so ein bisschen vorsichtig, genau dieses extrapulieren zu nehmen.

00:29:59: Ich kann auch nicht, wenn ich, also blöde Metapher, aber wenn ich an einen Dieselmotor unendlich viele Coltmann ranbaue,

00:30:05: werde ich auch nicht die Lichtgeschwindigkeit erreichen.

00:30:08: Das geht halt auch genauso nicht.

00:30:10: Es gibt halt bestimmte systemische Grenzen an der Stelle und bestimmte Funktionsweisen.

00:30:16: Und Sprachmodelle sind halt im Grunde statistische Modelle und anzunehmen, ich kann nur dadurch Intelligenz schaffen, ist es eine mutige Aussage.

00:30:25: Und ich glaube halt daran scheitert halt dieses Sicherheitsteam oder dieses Ding.

00:30:31: Es ist halt ein Team, das aufgesetzt wurde, um an einem hypothetischen Szenario zu arbeiten, das in einer hypothetischen Zukunft liegt.

00:30:39: Und OpenAI unternimmt immer mehr den Wandel hin zu einem sehr kommerzialisierten Unternehmen, in einem Unternehmen, das Profit machen will, das Investment haben will.

00:30:51: Und natürlich werden sich die Leute irgendwann dieses Team anschauen und überlegen, naja, wir zahlen ja sehr, sehr viel Geld für eine sehr, sehr, sehr hypothetische Szenario,

00:31:00: wo wir vielleicht auch nie wirklich hinkommen, auch wenn wir das öffentlich vielleicht nicht so eingestehen werden uns, macht das also Sinn, die zu unterstützen.

00:31:07: Und so wie das klingt, wurden die nicht gefeuert oder man wurde das intern so mitgeteilt, sondern, naja, man hat ja den einfach immer weniger Ressourcen gegeben.

00:31:17: Und klar, kündigt man dann.

00:31:20: Und ich fand es dann auch interessant, dass, wie wir ja im Endeffekt auch, keine absoluten technischen KI-Experten sind, viele deshalb gesagt haben, auch, ich bin ja auch nicht der Einzige, der diese Meinung irgendwie oder diese Theorie hat,

00:31:33: wenn das diskutiert wurde auf Twitter oder sonst wo, gesagt haben wir ja gut, aber das sind ja die Expert*innen, gab wobei waren es überhaupt*innen oder waren es nur Kerle.

00:31:42: Auf jeden Fall dieses Team sollten ja eigentlich die Expert*innen sein für AGI, die haben Angst davor oder die machen sich darum Sorgen, da muss da ja irgendwie was dran sein.

00:31:52: Wo ich auf der einen Seite sage, ja, die haben sicher viel für besser aus technischer Ständen davon als ich.

00:31:56: Ich kenne aber dieses Zitat, mit dem es sehr schwer ist, einen Menschen von etwas zu überzeugen, wenn sein Gehaltscheck davon abhängt, das zu glauben.

00:32:03: Und wenn man das dann auch kombiniert mit dieser doch leichten Sektenartigkeit von Effektiv Altruism, ja, ich glaube schon, dass die davon überzeugt sind.

00:32:10: Also ich glaube nicht, dass das ein Betrug ist, dass die das die Ginsgau wissen, dass sie keine AGI erreichen und das trotzdem machen, um die Kohle abzugreifen, sondern ich glaube denen, dass die davon überzeugt sind.

00:32:22: Ich bin mir nur nicht so sicher, ob die die objektivsten Beurteile dieser Gefahr in diesem Fall vielleicht konkret sind.

00:32:31: Und ein weiterer Punkt, das ich dann so ein bisschen schade daran finde, ist, als ein OpenMEMAL zwischenzeitlich gefeuert wurde von OpenAI und dann wieder eingesetzt wurde,

00:32:40: man hat hier nie so ganz erfahren, was dahinter steckt, aber was so durchkam, war ja irgendwie so ein bisschen, dass es da eben im Bord Leute gab, die sehr, sehr stark auf Sicherheit setzen wollten und sehr, sehr stark,

00:32:50: wie benutzen wir KI, unterstellen wir ihm mal, dass es ihnen auch um Ethik ging, also dass wir, wie setzen wir KI ethisch ein, wie gehen wir mit den Gefahren von AGI um

00:32:58: und Altman auf jeden Fall auf dieser sehr kommerziellen Ecke unterwegs war.

00:33:02: Unter dem Aspekt finde ich dann schon ein bisschen schade, wenn so ein Team aufgelöst wird, völlig egal wie sinnvoll es dann war, einfach weil es so ein Zeichen dafür ist, hey, ja, die werden jetzt einfach OpenAI versuchen so zu melken, wie es halt irgendwie geht.

00:33:14: Und dann ist es halt irgendwie am Ende doch nur ein Uber mit einem Fanciestatistikmodell.

00:33:17: Ja, ganz bei dir. Wie gesagt, auch da. Ich bin sehr gespannt, wie das weitergeht aus und da rein, ich habe mal Popcorn neben mir und lege in meinem lehnen Stuhl-Ecke.

00:33:29: Sofern wir uns dann das Popcorn noch leisten können, wenn wir alle unsere Jobs verlieren.

00:33:33: Thema unsere Jobs verlieren, zumindest mein Job, lasst uns doch mal zum nächsten Thema gehen und das als klein Palette-Klänzer zum Schluss der Folge noch kurz über das Google-MoonShot-Thema reden, nach einem kurzen Stinger.

00:33:46: Google's MoonShot-Thema und das MoonShot-Team von Google. Bevor ich sage, warum ich da kurz geschluckt habe, was meine eigenen Job angeht, möchtest du uns kurz erklären, worum es da ging und was das mit der, wie ich sage mal, glorreichen Vergangenheit von Google vielleicht auch zu tun hat?

00:34:00: Ja, Google hat irgendwann mal beschlossen, dass sie ein Teil ihres hart verdienten Anzeigengeldes vielleicht auch mal in ein paar etwas spektakuläre oder spekulativere Wetten geben.

00:34:14: Nenn ich es jetzt einfach mal stecken würden. Das heißt, man hat intern dieses X-Lab gegründet, die MoonShot Factory von Google, in der, sagen wir mal, so ein bisschen so abstrusere spekulativere Technologieprojekte unterstützt wurden.

00:34:30: Also, ich glaube, eines der der prominentesten Beispiele ist dieses Project LUN, wo man Internet Balance starten wollte.

00:34:38: Also, ein Grunde das, was LUN-MASK am Ende mit den Satelliten gemacht hat, nur eben an, naja, Heißluft, nicht mit Heißluft-Ballons oder Gas-Ballons hängend zu tun und damit Internet in weniger versorgte Regionen anzubringen oder halt natürlich Waymo, das selbstfahrende Auto-Start-Up von Google.

00:34:57: Und es wurde jetzt angekündigt, dass man X-Labs umstrukturieren will, de facto schließen wird. Also, bestehende Projekte umzustrukturieren, ehemalige Start-ups, Auszugliedern stärker und Projekte, die eben keinen kommerziellen Erfolg haben zu beenden.

00:35:15: Das wird jetzt eben über den nächsten Monat laufen, aber das Fangding liegt wohl komplett auf Eis. Inzwischen damit halt auch so, dass es ein Ende einer Era für Google...

00:35:26: Ich glaube, der gehört da auch dazu, dass es ja mal immer bei Google zu Ende am Anfang, jeder Mitarbeiter hatte eine gewisse Anzahl Stunden im Monat, die er für so eigene Moonshot-Projekte nutzen durfte, was es auch schon länger nicht mehr gibt?

00:35:37: Ja, es gibt es schon auch diese. Also, es gab diese 20-Prozent-Zeit. Ich glaube, dass es so ein bisschen auch da ist, also, ich glaube, der Mythos größer, als es jemals in der Anwendung war, weil man musste diese 20-Prozent-Beantragung immer.

00:35:47: Das heißt, man musste eine Idee einreichen und dann hat man von oben abgesegnet bekommen, ja, du darfst diese 20-Prozent verwenden, um dieses Sight-Projekt irgendwie zu starten.

00:35:56: Zum Beispiel Gmail ist jetzt zum Beispiel daraus hervorgegangen im Grunde. Die Idee war so ein bisschen so, die Innovationsfähigkeit, eigene Mitarbeiter eben hochzuhalten und natürlich hat auch gut bezahlte Entwickler die Möglichkeit zu geben, eigene Dinge und eigene Interessen zu verfolgen, damit sie eben nicht kündigen.

00:36:10: Das muss man halt auch dazu sagen. Es war ja vor allem auch ein Retention-Thema. Und auch da berichten Insider zunehmend, dass es immer schwieriger wird, diese 20-Prozent zu bekommen und selbst wenn man sie bekommen hat, es auch immer schwieriger wird, zu argumentieren, dass man diese Zeit auch tatsächlich einsetzen darf.

00:36:28: Du hast es Ende einer Ära genannt. Was bedeutet das für den Moonshot als Konzept?

00:36:34: Ich würde mal sagen, der Moonshot als Konzept war schon immer so ein bisschen fragwürdig, ehrlicherweise. Also innovationsliteraturmäßig, ich meine es wurde immer gefeiert und hochgehalten, sondern wir brauchen einen Raum für spekulative große Projekte, denn schaut Google macht das auch.

00:36:50: Stellen Sie sich halt noch tatsächlich raus, dass fast keins der Projekte, die bei Google auch jemals gestartet wurden, irgendeiner vom kommerziell interessant oder relevant wurde. Es gab einige Ausgründungen, in die Google auch investiert hat.

00:37:02: Aber jetzt auch nicht, dass wir jetzt sagen, weil Google hat so, dass das nächste Google zum Beispiel intern entwickelt darüber.

00:37:09: Und das Gleiche gilt auch für diese 20-Prozent-Sachen. Da kam viel raus, was tatsächlich für Google businessmäßig relevant war und Google auch gestärkt hat.

00:37:19: Aber auch eben viel Unsinn und viel Zeit, die auf Unsinn, würde ich jetzt mal sagen, oder Projekte, die nie wirklich relevant wurden oder nie wirklich interessant wurden.

00:37:29: Was ich sagen will, ist ein bisschen der, und ich denke, das, was man bei Google sieht und das, was man bei den weiteren Tech-Unternehmen gerade sieht, ist, dass die Ressourcen, die man hat, werden gerade sehr neu kalibriert.

00:37:42: Google hat Mitarbeiter entlastet, das Gleiche gilt auch für andere Unternehmen. R&D wurde gekürzt, man schaut mehr darauf, Kernprodukte zu stärken.

00:37:52: Google will sich gerade stark gegen Microsoft verteidigen. Das heißt, da sind die strategischen Teressen gerade sehr, sehr, sehr weg von spekulativen Hound-Out-Fast-D-Zukunft-Bring-Projekten hin zu sehr Daily-Business-Mauern hochziehen und Fokus auf den Aktienkurs leben.

00:38:11: Und damit stirbt aber halt auch ein Teil dieser Innovationsrhetorik, nenne ich es jetzt einfach mal, oder aus meiner Perspektive und ich glaube auch, dass was du meinst mit dein Job ist vielleicht in Gefahr, oder?

00:38:21: Genau, das ist so ein bisschen, weil ich mir auch gedacht habe, wer leitet eigentlich bei uns im Media Lab die explorativen Moonshot R&D und das bin halt in dem Fall ich mit unserem R&D-Fallership und unserem Future of News-Fallership und da hatte ich ein wenig kognitive Dishonanzen auszuhalten.

00:38:35: Und ich habe die dann für mich insofern aber dann am Ende gelöst und diese Sendergie gefunden, dass, was Google ja, wie du es beschrieben hast, eben sagt, sie fördern ja weiterhin Projekte, wenn die sich ausgründen lassen, wenn die kommerziell erfolgreich sein können.

00:38:50: Und was ich mir dann gedacht habe, ist es vielleicht ist ja gar nicht die explorative R&D und das spekulative und die Moonshot so sehr das Problem, sondern eher das Business-Umfeld, in dem selbst ein Unternehmen wie Google glaubt, nur noch auf die Kommerzialisierung Aspekte schauen zu können oder zu wollen, obwohl sie es natürlich Google komplett leisten könnte, aber eben, die haben genauso Stakeholder wie viele andere und Numb & Must Go Up und so weiter.

00:39:14: Und dass vielleicht gerade die Lösung darin liegt, dass diese Dinge dann eben bei Leuten passieren wie uns, die nicht so stark auf kommerzielle Aspekte achten müssen.

00:39:24: Und dass das ja dann vielleicht, also dass die Wirtschaft das Problem ist und gar nicht so sehr die R&D, die Google macht oder die wir bei uns im Media Lab machen.

00:39:32: Ich würde dann immer unbedingt sagen, die Wirtschaft, ich glaube, das ist ein Management-Thema bei Google einfach und das Management, das eben zunimmt, wie gesagt, auf Aktienkurse guckt, was wir natürlich im Media Lab nicht machen müssen.

00:39:42: Gott sei Dank, also wir müssen nicht unseren Media Lab-Kurs irgendwie hochhalten, sondern wir können uns über coole Projekte tatsächlich über Wasser halten, einfach aufgrund der Art, wie wir finanziert werden.

00:39:53: Ich glaube halt, dass es nur trotzdem, ich denke, dass wir trotzdem so eine Folgeeffekte haben oder Wellen davon, die rausgehen, weil dann natürlich viel Argumentation für Innovationsliteratur der letzten zehn Jahre zusammenbricht oder halt aufhört zu funktionieren

00:40:10: oder die Argumentationsketten, die in einen Büchern aufgezogen wurden, wenn man sich eben auf einen Google verlässt oder auf einen Apple verlässt oder auf einen Facebook verlässt, ja, allesamt R&D zurückgeschraubt haben zum Beispiel.

00:40:23: Dann sind wir die letzten, die es noch weiter machen, dann müssen in Zukunft eben alle zu uns kommen.

00:40:28: Fähreweise muss man sagen, ich glaube, unser R&D-Topf, damit wird bei Google die Kaffeemühle betrieben.

00:40:35: Ja gut, das ist wahrscheinlich so, aber wenn es nirgendwo alles mehr gibt, sehr geil brinn, ruf mich ab.

00:40:39: Kann ich dazu nicht sagen.

00:40:41: Genau. Ja, ganz interessant.

00:40:43: Das ist natürlich einfach aus auch persönlicher Arbeitsalltagsmäßig traurig und fängt es weiterhin interessant, was dabei rauskommen könnte, wenn ein Unternehmen wie Google das tut.

00:40:54: Oder auch wenn ein Unternehmen wie Google weiterhin sich verpflichtet.

00:40:58: Oder sagen wir so, ein Unternehmen wie Google auch weiterhin das Gefühl hätte, dass sie so was machen wollen, um Leute zu halten und PR zu machen.

00:41:08: Das ist also offenbar auch dafür, für die Retention nicht mehr nötig oder nicht mehr der primäre Fokus darauf liegt.

00:41:13: Ich glaube, das spricht dafür, dass da vielleicht managmentmäßig auch was abgekühlt ist in irgendeiner Form.

00:41:19: Jetzt ist Google, ich möchte das überhaupt nicht romatisieren, dieses Don't Be Evil und so weiter, war schon immer auch irgendwie natürlich Volklore.

00:41:25: Ja, aber das ist doch irgendwie so ein bisschen wie ich es vorhin bei Openair gesagt habe, doch irgendwie eine Normalisierung einsetzt.

00:41:32: Oder vielleicht auch nur offensichtlicher wird und zwar schon immer ein ganz normales Unternehmen, aber doch irgendwie, das für mich verliert dadurch so eine gewisse Romantik,

00:41:41: aber maybe that's just me.

00:41:43: Nee, das verstehe voll, was du meinst.

00:41:45: Wie gesagt, ich glaube, es ist wirklich tatsächlich auf einer gewissen Ebene so ein Ende dieser Silicon Valley Rock'n'Roll Innovations-Era.

00:41:53: Na ja, gut dann.

00:41:54: Ich meine, Rock'n'Roll hört man ja heute auch noch Musik aus den 70ern.

00:41:57: Hören wir auch bei der Innovation. Ich würde sagen, dann benden wir die Folge jetzt, legen nochmal eine Platte mit den alten Hits auf, Clayton Christiansen oder sowas, live in Woodstock.

00:42:08: Und ja, würde sagen, wir hören uns im nächsten Monat wieder.

00:42:12: Und ich glaube dann nicht mit einer Sonderfolge oder so, aber ich kann es dir noch mal sagen, wir haben im 11. und 12. Juni im nächsten Monat das große Media Innovation Festival,

00:42:19: also unser eigenes Event vom Media Lab Bayern in München und haben sehr, sehr viele, sehr, sehr coole Leute da, die bei uns Workshops halten und die versuchen mit uns zusammen über Innovationen nachzudenken

00:42:32: und über neue Themen nachzudenken. Ich bin mir sicher danach, wenn wir einiges darüber reden können und wir hören uns im Juni, würde ich sagen.

00:42:40: Macht's gut und vielen Dank, Johannes.

00:42:42: Danke dir.

00:42:44: [Musik]

00:42:49: [Musik]

00:42:52: Copyright WDR 2018

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.