Dieses Transkript wurde maschinell erstellt. Wenn dir ein Fehler auffällt, schreib uns gerne zu diesem unter redaktion@digitalkompakt.de.
Joel Kaczmarek: Hallo Leute, mein Name ist Joel Kaczmarek. Ich bin der Geschäftsführer von Digital Kompakt und heute habe ich wieder den lieben Teo Pham an meiner Seite. Kennt Teo, mit ihm mache ich immer die Metaverse-Updates. Ein bisschen werden wir davon heute auch machen, aber vor allem ist es eine KI-Special-Folge. Er und ich wollen nämlich mal über das Thema AI, Artificial Intelligence, reden. Wie künstliche Intelligenz im Business eigentlich spannende Use Cases produziert, aber auch darüber hinaus. Und wie sollte man eigentlich darüber nachdenken? Das heißt, heute werden wir wirklich mal durchdeklinieren, was wir bei unserer letzten Folge gemeinsam schon mal diskutiert haben. Nämlich, was geht denn da so? Wie funktioniert das? Welche Anbieter gibt es? That being said, ich grüße dich, lieber Teo. Moin, moin.
Teo Pham: Hey, Joel. Freut mich, wieder mit dabei zu sein.
Joel Kaczmarek: Und nimmst du deine eigene Medizin? Machst du auch schon fleißig KI-Geschichten bei dir in deinem Business, in deiner Company? Macht ihr in der Delta School schon sowas? Oder noch eher Testen so für Private Fund?
Teo Pham: Nee, auf jeden Fall. Also ich teste natürlich diese ganzen Tools aus, weil im Prinzip hast du ja die Möglichkeit, dadurch in allem, was du machst, viel effizienter zu werden. Und du kannst dich auch super skalieren. Das heißt, wenn ich jetzt zum Beispiel sage, hey, ich bin... Education und Mini-Media-Company. Da ist natürlich die Frage, wie kann ich solche Tools nutzen, um zum Beispiel schneller Content zu produzieren, besser Content zu produzieren, den vielleicht auch auf mehrere Sprachen zu übersetzen, vielleicht auch, um mich selber zu skalieren, vielleicht auch noch meine digitalen Zwillinge oder Avatare eben mit einzusetzen. Also ich glaube, da wird es viele spannende Anwendungsfälle geben, die, glaube ich, nicht nur für Media-Companies und Content-Creator spannend sind, sondern wahrscheinlich für alle, die irgendwo diese neuen Tools nutzen wollen, um ihre Produktivität zu steigern.
Joel Kaczmarek: Sehr gut. Ich habe auch mit Boris Lokschin von Spryker dazu eine Folge gemacht. Ich glaube, fairerweise, die kommt nach dieser hier. Also ich weiß jetzt schon das, was die HörerInnen draußen... noch nicht hören, aber da war es ein bisschen ähnlich. Der sagte halt auch, hey, KI in der Digitalisierung wird ein absoluter Game Changer. Wer das nicht hat, wird einfach krass zurückfallen. Also nicht nur, was man bisher schon hatte, wenn du nicht digital kannst, hast du ein Problem, sondern wenn du dann noch nicht KI kannst, dann hast du ein richtig großes Problem, weil dann machen die anderen das, was du schon eh schlechter machst, auch noch doppelt und dreifach so schnell mit weniger Aufwand, weniger Ressourcen etc. etc. Und vielleicht können wir ja mal so ein Stück weit anfangen mit Use Cases. Also wir können ja mal eintauchen, was es so für Anwendungsgebiete gibt. Wir waren ja schon so Pseudoprophetisch im letzten Jahr unterwegs. Also ich glaube, Wir waren zu den ganz frühen, die schon über diese Trends und Entwicklungen berichtet hatten. Am Thema Foto haben wir viel gemacht. Wenn wir mal so einen großen Wrap-up machen, was siehst du so als wesentliche Use Cases für KI?
Teo Pham: Also KI an sich gibt es ja schon seit Jahrzehnten. Und damit wurden ja auch in der Vergangenheit schon durchaus sinnvolle Sachen gemacht, wie autonomes Fahren oder vielleicht auch Krebsforschung, irgendwie Tumordiagnose und so. Aber das ist ja auch das Erstaunliche, dass es natürlich diese ganzen spannenden Use Cases in der Vergangenheit schon alle gab. Aber so wichtig viral geht das Ganze natürlich erst dann, wenn auch normale Leute wie du und ich eben damit arbeiten können. Also eben Nicht-Programmierer. eben nicht KI-Professoren. Und das ist ja dieses ganze Feld der Generative AI, also Bilder erstellen mit KI, Texte, Videos, Audio, Podcasts, Webseiten. Also alles, was wir eigentlich als Professionals jeden Tag machen, kann man durch KI jetzt eben viel schneller machen. Und letztes Jahr haben wir vor allem über das ganze Thema Bilder gesprochen. So Bilder-Tools wie DALL·E oder Midjourney sind schon ziemlich mächtig. Aber da sagen vielleicht manche auch, naja gut, ich bin ja kein Grafiker, deshalb brauche ich das nicht unbedingt. Aber das, was gerade in den letzten Wochen ja so total boomt und ja auch in der LinkedIn- und Tech-Bubble ja riesig ist, ist ja einfach ChatGPTT, also dieser Chatbot. Und der ist ja in vielerlei Hinsicht einfach so. das bessere Google. Und da die meisten von uns ja irgendwie Knowledge-Worker sind, ist natürlich ein Tool, mit dem wir schneller Informationen beschaffen. auch verarbeiten können, natürlich total Gold wert. Von der glaube ich, dass im Augenblick der Schwerpunkt eben auf diesen Text-Tools liegt. Aber für alle, die irgendwas mit Media zu tun haben, gibt es eben die Perspektive in Zukunft eben auch mit KI, Videos, Computerspiele oder sonstige virtuelle Welten damit zu bauen.
Joel Kaczmarek: Ich meine, am Ende des Tages, man staunt ja auch, man hat ja doch irgendwie immer Berührungspunkte. Also wenn ich jetzt zum Beispiel mal das Thema Bilder nehme, wenn wir jetzt irgendwie ZuhörerInnen haben, die sagen, ich mache irgendwie cool Newsletter und ich habe immer das Problem, ich kann mir irgendwie diese coolen Stockfotos aber immer nicht leisten, kannst du jetzt halt auch perfekt zugestimmt auf das, was du tust, dir eigentlich Bilder generieren lassen. Und ich würde mal sagen, die sind so zwischen 60 und 80 Prozent Qualität, wo man sie vielleicht haben will. Und was ich so mitgekriegt habe, wurden die doch, glaube ich, auch schon verklagt, hier die Firma Hinterchat GPT, von, ich glaube, Getty Images. Die haben doch auch schon versucht, da irgendwie was hinzudrehen, weil... gesagt haben, wait a minute, eure Maschine, die Bilder erzeugt, das muss man ja auch erstmal verstehen, also diese KI baut die Bilder ja wirklich selber, das heißt, sie kopiert sie nicht irgendwo oder zeigt dir was an, sondern sie werden komplett für dich generiert. Die lernt ja auf Basis unserer Fotos, was ist denn das für eine Unverschämtheit? Da müsst ihr uns ja erstmal schön Royals zahlen oder was geht da so gar nicht, lass das mal sein. So, das war so, was ich als erste Marktreaktion dazu gehört habe. Was ist so dein Blick?
Teo Pham: Bei ChatGPTT ist es ja ähnlich, also ChatGPTT durchforstet ja im Prinzip Milliarden von Texten, um eben zu verstehen, was da eigentlich so drinsteht. Und wenn ich jetzt eben ChatGPTT die Frage stellen möchte, möchte, entwerfe mir doch eine Podcast-Strategie im Wettbewerb mit Digital Kompakt und, weiß nicht, OMR Podcast und so weiter. Wie kann ich mich da inhaltlich abheben oder sowas, ne? Dann wird er mir irgendwie sagen, okay, um sich im... ... Wettbewerb da durchzusetzen, mache irgendwie A, B und C und der hat ja, der muss seine Informationen ja irgendwo herkriegen und das sind einerseits eben öffentliche Webseiten, aber eben auch sowas wie Wikipedia, Quora und so weiter. und die werden wahrscheinlich auch irgendwann sagen, Moment mal, ChatGPTT, ihr gehört doch zu OpenAI, OpenAI wurde doch mal als Non-Profit gegründet. und als ihr noch Non-Profit wart, war es ja vielleicht auch okay, dass ihr irgendwie kostenlos unsere Inhalte nutzen dürft, aber jetzt, wo ihr irgendwie 30 Milliarden Dollar wert seid und Microsoft 10 Milliarden in euch reinsteckt, da wollen wir vielleicht auch unseren Teil vom Kuchen haben, also es wird einfach total spannend zu sein, ja eben zu sehen, wo kommen eigentlich diese Daten her, macht eigenes liegt die KI transparent? Wo die Daten überhaupt herkommen? Und diejenigen, die eigentlich die Primärdaten erstellt haben, was kriegen die eigentlich davon ab?
Joel Kaczmarek: Können wir ja gleich nochmal vertiefen, weil man staunt ja aber auch wirklich, was noch so an Folgeanwendungen möglich ist. Also ich weiß, als ich mit Boris drüber geredet habe, hat er gesagt, er saß mit seinen Techies zusammen und hat dann die KI erstmal programmieren lassen. Oder der ist mal hingegangen und hat gesagt, hier ist ein Stück Source-Code, schreib den mal besser. Oder da ist ein Fehler drin, kannst du ihn finden? Und das Ergebnis war, dass man im Prinzip fünf Rollen aus einer Organisation teilweise in einer vereinen konnte, nämlich in dieser KI. Das heißt, wer früher Code-Checks gemacht hat, gemacht hat oder Bug-Hunting oder Quality-Improvement und so weiter und so fort auf der Programmierseite, der wird jetzt quasi sukzessive ersetzt, ist ja so die Frage, ja oder nein. Also das nochmal so um so einen weiteren Case zu machen. Vielleicht machen wir die Use-Case also nochmal weiter voll. Also wir hatten jetzt Text, wir hatten Audio, Bilder, Videos, Chat, Programmieren. Fallen dir noch welche ein?
Teo Pham: Genau, Computerspiele. Da würde ich einfach sagen, baue mal ein Computerspiel so ähnlich wie, weiß nicht, Angry Birds oder sowas. Dann könnt ihr mir halt die Designs setzen. Also nehmen wir mal an, ich werde jetzt irgendwie ein Spiel wie Angry Birds, also vielleicht auch schon für die älteren Semester, aber so ein einfaches Mobile-Game nachbauen wollen. oder bauen wir ein Spiel wie Pokémon, aber mit Schildkröten meinetwegen, ja? Aber im Stil von Pokémon. Dann würde ja erstmal quasi das Bild-Tool eben Designs machen und die wissen halt, okay, Pokémon sehen ungefähr so aus und Schildkröten im Pokémon-Stil würden so und so aussehen. Dann könnte ich ja noch sagen, entwerfen wir mal ein paar Spielregeln und dann würde er mir quasi die Instruktionen dazu ausspucken. Und dann könnte ich ihm zum Beispiel sagen, mach mir daraus eine Webseite und mach mir bitte ein Promo-Video mit diesen Charakteren. Das geht zum Teil jetzt schon, vielleicht noch nicht in perfekter Qualität, aber im Augenblick entwickeln sich halt diese ganzen Technologien einfach total schnell. und der Sprung vom Bild- zum Video, gerade wenn es eben so computeranimiert ist, der ist ja auch nicht besonders weit, weil es ja im Prinzip eine Aneinanderreihung von verschiedenen Bildern und Sequenzen ist. Also kann ich mir vorstellen, dass das, was wir heute eben mit DALL·E 2 und Midjourney sozusagen an Bildern bauen können, dass wir da eben bald unsere eigenen, ich sag mal, animierten Disney-Filme bauen können, in einer erstaunlich hohen Qualität.
Joel Kaczmarek: Ja, ist krass, ne? Da staunt man echt. Und jetzt können wir uns mal vertiefend auf diese beiden Faktoren nochmal konzentrieren, die wir gerade schon angerissen haben. Also das eine, was, glaub ich, immer mitschwingt, ist, wer dich ersetzt. Ach du Scheiße, was mach ich denn, wenn ein Computer meine Arbeit besser, schneller und so weiter macht? Weil Sonder ist ja, dass jetzt nicht nur der Blue-Color ersetzt wird durch eine Maschine, sondern auch White-Color-Arbeit. Aber vielleicht auch nochmal zurückgehend auf diese Primärdaten. Hast du da eigentlich schon Entwicklung gesehen, dass es da jetzt vielleicht nicht ... Rechtsprechung gibt, aber ich sag mal so Common Practices, sodass man mal anfängt, sich darüber Gedanken zu machen, was sollte man denn da eigentlich wie dokumentieren, was gehört sich und was gehört sich nicht, weil es ist ja immer so eine KI, KI auch mal könnte man als Wort jetzt philosophisch auch noch hinterfragen, aber schränkt man es mal drauf, hat ja als Frage immer, wie gut sind die Daten, mit denen sie gespeist wird. Das heißt, wenn du denen mit intoleranten Daten speist, den Computer, wird der selber intolerant, wenn es saubere Daten sind, dann nicht, etc. Hast du da schon mal so Tendenzen gesehen, dass sich da was ausbaldowert in Richtung irgendwie so eine Art Code of Conduct zum Beispiel?
Teo Pham: Nicht unbedingt ein Code of aber ich glaube, so in der alltäglichen Nutzung, glaube ich, werden wir spannende Trends sehen. Wenn du dir mal überlegst, wenn du Google benutzt, bei Google gebe ich eben ein, gib mir fünf Tipps, wie ich besser schlafen kann. Und dann gibt mir Google ja keine Antwort drauf, sondern die geben mir halt irgendwie Links auf zehn verschiedene Webseiten, von denen Google eben der Meinung ist, dass die eben besonders gut sind. Das heißt, die geben mir die Quellen, aber keine Antwort. Und da muss ich mir die Quellen alle selbst angucken und mir dann einen Reim drauf machen. Und ChatGPTT macht es andersrum, die geben mir eine super Antwort. Fünf Tipps, aber ich weiß halt nicht, wo die Tipps herkommen. Also weder weiß ich, ob das irgendwie seriös ist, kommt der Tipp jetzt irgendwie von der Bild-Zeitung oder kommt der jetzt irgendwie von, weiß nicht, der Harvard School of Sleep oder sowas. Das würde ich ja vielleicht auch gerne wissen. Und ich kann mir vorstellen, dass in der ChatGPTT-Antwort vielleicht in Zukunft eben auch, ähnlich wie bei Wikipedia, vielleicht irgendwie Quellen verlinkt werden und du sehen kannst, okay, das ist die Antwort und wenn die für dich gut genug ist, dann nimmst du das einfach mal für bare Münze. Aber wenn du eben auch noch die Primärquellen nachschlagen willst, dann werden die dir angegeben. Und umgekehrt ist es ja so, dass Leute, die einmal ChatGPTT benutzt haben, eben die Google-Suche nicht als besonders befriedigend irgendwie erleben, weil du halt noch auf diese zehn blöden Links draufklicken musst. Das heißt, Google selbst wird ja wahrscheinlich neben den zehn Links wahrscheinlich irgendwann auch so eine Art synthetisierte Antwort geben, wo sie sagen, okay, wir haben uns diese zehn Links durchgelesen und das sind unserer Meinung nach die besten fünf Tipps, um besser zu schlafen.
Joel Kaczmarek: Ich meine, man möchte sich ja fast fragen, ob das nicht einfach nochmal eine komplett neue Erfindung ist. Also das, was früher eine Suchmaschine war, ist eigentlich dato. Also was wir als Suchmaschine verstanden haben, war eigentlich eher ein ... Branchenverzeichnis, ein Index, ein, ja, ein großes Verzeichnis auf Steroiden, würde ich mal sagen, mit einer relativ hohen Intelligenz, wo man dann auch sozusagen, ja, ein, weiß ja nicht mehr, sozusagen, de facto einen Algorithmus hat, der entscheidet, was passt zu meiner Anfrage und was nicht. Während das Neue jetzt wirklich eine Antwort auf die Frage ist. Das heißt, ich habe gar nicht mehr das Register, sondern ich gucke eigentlich rein. Wo wir ja eine schöne Brücke mal bauen können. Ein Satz vielleicht noch, wenn man sich mal so zurückerinnert, Leistungsschutzrecht, by the way, von Axel Springer, kommt man da nämlich wieder in. Die haben ja damals diesen Krieg gegen Google geführt, dass, wenn man schon so einen Dreizeiler-Anreiztext hat, diese Snippets, ja, dass das doch schon irgendwie Urheber... rechtlich schützenswert sei. Da merkt man mal, das wird dann, glaube ich, auf Steroiden kommen, das Problem, oder es wird super viel komplexer, wenn so eine Maschine quasi Inhalte durchsucht und dann darauf basierend was baut. Aber anyway, du wolltest was sagen.
Teo Pham: Genau, das ist ein guter Punkt erwähnt. Also so gesehen ist ChatGPTT halt viel mehr als eine Suchmaschine, sondern du kannst halt wirklich einen Dialog mit denen führen. Und du kannst halt echt im Prinzip den als Gesprächspartner, als Therapeuten, als Freund benutzen. Hört sich jetzt erstmal ein bisschen schräg an, aber die sind echt verdammt gut. Also im Prinzip ist es ja so, wenn du, nehmen wir an, ich brauche jetzt einen Unternehmensberater, ja? Also auf der einen Seite kann ich bei ChatGPTT schon sowas eingeben. Stell dir vor, du bist McKinsey. Berater und ich bin jetzt ein Medienhaus und habe mit Digitalisierung zu kämpfen. Wie soll ich denn jetzt das Innovators-Dilemma lösen? Soll ich nach wie vor auf Print setzen und wie kann ich mich jetzt digitalisieren? Dann kommen relativ schnell gute Antworten raus. Und dann könntest du irgendwie sagen, ja okay, aber wie wichtig ist denn jetzt TikTok dabei für mich? Und dann greift er quasi den Dialog vorher auf, den du mit ihm geführt hast und sagt, okay, TikTok ist für deine Zielgruppe besonders relevant, deswegen, deswegen und deswegen. Und dann kannst du einfach weiterfragen und sagen, okay, gib mir mal irgendwie 10 Ideen für virale TikTok-Videos über Haustiere. Und dann gibt er halt ja diese 10 Titel irgendwie raus, ja? Und dann könntest du sagen, okay, und bei der Idee über die viralen Schäferhunde, schreib mir mal ein TikTok-Skript für ein 90-sekündiges Video mit einem besonders guten Einstieg. Das heißt, es geht einfach immer so weiter. Und das ist natürlich eine ganz andere Qualität als bei Google, wo du ja jedes Mal, wenn du eine Nachfrage hast, eine komplett neue Suche starten musst, die ja im Prinzip vollkommen unabhängig ist von dem, was du vorher gemacht hast. Das heißt, diese Dialog- und Ratgeberfähigkeit hebt das Ganze nochmal auf ein ganz anderes Level.
Joel Kaczmarek: Weiß nicht, wie es dir geht, aber ich fühle mich da immer so an meine Kindheit mit Star Trek erinnert, mit irgendwie Enterprise, Voyager und Co., wenn es eigentlich immer nur... wie es Computer, dies, das, jenes, mach das und das, was ist hier und da? Also da merkt man mal, da kommt man schon ein bisschen hin in so eine Art Sprachinterface eigentlich, ne?
Teo Pham: Ja, definitiv. Und das Komische ist eigentlich, dass die ganzen großen Tech-Companies, wie Google und Apple und so weiter, die ja mit Siri, Alexa und Google Assistant ja im Prinzip ja auch schon solche Sprachassistenten gebaut haben, die ja theoretisch auch für den Dialog prädestiniert sind, dass die ja bislang einfach so unfassbar doof sind und man die ja bislang für nichts Besseres nutzen kann, außer zu fragen, wie viel Uhr es ist oder wie morgen das Wetter wird. Und jetzt gibt es ja schon gewisse Hacks, dass du irgendwie Siri mit ChatGPTT irgendwie... kombinieren kannst. Und ich glaube, das wird in Zukunft eben auch super spannend sein, dass du eben das sozusagen Voice-Interface gleich noch mit einbaust.
Joel Kaczmarek: Schöne Brücke, um mal über weitere Tools zu reden. Also es reden immer viele irgendwie über ChatGPTT, beziehungsweise OpenAI, die Company dahinter. Und wen siehst du denn aber noch so am Markt? Weil man fragt sich ja so ein bisschen, Google hat ja eine solche Herrscher an Personen, die an diesen Themen arbeiten, hat ganze Firmenstränge gekauft oder mehrere Unternehmen gekauft mit KI. Ich habe von Pip Klöckner irgendwie bei LinkedIn mal einen Post gesehen, dass er die Hypothese hat, Google kann das ähnlich, wenn nicht sogar krasser. Und es macht es aber aus zwei Gründen. Nicht erstens, weil it would scare the shit out of the people. Also es würde sie zu Tode erschrecken. Und zweitens, man hängt halt so in diesem Innovators-Dilemma, dass man dann sein eigenes Business-Model mit den Anzeigen halt killt. Glaubst du, es ist so?
Teo Pham: Ich glaube, Google, die lassen quasi im Hintergrund quasi verlauten, dass sie natürlich ein viel besseres Tool haben und natürlich nicht so dämlich sind. Also die wollen natürlich sagen, ja, wir können es viel besser. Weitere Aspekte, warum sie es vielleicht noch nicht rausbringen, ist, dass Google sagt, naja, ChatGPTT ist halt irgendwie so ein Startup oder OpenAI ist halt ein Startup. Aber unser Tool wird halt jeden Tag irgendwie von zwei Milliarden Menschen genutzt. Und da stellen wir höhere Anforderungen quasi an die Qualität. an die Zuverlässigkeit und so weiter. Wir wollen jetzt ja keine Fake News und so weiter verbreiten. Und damit implizieren sie natürlich irgendwo, dass die Ergebnisse bei ChatGPT nicht so gut sind. Und gleichzeitig kostet das Ganze aber auch eine Menge Kohle. Weil im Hintergrund ist es ja so, dass jedes Mal, wenn ich so eine Abfrage mache, wie zum Beispiel, gib mir irgendwie fünf Tipps zum besseren Schlafen, dann wird ja nicht einfach nur jetzt aus der Datenbank das beste Ergebnis rausgeholt, wie jetzt bei Google zum Beispiel, sondern dieser Text wird ja neu generiert. Das heißt, im Hintergrund laufen dann eben diese ganzen KI-Modelle auf den ganzen Web-Servern, auf den Cloud-Servern zum Beispiel von Microsoft. Und es verbraucht auch noch sehr, sehr viel Strom. Das heißt, jede dieser Abfragen, die kostet heute OpenAI, man munkelt so zwischen drei und fünf Cent. Und wenn es halt jeden Tag jetzt eine Milliarde Leute machen würden und du aber noch kein Geschäftsmodell dahinter hast, also weder ein Abo noch eine Werbung, dann würdest du halt jeden Tag einfach halt zig oder hundert Millionen von Dollar verbrennen, indem du halt diesen Service kostenlos zur Verfügung stellst. Das heißt, im Augenblick ist ja noch viel kostenintensiver und ressourcenaufwendiger als eine normale Google-Suche. Und es steht halt noch kein Geschäftsmodell dahinter.
Joel Kaczmarek: Drei bis fünf Cent pro Abfrage. Also wenn du sagst, ist TikTok relevant? Ja, weil so machen wir mal ein Skript und machen wir mal ein ... Video und es ist sozusagen jedes Mal eine Abfrage und die kostet dich drei bis fünf Cent.
Teo Pham: Genau, lass es meinetwegen vielleicht auch nur ein Cent sein oder nur mal drei Cent. Aber es ist nicht so, dass es umsonst ist. Das heißt, im Hintergrund, also deshalb ja auch die KI, da muss halt richtig viel Rechenkapazität eben reserviert werden in diesen ganzen Datacentern. Und deshalb ist es ja auch so, dass ja Microsoft ja schon vor drei Jahren in OpenAI investiert hat. Eine Milliarde Dollar. Und es war ja nicht nur, hier sind eine Milliarde Dollar und damit ihr jetzt irgendwie Leute einstellen könnt und damit ihr Marketing machen könnt, sondern zum Teil auch einfach Credits für Cloud-Leistungen wie eben Azure. Das heißt, jede Company, die auch was in dem Bereich machen möchte, die kann jetzt nicht einfach nur irgendwie so ein schlaues Modell bauen, sondern die muss halt auch richtig Geld an die Cloud-Provider eben reinbuttern. Und deshalb ist eben auch die Frage, können Startups überhaupt alleine sowas bauen? oder sind es am Ende eben nur extrem gut finanzierte Startups oder eben die riesigen Tech-Player, die halt überhaupt die notwendige Infrastruktur haben, um überhaupt solche Services anbieten zu können.
Joel Kaczmarek: Ich würde ja mal sagen, das war auch wahrscheinlich ein Geniestreich, da investiert zu haben, weil erstens, Microsoft hat sich einen gut zahlenden Kunden aufgebaut für seine Cloud-Dienste. Zweitens, man hat Teile an einem krass wachsenden und krass bekannten, erfolgreichen Unternehmen. Und drittens, was ich bei dir gelesen habe auf deinem LinkedIn-Slides vor kurzem, war, dass Microsoft ja sogar jetzt hingeht und sagt, wir nehmen jetzt mal Bing und hauen da mal irgendwie die ChatGPT-Geschichten rein und mal gucken, was dann passiert. Also zumindest ist es sehr interessant, mal zuzugucken, wenn Bing, was immer gegen Google abgestürzt ist oder abgeschmiert ist, jetzt auf einmal auf sowas setzt. Was ist denn so dein Blick da drauf?
Teo Pham: Also diese Integration macht total viel Sinn für Microsoft. Und wenn die jetzt eben ... Jetzt 10 Milliarden investieren zu einer 30 Milliarden Bewertung. Kann man natürlich irgendwie lange drüber diskutieren, Mensch, wie groß muss denn OpenAI werden oder ChatGPTT, damit es mal so viel wert ist? Oder gibt es denn so viele Leute, die jetzt für 20 Dollar im Monat ChatGPTT abonnieren würden, damit es mal ein valides Geschäftsmodell ist? Wenn jetzt aber quasi Microsoft der de facto Eigentümer von dieser Technologie ist oder der Hauptnutzer. Und es dann eben integrieren kann, nicht nur mit Bing, sondern eben auch mit Microsoft Office. Das ist ja ein total mächtiges Tool. Also stelle dir vor, du gehst jetzt eben in Microsoft Office rein und hast dann irgendwie deinen Assistenten, also nicht mehr diese Büroklammer von früher, aber so in der Art, quasi GPT. Und dann sagst du irgendwie, ich mache heute eine Podcast-Folge zu Künstlicher Intelligenz. Bitte schreib mir mal zehn spannende Interview-Fragen. Und dann wird dir das halt alles runtergeschrieben in Microsoft Word. Und du musst halt nicht mehr in ChatGPT dafür reingehen. Oder du bist jetzt ein User von Microsoft Excel und da hast du irgendwie einen riesigen Datensatz und könntest zum Beispiel sagen, hey, jetzt habe ich hier einen Datensatz. ich bin jetzt irgendwie der Zalando und da sind jetzt irgendwie meine Abverkaufszahlen von meinen Sneakern irgendwie drin. Finden wir doch mal die Auffälligkeiten. oder mach mir doch mal so eine Renner-Penner-Liste. oder was sind denn meine Topseller? Und wenn du dann quasi ohne irgendwelche Formeln einfach so sozusagen mit verbalen Cues, mit so diesen verbalen Prompts dem den Befehl geben kannst und der eben verstehen kann, okay, ich habe verstanden, was der damit meint und ich kann die ganzen Sachen durchforsten und sage jetzt, ach übrigens, die grün-weißen Air Jordan sind der absolute Topseller, dann ist es natürlich ein super mächtiges Tool. Und dann sagt Microsoft vielleicht übrigens, das normale Office, das gibt es irgendwie für 100 Dollar im Jahr und Microsoft Plus oder Office Plus GPT gibt es für irgendwie 200 Dollar im Jahr. Dann ist es natürlich wieder ein ganz anderes Geschäftsmodell. Das heißt, der Wert, glaube ich, von dem Microsoft Investment ist gar nicht unbedingt das typische Venture Investment. Ich investiere jetzt in die Firma und hoffentlich ist die dann immer mal das Zehnfache wert, sondern wir wollen die Technologie auch mit nutzen. Vielleicht kaufen wir den Laden auch irgendwann mal komplett und dadurch wird unsere Megacompany vielleicht nochmal deutlich wertvoller.
Joel Kaczmarek: Ich habe auch die ganze Zeit gedacht, wer soll da noch investieren, wenn das wie so ein krasser Stratege eigentlich schon daherkommt. Gar nicht so weit gedacht, aber du hast wirklich recht, weil du kannst ja dann auch sagen, bauen wir mal bitte die Bilder für die PowerPoint. Präse, indem du mir die mit Dali sozusagen erstellst, ja. Also das stimmt schon, ne?
Teo Pham: Das ist ja auch total naheliegend, dass du sowas machst. und auch, das Ding ist ja, auch wir Knowledge Worker, ja, in Anführungszeichen, wir machen ja auch total viele Sachen, die total stupide und repetitiv und Routine sind, ne? Jetzt irgendwelche Sachen recherchieren und zusammenfassen und copy-pasten und so weiter, ne? Wir machen ja extrem viel davon. auch Leute, die jetzt, keine Ahnung, bei McKinsey oder BCG oder sowas arbeiten, wenn der Kunde denen jetzt sagt, hey, macht uns doch mal eine Marktübersicht über die besten, keine Ahnung, Hersteller von elektrischen Autos oder sowas und macht mal so ein Benchmarking, dann setze ich im Prinzip halt auch nur irgendwie so einen Top-Business-School-Absolvent, der 5.000 Euro am Tag kostet, irgendwie hin und macht jetzt halt irgendwie so ein paar Tage lang diese Recherche und ChatGPTT oder ähnliche Tools, die können das sicherlich in, weiß ich nicht, in 80% der Qualität machen, in irgendwie 5 Minuten. und wenn du es dann eben auch noch automatisch auf Slides bringst, dann brauchst du jetzt eben auch nicht mehr diese Struktur von, okay, ich brauche den Schlauch. der irgendwas auf Hand scribbelt und dann irgendwie nach Indien schickt, damit dort jemand, der weniger Geld verdient, das Ganze auf PowerPoint bringt, sondern das Tool macht das irgendwie automatisch. Also ich glaube, da wird sich relativ viel verändern in der Art und Weise, wie wir arbeiten.
Joel Kaczmarek: Und wenn wir trotzdem nochmal auf unseren Punkt weitere Tools abheben, siehst du noch andere, die ähnlich unterwegs sind?
Teo Pham: Also im Bereich Bildergenerierung? ist sogar Midjourney aus meiner Sicht besser als DALL·E zum Beispiel. Also DALL·E 2, darüber hatten wir das letzte Mal ja gesprochen. Bei Midjourney ist es so, dass es tatsächlich schon ein kostenpflichtiges Tool ist. Das heißt, die lassen dich erstmal irgendwie 20, 30 Bilder erstmal ausprobieren und dann bist du halt schon total hooked, weil du sagst, boah, geile Bilder. Und dann heißt es auf einmal, ja, jetzt bitte ein Abo abschließen. Und dann kostet es halt 30 Dollar im Monat oder sowas. Aber für all diejenigen, die es halt nutzen, die finden es halt so cool, dass es eigentlich so ein No-Brainer ist. Also dass die Conversion-Rate wahrscheinlich extrem hoch. Und ich glaube, die Company Midjourney ist jetzt auch nicht so wahnsinnig groß. Das heißt, die werden da, ich glaube, die werden da ein ganz gutes Business machen. Und es gibt natürlich immer so gewisse Spezialisierungen. Also es gibt halt auch zum Beispiel Startups, die konzentrieren sich halt eher auf das ganze Thema so Copywriting oder Marketing Copy. Das heißt, du sagst halt, hey, also die heißen dann so Copy AI oder Jasper AI. Und denen könntest du halt zum Beispiel sagen, hey, ich bin irgendwie ein Online-Shop für Schuhe. Bitte mach mir mal SEO-Texte, mach mir mal Headlines, mach mir mal Call-to-Actions, mach mir mal Headlines für mein Newsletter. gib mir mal zehn Varianten, die ich da A, B testen kann und so. Das heißt, das sind eben Companies, die schon sich auf gewisse Use Cases eben spezialisieren und dann eben einfach von der Usability noch ein bisschen einfacher sind, weil sie eben sagen, okay, das ist jetzt irgendwie nur für Marketer und dementsprechend ist es schon ein bisschen besser angepasst. Und da wirst du halt sehr viele Unternehmen sehen, die im Prinzip die KI gar nicht unbedingt selbst entwickeln. Also die bauen ja nicht ihr eigenes OpenAI, sondern zum Teil zapfen sie einfach nur das Modell an über so eine Schnittstelle und verbessern halt ein paar Sachen an der Usability, verbessern vielleicht quasi noch die, ich sag mal, die Filter oder die Refinements. den Befehlen und können halt dadurch nochmal für bestimmte Berufsgruppen eben bestimmte Tools einfach noch besser anpassen. Das ist
Joel Kaczmarek: auch, wo ich mich noch schwer tue, zu verstehen, was ist eigentlich die Quelle der KI-Technologie, weil ich habe zum Beispiel auch ein Investment, irgendwie halb 1000, die machen so Firmen-Podcasts, das heißt, du kannst als Firma einen Podcast für dich intern oder extern machen und die ganzen Transkriptionsgeschichten zum Beispiel machen sie teilweise mit Google, aber verbessern sie natürlich noch, bauen sie ins Interface ein, haben einiges Tooling etc. etc. und das beobachte ich gefühlt sehr oft. Also wir benutzen auch Jasper, ich habe jetzt die Tage was gesehen, eine Firma, die heißt wie Murph AI, damit kannst du deine Stimme teilweise synthetisieren. Und da frage ich mich immer, gibt es da so drei große? Also ist das so ein Oligopol? Ist das quasi so eine kleine Machtelite und da werden die alle angezapft? Oder bauen die auch Parts selber? Ich lerne jetzt von dir, es ist wahrscheinlich eher so, dass es so mehrere Player gibt, die angezapft werden und dann werden sich die drei bis fünf Großen am Markt irgendwie etablieren.
Teo Pham: Genau, also es ist so, dass es eigentlich relativ üblich ist, dass du dir irgendwelche KI-Modelle einfach einkaufst. Also du kannst jetzt auch zu Amazon gehen, zu Microsoft, zu Google und so. und da gibt es einfach bestimmte Sachen, die muss, also es gibt bestimmte KI-Modelle, die muss jetzt nicht einfach jeder selbst trainieren, ne? Also wenn du jetzt zum Beispiel sowas haben willst, wie so ein Self-Checkout-Supermarkt, wie diese Amazon Go-Dinger, ne? Da muss jetzt ja nicht jeder irgendwie anfangen und irgendwie alle Ketchup- und Cola-Flaschen der Welt irgendwie einscannen, um irgendwie zu lernen, was ist jetzt Cola und was ist Pepsi, sondern Amazon selbst sagt dir mehr oder weniger, okay, hier ist der Datensatz, den haben wir trainiert, lieber Rewe, lieber Walmart, wenn ihr das nutzen wollt, dann macht das halt und pro Request oder pro Nutzung zahlt ihr uns eben X, ne? Und im Zweifelsfall verdient Amazon quasi mit der Bereitstellung dieser Daten mehr Geld, als wenn sie ihre eigene Supermärkte damit machen würden. Und genauso ist es eben auch bei anderen. Du hast ja auch diesen Trend gesehen mit diesen Lensa AI, also quasi diesen Avatar-Bildern. Du lädst ja 10 Selfies von dir hoch und dann kommen irgendwie 100 coole Versionen von dir raus. Das ist ja auch nicht deren eigenes Modell, was die da machen. sondern die zapfen auch einfach ein anderes an. Ich glaube, in dem Fall war es Stable Diffusion, wo einfach die Firma Lensa AI sagt, okay, wir sind im Prinzip die Marketingfirma dahinter, wir akquirieren die Kunden, wir haben das User Interface, aber wenn jetzt Joel und Teo jetzt ihre Selfies eben hochladen, dann füttern wir im Prinzip auch nur die KI von einem anderen Modellanbieter und wir verdienen, und wir als Lensa verdienen vielleicht, keine Ahnung, 5 Cent am Bild und 4 Cent davon reichen wir meinetwegen an Stable Diffusion weiter und die wiederum müssen auch wiederum 2 Cent meinetwegen an Amazon eben bezahlen für die ganzen Server und ... Das heißt, du hast so eine gewisse Value Chain, wo du sagen kannst, irgendjemand stellt die Hardware, irgendjemand hat das Modell gekauft und irgendjemand kauft das Modell beziehungsweise auch noch die Hardware ein, um obendrauf noch einen Service eben draufzusetzen. Das heißt, es ist extrem einfach, also relativ einfach, jetzt so ein Copycat-Lenser-AI-Tool zu bauen. Das kann wahrscheinlich jeder, der so halbwegs programmieren kann oder diese Sachen zusammen... Also quasi wie so ein Lego-Baukasten. Kann wahrscheinlich auch so eine App starten. Und da wird es eben spannend sein zu sehen, welche von diesen ganzen neuen AI-Startups, die es jetzt gibt, haben eben eigene Modelle und eben auch einen eigenen USP. Und welche stückeln im Prinzip nur vorhandene Komponenten zusammen. Und ich glaube, dass Copy-AI und Jasper-AI mehr oder weniger auch nur auf GPT-3 eben aufsetzen. Die waren natürlich nicht so erfreut, als jetzt dann eben ChatGPTT auf den Markt gekommen ist. Also es gab ja quasi, das Modell ist ja quasi GPT-3 und auf dem haben ja Jasper und Copy-AI aufgebaut. Und ChatGPTT ist jetzt ja im Prinzip auch eine Applikation, die genauso wie Jasper und Copy eben auf dem GPT-3-Modell eben aufbaut, nur dass es halt kostenlos ist und vielleicht sogar noch besser funktioniert.
Joel Kaczmarek: Lustigerweise ist es ein bisschen wie früher eigentlich im Handel. Du hattest irgendwie den Produzenten. dann hast du irgendwie den Importeur, dann hast du irgendwie den Großhändler und dann hast du den Laden, der ist dir verkauft. Das ist eigentlich so ein bisschen ähnlich. Einer produziert die KI, einer hat die Technologie, einer gibt es dir weiter und du baust dann Modelle drauf. Also davon bin ich mal gespannt. Also wie tragbar das dann ist, wenn du quasi auf einem System, was andere auch anbieten, was du theoretisch anzapfen kannst, sage ich mal ein userfreundliches Interface drauf ballerst und da dich vielleicht auf bestimmte Anwendungsfälle spezialisierst, weil am Ende des Tages geht es ja auch viel darum, dass du weißt, wie du die KI quasi instruierst. Also ich könnte mir vorstellen, Jasper ist ganz gut da drin, der zu sagen, alles klar, jetzt mal irgendwie Textgeschichten mehr mit Fokus Headlines, jetzt mal Textgeschichten mehr mit Fokus Facebook-Anzeigen oder so. Während irgendwie Bildgeschichten dann halt auch so sind. Lensa sagt dann hier, ich gebe dir mal zehn Fotos, mach mir mal irgendwie Superhelden daraus und überleg dir mal, welche Szenarien passen könnten. Zack, zack, zack, zack.
Teo Pham: Ich glaube, du musst halt dich so ein bisschen spezialisieren. Also bei Texten könnte es ja sein, also genau, Jasper und Copy, die haben ja eher so diese ganzen Marketer, SEO oder vielleicht so Copywriter im Kopf. Jetzt könntest du auch sagen, ich mache so ein Tool für Anwälte. oder für Ärzte und füttert das Modell dann eben nochmal mit ganz vielen, weiß nicht, wissenschaftlichen Abhandlungen oder Papers oder sowas oder mit Diagnosen oder so. Und dann hast du halt einerseits wahrscheinlich ein besseres User Interface, aber vielleicht auch bessere Daten, weil du eben neben dem Chat-GPD-Modell eben auch nochmal eigene Daten eben eingefüttert hast. Das heißt, da kann ich mir vorstellen, dass du dich vielleicht rein von der Wissensdomäne her spezialisierst oder eben, wie du sagtest, irgendwie spezielle Applikationen. Kann ja sein, dass jetzt Lensa total gut darin ist, jetzt eben Menschen irgendwie zu verwandeln. Aber wenn ich jetzt ein Inneneinrichter bin, also ich glaube, es gibt ja auch Snap, die heißt Interior AI, dann kannst du die sagen zum Beispiel, okay, lad ein Bild von deinem Office oder von deiner Wohnung irgendwie hoch und wir zeigen dir mal, was du draus machen kannst. Und dann haben die sich vielleicht drauf spezialisiert, irgendwie außen im einfachen Raum irgendwie ganz tolle Wandfarben und irgendwie Vorhänge irgendwie dran zu machen oder so, was vielleicht out of the box eben so nicht geht. Und da ist einfach immer nur die Frage, wie viel Wertschöpfung packst du eigentlich drauf und wie viel ist halt total Commodity?
Joel Kaczmarek: Was glaubst du, wie viel, sag ich mal, Vertrauen wird KI entgegengebracht werden? Könntest du dir vorstellen, dass es zum Beispiel eine KI gibt, die Gerichtsurteile spart oder eine KI, die Politiker ersetzt, dass Politiker sozusagen gar nicht mehr selbst entscheiden dürfen, wie Budgets verwendet werden, sondern die KI sagt, ob jetzt irgendwie der Kreisverkehr finanziert wird oder die Übergangsbrücke. Oder könntest du dir vorstellen, dass Ärzte KI an die Hand bekommen, können Symptome eingeben und dann kriegst du Behandlungsvorschläge, dass die Ärzte irgendwann vielleicht gar nicht mehr diese dicken Wälzer da haben, hier rote Liste, wie die alle heißen, sondern dass sie auf so eine KI vertrauen. Glaubst du, das wird alles kommen? Oder vielleicht muss man eher sagen, wie schnell glaubst du, wird sowas kommen?
Teo Pham: Also ich denke, dass in allen Bereichen KI natürlich uns assistieren wird, genauso wie wir heute auch Computer benutzen. Und auch heute, also der Arzt, der rennt jetzt ja auch nicht in die Bibliothek und liest jetzt irgendwie 100 Bücher durch, um jetzt irgendwie eine Diagnose oder so zu finden, der weiß nicht, hat ja wahrscheinlich auch seine Datenbanken oder sowas. Also ich würde halt quasi die KI so ein Stück weit einfach mit Computern eben vergleichen. Das heißt, jeder wird halt früher oder später KI nutzen. Wir benutzen heute ja auch schon, wenn wir Google benutzen und so, ist ja auch schon KI mit dabei, wenn wir TikTok benutzen eben ebenfalls. Weil du ja Gerichtsprozesse gesagt hast, es gibt gerade eine KI-App, die heißt DoNotPay und das steht für DoNotPay a Lawyer, also bezahle keinen Anwalt. Und die behaupten quasi, dass sie alle Arten von Schriftstücken, die normalerweise ein Anwalt machen würde, also irgendwie Verträge aufsetzen oder irgendwie Abmahnungen oder Beschwerden. oder ähnliches, dass sie das eben genauso gut machen können. Und jetzt haben sie einen ganz cleveren PR-Gag gemacht. Und jetzt haben sie gesagt, okay, wir bieten demjenigen eine Million Dollar, der sich von unserer App vor Gericht vertreten lässt. Ob sie das am Ende vorhaben oder nicht, ist ja wahrscheinlich hier auch ganz irrelevant, aber es ist natürlich eine super PR jetzt, um da jetzt irgendwie aufzusteigen, also aufzuspringen. Aber das Witzige ist ja, kennst du diese Fernsehserie Suits? Ja, klar.
Joel Kaczmarek: Eine Anwaltsserie. Menschen, die sie nicht kennen. Eine Anwaltsserie, wo sich immer gestritten wird, fleißig in New York und es viel so um große Männer mit großen Egos geht. Aber ganz cool.
Teo Pham: Ja, genau. Da gibt es diese coolen Anwälte und da gibt es halt diesen einen, diesen Superbrain, diesen Mike Ross. der hat ja dieses fotografische Gedächtnis. Und der hat halt alle Bilder, alle Bücher, alle Urteile und so weiter durchgelesen. Und der kann dann immer sagen, ach ja übrigens, aber 1723 im Fall Smith gegen Jones war doch da und da. Und dann argumentiert er vor Gericht und gewinnt natürlich immer, weil er dieses Mega-Brain ist. So, wenn ich jetzt eine AI hätte, die eben auch all diese Gerichtsurteile gelesen hat und dann natürlich eben auch zu einem gewissen Kontext dann das entsprechende Urteil raussuchen kann oder eben den Argumentationsstrang, dann ist es natürlich auch extrem mächtig. Also von daher glaube ich schon, dass es extrem viel Sinn macht und natürlich auch so kommen wird. Vielleicht nochmal ein Punkt.
Joel Kaczmarek: Punkt, wir haben ja vorhin schon angerissen, bisher wurden von Industrialisierung und der technischen Weiterentwicklung vor allem Blue-Color-Tätigkeiten, sage ich mal, disruptiert. Also sowas wie in der Fabrik arbeiten, an Maschinen Sachen nähen, Sachen fertigen. Jetzt ist es halt so, dass auch White-Color-Arbeit auf einmal, also Arbeit mit dem Denken, mit dem Gehirn und Kreativität sukzessive durch Maschinen verbessert, ergänzt, ersetzt werden. Was siehst du denn so als Weg, wie man darüber nachdenken sollte, wie man sich demgegenüber verhalten sollte? Wir haben ja jetzt schon gelernt von dir, Berater werden es bald schwer haben, weil die McKinsey's dieser Welt treten dann bald gegen ChatGPTT an, um die Marktanalysen zu bauen. Was ist denn sonst so? aber dein, was du so siehst, wie die Leute sich verhalten und was denkst du, was irgendwie ein schlaues Vorgehen wäre?
Teo Pham: Also ich glaube, man sollte dem auf jeden Fall gegenüber extrem offen sein. und ich glaube auch, dass die meisten Leute, die es halt wirklich benutzen, auch auf Anhieb begeistert sind und einfach sagen, oh ja krass, das ist ja total hilfreich, auch wenn man irgendwelche Fragen stellt, dann sagen erstmal alle, cool, cooles Ergebnis, das hilft mir wirklich weiter. Das heißt, ich glaube, diejenigen, die erstmal den Sprung machen, die Tools überhaupt zu nutzen, die werden extrem schnell diese Vorteile sehen. und dann ist einfach so ein bisschen eine Frage des eigenen Interesses, ob du da jetzt irgendwie voll einsteigst oder nicht. Aber ich würde mal sagen, jetzt alle Leute, die, weiß nicht, wie wir, was mit Medien zu tun haben, mit Content-Produktion und so, also da gibt es halt schon das Potenzial, dass wir das, was wir machen, irgendwie zehnmal besser machen können. Und ob zehnmal besser bedeutet, irgendwie zehnmal schneller oder zehnmal billiger oder irgendwie zehnmal mehr Quantität oder Qualität, müssen wir ja herausfinden. Aber jeder, der sich natürlich irgendwie mit Content auseinandersetzt, für den ist es natürlich extrem spannend. Über Programmierer haben wir vorhin ja auch schon gesprochen. Wenn die jetzt quasi jemanden haben, der ihren Code eben mit reviewen kann oder sie vielleicht mentoren kann, also weil der Wert vom, also ich stelle mir das immer so vor, wenn die jetzt der Junior-Programmierer bin, dann schreibe ich ja meinen Code, dann gehe ich ja irgendwie zum Senior-Programmierer hin und der kann mir dann vielleicht Tipps geben. Hey, das kannst du irgendwie einfacher schreiben, eleganter schreiben, da ist ein Fehler und so weiter. Der sieht es natürlich. Und wenn ich jetzt quasi so einen Co-Piloten habe mit ChatGPTT, der mir da helfen kann, ist das natürlich extrem hilfreich. Also ich glaube, die meisten werden das einfach als extrem hilfreiches Tool eben erachten. Und dann wird es eben Leute geben, die, obwohl das ja gefühlt in unserer Bubble ja überall präsent ist, die vielleicht bis auf die nächsten Jahre nichts davon mitkriegen werden. Die wissen im Zweifelsfall noch nicht mal, wie man GPT eben buchstabiert. Und die werden sich dann vielleicht plötzlich wundern, Moment mal, ich bin jetzt hier diese mittelständische Werbeagentur. und wenn ein Kunde zu mir sagt, mach mal ein Corporate Design, ein Slogan und irgendwie ein Logoentwurf, dann verlangen wir dafür immer 100.000 Euro, weil wir ja auch irgendwie 100 Mahntage darauf ansetzen müssen. Wie kann es eigentlich sein, dass irgendwelche Teenager das jetzt irgendwie für 5.000 Euro anbieten können und auch noch in der besseren Qualität, weil die halt diese ganzen Tools nutzen. Also ich glaube, da wird es halt sehr, sehr stark auseinander gehen, dass diejenigen, die es halt nutzen, also nehmen wir mal an, du hast jetzt irgendwie zwei Leute, die jetzt an sich gleich begabt, gleich ausgebildet sind. gleich schlau sind. Und die eine Person, also Person A, geht jetzt irgendwie all in auf dieses ganze AI-Thema und benutzt diese ganzen Tools. Und Person B bleibt halt so, wie sie ist. Da kann ich mir relativ gut vorstellen, dass Person A halt zehnmal so produktiv ist wie Person B.
Joel Kaczmarek: Aber dann ist die Arbeitshypothese also, dass es eigentlich mehr eine Augmentierung ist. Also man wird nicht ersetzt durch die KI, sondern man wird quasi lageversetzt, Dinge besser, schneller, günstiger zu machen. Und vielleicht tut man manche Dinge auch nicht mehr selbst, sondern macht dafür andere Dinge. Und muss sich wahrscheinlich trotzdem aber mal ein bisschen Gedanken machen. Also ich sehe sowas wie bedingungsloses Grundeinkommen. trotzdem wieder am Horizont irgendwie erscheinen. Weil das macht schon dann was mit den Menschen, wenn man irgendwie sagt, okay, jetzt kann ich so viele Sachen auslagern. Ich habe so ein bisschen diese Wall-E-Bilder manchmal vor Kopf. Geht es dir auch so?
Teo Pham: Wenn du jetzt auf eine Webseite gehst und dann gibt es den Customer-Service-Chat, dann haben wir ja alle schon unterschiedlich gute Erfahrungen damit gemacht. Und ich weiß ja vielleicht auch gar nicht, wann ein Chatbot dran ist und wann ein echter Mensch dran ist. Aber dann ist ja entweder so, dass, wenn es dann irgendwie heißt, der Service-Chat ist aber leider nur von 9 bis 16 Uhr verfügbar, dann ist natürlich keine so gute Experience. Oder wenn die Person am anderen Ende irgendwie keine Ahnung hat oder meinen Fall nicht lösen kann, ist es natürlich auch nicht so toll. oder irgendwie es lange dauert. Oder es irgendwie heißt, ja, sie sind in der Warteschleife, in 20 Minuten kommen sie dran. Und wenn du jetzt sagst, okay, wir bauen da jetzt halt richtig gute Chatbots ein, also welche, die besser funktionieren als in der Vergangenheit, dann ist es natürlich A, für die Customer Experience natürlich super, weil sie jetzt 24-7 blitzschnell einen Service kriegen. Aber vielleicht für die Customer Service Leute, die bislang halt diese Chats gemacht haben, da ist es vielleicht nicht so prima. Das heißt, ich glaube, für Leute, die halt in der Lage sind oder auch motiviert sind, sich da weiterzuentwickeln, die werden sagen, hey, cool, super Tool, um mich quasi zu hebeln und zu, ja. Aber Leute, die, glaube ich, nicht so offen sind, ihren Skillset weiterzuentwickeln, die werden wahrscheinlich relativ schnell sehen, dass jetzt so ein Skillset wie, ich schreibe SEO-Texte für Online-Shops, kriege irgendwie, weiß nicht, x Euro die Stunde dafür, dass jetzt irgendwie Zalando mir jetzt irgendwie 100 Produkte schickt und ich schreibe jetzt irgendwie Texte mit, der neue Tommy Hilfiger-Pulli passt super zu grünen Schuhen und ist mit seinem Fellbesatz besonders kuschelig im, weiß nicht, im Winter. Also dafür kann ich wahrscheinlich in Zukunft nicht mehr 50 Euro die Stunde verlangen.
Joel Kaczmarek: Aber da ist eine Karriere an dir vorbeigelaufen, Teo. Ich hätte es gekauft. Gut, und da du sonst aber unser Mann für das Metaverse bist, als letzte Frage noch an dich, was siehst du denn so für KI-Anwendungsfälle im Metaverse?
Teo Pham: Also letztendlich ist es ja so, dass wir im Metaverse ja ganz viel natürlich mit digitalen Welten zu tun haben, also digitalen Avataren, Assets. Gaming-Umgebungen, Welten, Gegenständen und so weiter. Und da ist ja im Augenblick so, dass die zu erstellen ja noch relativ teuer ist. Da brauchst du irgendwie Leute, die irgendwie so 3D illustrieren können und Leute, die besonders fantasievoll sind, auch diese Welten entwerfen können. Leute, die irgendwelche Charaktere entwerfen können. Und jetzt geht es mit den Tools natürlich auch nochmal viel, viel einfacher. Das heißt, ich kann mir vorstellen, dass eigentlich jetzt jeder so ein Creator werden kann. Also wir haben ja schon mal drüber gesprochen, glaube ich auch, dass ja Leute ja ihre eigenen Roblox-Welten oder so entwerfen. Aber um das zu können, muss ja auch schon ein bisschen programmieren können, ein bisschen designen können. Und ich glaube, jetzt geht es vielmehr darum, quasi die Fantasie zu haben, um die KI mit den richtigen Inputs eben zu füttern und du vielleicht aber nicht mehr ganz so viele von diesen handwerklichen Tätigkeiten, also Fähigkeiten eben brauchst. Das heißt, ich glaube, wir werden halt so eine gewisse Content-Explosion erleben, also auch im Metaverse, aber nicht nur im Metaverse, weil jetzt einfach irgendwie jeder halt relativ gute Sachen eben produzieren kann und dann wird sich natürlich mit der Zeit natürlich auch die Spreu vom Weizen trennen, aber jetzt aufs Metaverse bezogen, kann ich mir schon sehr gut vorstellen, dass jetzt eben, weißt du, wenn wir über so Sachen gesprochen haben, wie so eine Kollektion mit irgendwie 10.000 Bored Ape-Avataren zu machen, also das kannst du jetzt mehr oder weniger auf Knopf... Kopfdruck machen, ne? Mit diesen ganzen Tools. Da brauchst du jetzt irgendwie keine Illustrator oder Designer mehr dafür einstellen, die das Ganze machen. Also klar, wenn jetzt Illustrator oder Designer zuhören, also natürlich macht ihr das besser, aber ihr macht das natürlich deutlich langsamer als irgendwie so eine KI. Das heißt, ich glaube, es wird sich ein relativ hohes Niveau etablieren, wo wir einfach sagen, ja, das ist good enough, was durch die KI produziert wurde. Und vielleicht für den letzten Feinschliff oder für die initiale Idee brauchen wir wirklich noch die Experten. Aber alles, was dazwischen passiert, was halt irgendwie relativ monoton und repetitiv ist, da kann natürlich die KI total unterstützen.
Joel Kaczmarek: Na gut, also es bleibt spannend. Cooles Update. für heute. Man merkt ja auch hier, man kommt manchmal erst auf Ideen, wenn man drüber spricht und hat so ein bisschen den Charme heute gehabt von, warum mal über spaßige Dinge reden und hoffe ich, dass das nächste Mal auch wieder so wird. und danke dir ganz herzlich, lieber Teo.
Teo Pham: Ja, danke schon.