Dieses Transkript wurde maschinell erstellt. Wenn dir ein Fehler auffällt, schreib uns gerne zu diesem unter redaktion@digitalkompakt.de.
Joel Kaczmarek: Hallo und herzlich willkommen zu einem neuen Blackbox-Tech-Podcast von Digital Kompakt. Ich bin Joel Kaczmarek und zwei Geeks, zwei Technologie-Liebhaber. Wir fangen mal mit dem einen an, der mit mir das Format hier macht. Eigentlich ist das aber eher ein Crossover, darf man sagen. Also eigentlich müsste ich euch beide fast gleichzeitig reden lassen. Wir fangen mal vorne von mir an.
Johannes Schaback: Ja, hi, ich bin Johannes. Moin, moin.
Joel Kaczmarek: Moin. So, und wenn ich sage Crossover, wir haben hier noch einen Technik-Verliebten, den ihr auch schon kennt aus unserer KI-Reihe. Eigentlich muss man euch beide nicht mehr vorstellen. Sag trotzdem auch nochmal einen Satz zu dir. Du bist ja heute als Gast quasi da.
Fabian Westerheide: Ja, hallo, ich bin Fabian Westerheide, Unternehmer und Investor im Schwerpunkt Künstliche Intelligenz.
Joel Kaczmarek: Genau, so und mit dem guten Fabian machen wir diesen schönen Podcast Hardware und KI, wo wir regelmäßig über Künstliche Intelligenz sprechen und eigentlich können wir den heutigen Podcast in beiden einordnen. Wir haben schon gesagt, dass wir eigentlich mal ein Roboter-Androiden-Bild mit unserem merchen müssten, aber wir haben uns jetzt dazu entschlossen, dass wir das bei Tech reinpacken und als KI-Thema behandeln. Und zwar wollen wir heute so ein bisschen der Frage nachgehen, ist KI overhyped? Also alle reden ja von künstlicher Intelligenz und man hat ja so ein bisschen das Gefühl, Leute, die sagen, sie machen KI, machen es aber gar nicht. Und wenn man es nicht mehr in seiner Sales-Präse drin hat, investiert auch gefühlt kein Investor mehr. Darüber wollen wir heute so ein bisschen reden. Wir fangen mal so grob an, damit uns auch jeder folgen kann. Ich merke, ich kriege manchmal selber auch einen Knoten im Kopf, deswegen ist das gar nicht so schlecht, auch wenn man es schon ein paar Mal gemacht hat, den KI-Begriff, also künstliche Intelligenz, nochmal so ein bisschen aufzufasern. Weil, was ist eigentlich gemeint, wenn man von künstlicher Intelligenz spricht?
Fabian Westerheide: Also für mich ist künstliche Intelligenz in erster Linie ein Überbegriff, ja, es ist ein Überbegriff, der diverse technologische Sachen beinhaltet, zum Beispiel Machine Learning gehört dazu, aber auch noch irgendwie Expertensysteme etc., aber auch gleichzeitig eine gesellschaftliche Implikation gibt, der in der Gesellschaft oft aufgenommen wird. für Software, die denken kann wie Menschen ähnlich, ja. Anders formuliert, für mich ist KI alles, was versucht, ähnlicher dem Menschen zu werden. Also wenn man Roboter oder Maschinen oder Software dem Menschen nahe bringt. Das heißt, sehen wie der Mensch, denken wie der Mensch, hören wie der Mensch, sich bewegen wie der Mensch, vielleicht aussehen wie der Mensch oder menschenähnliche Aufgaben übernimmt. Das ist für mich der Überbegriff von künstlicher Intelligenz, alles was da drin ist. Und dann lässt sich das natürlich in Feinheiten abstufen zwischen Narrow AI, AGI, Superintelligenz oder einfach nur Software oder nur Machine Learning etc.
Joel Kaczmarek: So, jetzt hast du schon ein paar Knallerbegriffe wieder rausgehauen, die wir mal alle so Stück für Stück jetzt auseinander nehmen. Jetzt hast du angefangen mit Narrow AI und AGI, die können vielleicht mal so in deinem Atemzug anfangen. Und dann kommen wir mal zu den anderen.
Fabian Westerheide: Also Narrow AIs sind oft Software, eine künstliche Intelligenz, die spezialisiert ist auf einen Bereich. Zum Beispiel eine Poker-KI, eine Schach-KI, eine KI, die ein autonomes Auto fahren kann. die aber nicht in der Lage ist, Transferwissen zu machen. Das heißt, die Poker-KI kann kein Flugzeug fliegen und kann auch keinen LKW fahren. Während ein Mensch noch in der Lage ist, sich selbst Dinge beizubringen und noch dieses Transferwissen schafft, neue Sachen zu lernen. Das ist auch die Abgrenzung zur sogenannten AGI, also Artificial General Intelligence. Eine Künstliche Intelligenz, wofür wir annehmen, dass die Menschen Level erreicht und sich selbst Dinge beibringen kann. Also dass wir im Endeffekt der KI nicht mehr alles beibringen müssen, sondern dass sie auch in der Lage ist, sich selbst irgendwie zu entwickeln. Wobei da der Sprung zu dem Thema dann Superintelligenz natürlich, ist, ja, da ist es eine sehr fließende Bewegung. Kurzum, also Narrow Eyes fokussiert auf ein Thema, dann aber teilweise den Menschen so überlegen, ja, also wie gesagt, im Pokern, im Schach, in diversen Themen sind uns künstliche Intelligenzen bereits überlegen, aber noch sind wir besser im Lernen und da können wir nachher nochmal tiefer drauf einsteigen, wenn wir gerade beim Thema Deep Learning sind, ja.
Joel Kaczmarek: Deep Learning, nächster spannender Begriff, wo wir auch mal ein, zwei Sätze zu sagen hätten, weil viele meinen ja eigentlich Deep Learning, wenn sie über KI reden und man hat immer noch diesen schönen Begriff neuronale Netze, was so wie ich es verstehe relativ gleich ist. Sag doch mal auch einen Satz dazu, dann haben wir so grob.
Fabian Westerheide: So, erst Johannes bitte.
Johannes Schaback: Letztendlich versucht man mit dem Computer, das Vorbild eines biologischen neuronalen Netzes nachzusimulieren. Also ein neuronales Netz besteht wie sein biologisches Vorbild aus kleinen Mini-Neuronen, die simuliert werden und im Grunde in einem großen Netzwerk zusammengeschaltet werden. Also man kann sich das so vorstellen, also wirklich räumlich jetzt vorgestellt, dass so ein Neuron, das besteht ja aus so Dendriten, das sind so kleine Dendriten, Da sind die Synapsen dran, dann gibt es so einen Zellkörper, da wird dann so die Impulse von den Dendriten und Synapsen aufgenommen und wenn ein bestimmter Threshold überschritten wird, wird dieses Potenzial weitergefeuert in so ein Axiom, also in so einen Ausläufer von diesem Zellkörper zu weiter nachfolgenden und wiederum angeschlossenen Symptomen. Zellen.
Joel Kaczmarek: Leck mich am Arsch, kennst du dich aus?
Johannes Schaback: Es ist total interessant. Auf jeden Fall, kannst du dir vorstellen, dass wenn du jetzt die vor dich legst, sozusagen Zellkörper nach vorne und die Axiome nach hinten und dann legst du die so in so einer Reihe vor dich, dann hast du quasi so eine erste Reihe. und wenn du jetzt da drüber wieder welche legen würdest, über diese Axiome, dann würdest du sozusagen so einen Stapel bauen aus diesen Axiomen. Die würdest du vervielfältigen und sozusagen in so Reihen vor dich stellen Und alle miteinander verbinden. Das heißt, du hättest so Schichten aus diesen Neuronen. Und jedes Neuron aus der einen Schicht ist komplett verbunden mit allen Neuronen aus der nachfolgenden Schicht. Und das musst du dir jetzt einfach vorstellen, im Computer simuliert. Und so funktionieren neuronale Netze. Und in den 60er Jahren war im Grunde das schon erfunden worden. Nur damals waren ja natürlich die Computer nicht so schnell und man hatte nicht so viele Daten, wie die dann letztendlich trainiert werden. Das Verfahren war schon da. Und was man dann jetzt vor zehn Jahren herausbekommen hat, ist, dass man diese Netze noch viel mächtiger machen kann, indem man noch mehr Schichten dazu packt, die aber nicht mehr vollständig alle miteinander verbunden sind. Also die Neuronen der einen Schicht sind nicht mehr komplett mit jedem Neuron der Nachfolgeschicht verbunden. Was dazu führt, dass die Zahl der Verbindungen zwischen den Neuronen runtergeht und du mehr Informationen auf dieser reduzierten Verbindung bringen kannst. Und damit kriegst du eigentlich letztendlich die besser trainiert, ganz vereinfacht gesagt.
Fabian Westerheide: Aber das ganze Thema ist ja auch sowieso alt. Ich meine, Alan Turing alleine hat sich ja schon mit KI beschäftigt. Wie du sagst, wir bereiten eigentlich nur Forschungsergebnisse auf, die es schon früher gab, aber die wir heute technologisch umsetzen können aus diversen Sachen. Deine Firma zum Beispiel ist ja auch ein großer Treiber davon, weil vom Internet, der ganzen Infrastruktur, die wir dafür brauchen. Für alle, die dem nicht folgen konnten, weil das nämlich hochspannend ist, ist im Endeffekt Deep Learning ermöglicht es, aus meiner Sicht in Echtzeit Anwendungen zu benutzen, die mitlernen können. Also zum Beispiel so ein Siri oder so ein Amazon Echo benutzt Deep Learning zur Spracherkennung und zur Verarbeitung von Befehlen. Also anstatt das Ganze immer in die Cloud gehen muss, dort verarbeitet oder dass es da vorgeschriebene Code gibt, wenn A passiert, muss B kommen, können diese Systeme in Echtzeit arbeiten, die Daten in Echtzeit verarbeiten und auch jedes Mal mitlernen.
Johannes Schaback: Deep Learning ist dann gut, wenn es um Signalverarbeitung von natürlichen Daten geht. Also Daten mit hohem Rauschfaktor und viel Redundanz. Also Bilder sind natürliche Daten. Signale, also Frequencies und Waves sind natürliche Datenquellen. Und da sind neuronale Netze immer gut. Wenn die lokale Anordnung der Datenpunkte zueinander wichtig ist, also beispielsweise wie bei Bildern. Stell dir vor, du hast ein Bild und du vertauscht jetzt die Spalten dieses Bildes. Dann ist das Bild für uns völlig unerkenntlich. Für die Maschine auch. Aber wenn du beispielsweise eine Excel-Tabelle nehmen würdest und die Column-Headers bestehen lassen würdest und dann einfach nur die Spalten vertauscht, dann ist die Semantik, der Inhalt dieser Tabelle nach wie vor erhalten. Das sind unterschiedliche Datenformen und du kannst sozusagen unterschiedlichen Scheiß mit diesen Daten machen. Und auf diesen unterschiedlichen Datenquellen funktionieren unterschiedliche Verfahren besonders gut. Deep Learning ist insbesondere dann gut, wenn du eben auf natürlichen Daten arbeitest und es letztendlich eine bessere Signalverarbeitung gibt. Es ist erstmal per se gar nicht so sehr ein Intelligenzfaktor. Es ist erstmal ein besonders guter, man könnte sagen, Filter. Weil das Tolle an Deep Learning ist, dass diese Extraktion von den Eigenschaften und von diesen Informationshäppchen in diesen Daten Diese Extraktionsmechanik wird mitgelernt. Das ist ganz toll. Das war nämlich früher nicht so und das ist bei anderen Verfahren auch nicht unbedingt so. Da mussten Leute, beispielsweise wenn du Katzen auf Fotos erkennen möchtest, mussten Leute so Kantendetektionsverfahren programmieren oder sie mussten von Hand Vergleichsfunktionen programmieren, um Bilder vergleichen zu können. Und das ist eben das Tolle an diesen neuronalen Letzten, dass sie diese Feature Extraction, wie man sagt, mitlernt.
Fabian Westerheide: Und es ist halt auch keine Magic, es ist halt Mathematik. Ich habe es mir mal erklärt, dass das eine ist, die Netze sind wie so Matrizenrechnungen im Endeffekt, so wie es alle, der Abitur gemacht hat, auch in der Schule gelernt hat. Und dazu kommt auch die Differenzialgleichung, was wir ja gesagt haben, mit Abstiegsverfahren etc. und dieser Fehlerberechnung, das wird dann sehr technisch. Aber es ist eigentlich pure Mathematik, deswegen sind auch viele Teams, die es entwickeln, oft mehr Statistiker oder Mathematiker vom Hintergrund oder Physiker, weil die sich interessanterweise besser daran einarbeiten können, als jemand, der klassische Computer Science studiert hat.
Johannes Schaback: Was, glaube ich, wichtig ist auch noch zu verstehen, ist, dass Neural Networks oder diese Deep Learning Conjunctional Neural Networks beispielsweise, die für Bildverarbeitung sehr häufig eingesetzt werden, nicht unbedingt das Einzige existieren. Es gibt sehr, sehr viele weitere Verfahren des maschinellen Lernens, die für unterschiedliche Informationsquellen, wie beispielsweise dieses Excel-Sheet, was ich gerade ins Feld führte, gut funktionieren. Also Support Vector Machines waren in den späten 90er Jahren eigentlich sehr, sehr, sehr, sehr stark und wurden jetzt eben abgelöst und sind auch nach wie vor für viele Anwendungen total gut. Wenn es total teuer ist, Daten zu erheben für dein maschinelles Lernproblem. Beispielsweise in der Genetik, wenn du sozusagen das Erfassen eines Samples, eines Training-Samples, mit dem du diese Maschine trainierst, total teuer ist. Das ist häufig in Healthcare so, dass es total teuer ist, weil du eben nicht 15 Menschen sterben lassen möchtest oder siehst, weil du irgendwie das falsche Medikament verabreicht hast, jetzt ganz plakativ gesagt. Dann brauchst du Verfahren, die mit weniger Daten auskommen. Und dann bist du eben dann relativ schnell wieder bei den klassischen Verfahren, die eben sich sehr stark an der Optimierungstheorie oder eben der Statistical Learning Theory angleichen.
Joel Kaczmarek: Also ich glaube, man merkt ein bisschen, wenn Johannes mit mir seinen Podcast macht, manchmal stellt er sich bewusst ein bisschen dumm, um das für uns alle Normalsterbliche mal verständlich zu verpacken. Da schlummert einiges in ihm. Wie ich gerade gelernt habe, hat er sogar mal seine Doktorarbeit zum Thema Deep Learning verfasst, also begonnen.
Johannes Schaback: Begonnen, drei Wochen.
Fabian Westerheide: Bist du weitergekommen als ich? Ich habe meinen ersten Film gegründet und dann von meiner Stelle geknickt. Also ich habe noch nicht mal angefangen, aber hatte auch die Stelle.
Johannes Schaback: Es war in der Tat ja so, dass ich, ich war in der TU Berlin, war bei Professor Claude Rolbenmüller am Machine Learning Lehrstuhl und ich wusste eigentlich zu dem Zeitpunkt schon so, akademisches Arbeiten ist nicht so meins, hatte mich dann aber eingeschrieben am graduierten Kollegen und dann kam eben Rocket um die Ecke und mir tat sich so eine Welt auf zu diesem Zeitpunkt und ich wusste ja, dass ich nichts weiß über Online-Marketing und Co. und ich fand das so geil, dass ich dachte, okay Scheiß auf den Doktor, ich mache jetzt Internet, so nach dem Wort.
Fabian Westerheide: Geil, das müssen die Eltern so sagen. Mama, ich mache jetzt Internet.
Johannes Schaback: Das war sehr lustig. Aber da habe ich natürlich trotzdem viel vorgenommen und ich hatte mich sehr lange darauf vorbereitet, diesen PhD anzutreten.
Joel Kaczmarek: Ist ja auch für dich super ausgegangen. Von daher war das ja offensichtlich eine gute und richtige Entscheidung. Also wir fassen nochmal so ein bisschen zusammen. Dieses Bild ist ja von dir auch ganz praktisch. eigentlich zu sagen, dass man sich das wirklich in Neuronketten und Stapeln vorstellt, die hintereinander gelagert sind. Also neuronale Netze, Deep Learning meint dann wirklich eigentlich in Reihe geschaltete Computer, die irgendwie Muster erkennen, Sachen verstehen. Jetzt wackelt Fabian schon immer im Kopf, das ist so eine Lala-Zusammenfassung, aber in meinem naiven Kopf bleibt das jetzt mal so. Dann können wir ja gleich mal so ein bisschen, wenn wir uns fragen, ob das Overhyped ist, so in die Begrenzungen und Limitierungen von Deep Learning eintauchen. Weil alle tun ja immer so, als wenn das so der Heilsbringer schlechthin ist. Wir hatten ein Parlament, was irgendwie sagt, wir arbeiten jetzt rund um das Thema Support. Du hast irgendwie Reisebuchungsgeschichten gehabt und, und, und. Du hast ja alleine auch schon gerade sowas wie Amazon Echo und Siri aufgezählt. Was betrachtet ihr denn so als Begrenzungen, als Probleme und Herausforderungen von Deep Learning?
Fabian Westerheide: Das Problem eins ist die Datenmenge. Du brauchst sehr, sehr viele.
Joel Kaczmarek: Was heißt denn viel?
Fabian Westerheide: Ja, nehmen wir mal an, ich glaube, AlphaGo hat Go nur gewonnen, weil sie, glaube ich, 60 oder 100 Menschenjahre simuliert gespielt hat, die Maschine.
Johannes Schaback: Genau, und das ist ein in sich geschlossenes System. Das ist sozusagen möglich, dass das System sich selbst Daten generieren kann, zum sich selbst trainieren.
Fabian Westerheide: Weil es gegen sich selbst gespielt wird. Das ist abstrakt gesehen genial, weil ich einfach innerhalb von mehreren Stunden theoretisch Jahre simulieren kann, weil alles einfach viel schneller läuft. Aber gleichzeitig ist es natürlich unfair, wenn man das natürlich dann direkt vergleicht, weil wenn ein Mensch 100 Jahre Erfahrung hat, komprimiert könnte er genauso gut sein. Also du brauchst mehr Daten, um ähnliche Resultate zu erreichen. Allgemein, der Mensch lernt mit weniger Daten Abstraktionslevel. Also das Abstraktionslevel ist schlecht. Der Mensch muss nur einmal im Auto gesessen haben und weiß, was ein Auto ist. Mit Deep Learning funktioniert das nicht so schnell. Du brauchst schon deutlich öfters, um ihm beizubringen, was ein Auto ist, oder viel, viel mehr Daten, bis er selbst entwickelt hat, was ein Auto ist. Das ist das eine. Dann das Problem mit strukturierten und unstrukturierten Daten. Also wie sauber sind die Daten? Sind die gelabelt? Sind die nicht gelabelt? Da gibt es verschiedene Möglichkeiten. Und es ist sehr rechenintensiv. Also du brauchst diese GPU-Server, also diese Grafikprozessoren, die wir aus Grafikkarten von früher noch kennen, die dafür besser gedacht sind. Aber auch da kommen wir wieder an eine Grenze dran. Also ich sehe das bei Portfoliofirmen, die brauchen halt, um eine Antwort rauszuholen, braucht das 30 Sekunden oder drei Minuten oder teilweise drei Tage. Das, was wir gar nicht mehr kennen, wo ein Ergebnis sofort ausgespuckt ist, da muss die Maschine noch rechnen.
Johannes Schaback: Genau, weil sie muss häufig ja noch trainiert werden, das Trainieren.
Fabian Westerheide: Wobei, das ist dieser Paragraphenwechsel. Also früher hat man Software programmiert, heutzutage trainieren wir sie. Also wir sind von Frameworks zu Modellen gewandelt. Und das finde ich sehr, sehr interessant. Heutzutage ist es so ein bisschen wie mit Kindern. Kind programmierst du auch nicht, sondern du erziehst es. Und so sehe ich das abstrakt mit KIs, also mit Software. Heutzutage, du bringst einer Software was bei und dadurch kannst du sie auch positiv und negativ formen. Du kannst sie halt trainieren. Rassistisch oder sexistisch erziehen ungewollt. Du kannst sie aber auch sehr weltoffen und liberal und tolerant erziehen. Ja, vom Wertekodex, aber es ist nicht mehr hart eingekodet, sondern du als Mensch kannst da halt Input reingeben. Das ist sehr teuer. Ich sage immer, es kostet eine halbe Million bis eine Million, bis man eine KI einigermaßen trainiert hat, weil da sehr viel manuelle Arbeit dahinter ist. Aber das ist so ein Wechsel, anstatt vom Coden her auch Feedback der Maschine zu geben.
Johannes Schaback: Wobei ich glaube, dass in der realen Welt, um das Beispiel aufzunehmen, Programmieren, also wenn ich an so ein SAP-System beispielsweise denke, dass bis das ersetzt wird durch ein großes lernendes System, wird noch sehr, sehr lange dauern. Weil das ist auch eine Limitierung des Deep Learnings. Du hast eine Blackbox, das ist fuzzy. Das ist auch eine große Herausforderung für die Automobilindustrie, dass diese sehr, sehr mächtigen neuronalen Netze zwar das Richtige tun, aber niemand beweisen kann mathematisch, dass es das Richtige ist. Ich würde mein Atomkraftwerk, was ich in unserem Podcast immer wieder aufnehme, auch erstmal nicht mit dem neuronalen Netz steuern, auch wenn ich mir ziemlich sicher bin, dass es gut funktioniert. Ich kann einfach nicht so richtig reingucken, weil das interne System nicht
Fabian Westerheide: Aber das ist doch genau wie bei Menschen. Das stimmt. Und der Mensch macht doch auch Fehler. Das ist richtig. Und der fährt auch und hinterher kann ich auch nicht beweisen.
Johannes Schaback: Genau, und da gibt es Vier-Augen-Prinzip und so weiter. Das stimmt, das ist richtig.
Fabian Westerheide: Du kannst mehrere KIs als Vier-Augen-Prinzip einführen. Also Vier-Core-Prinzip oder so.
Johannes Schaback: Aber um das SAP-System aufzunehmen, ich glaube, solange es nötig ist, dass so etwas wie Transaktionen richtig sind oder die Addition und Subtraktion. Sowas muss man ja nicht lernen. Dafür ist eigentlich eine Maschine im Sinne der Narrow AI ja eigentlich schon besser geeignet, als wir jetzt versuchen, sie künstlich Menschen werden zu lassen, um ihnen dann wieder Rechen beizubringen. Das macht ja keinen Sinn. Deswegen glaube ich, wird es eine sehr lange Zeit noch dauern, bis wir so ein großes System für Buchhaltung oder Dativ oder so ersetzen werden, komplett. Aber es wird natürlich immer größere Module geben, die Entscheidung finden, die Data Mining machen, die BI machen auf diesen Daten, dass das intelligent funktioniert.
Fabian Westerheide: Also meine Idee da ist ja immer, dass wir uns zu kognitiven Systemen entwickeln. Also ich hätte gerne ein System, und das haben wir ja teilweise auch schon, Deep Learning als Teil davon, als Blackbox, eigene Daten aufgreifen, sie verarbeiten, Entscheidungen vorzubereiten, Simulationen vorzubereiten, Entscheidungen zu treffen, sie zu messen und dann wieder selbst zu optimieren. Und innerhalb bestimmter Use Cases, beim Deep Learning haben wir das auch, aber natürlich dann ist die Gedächtnisleistung und Memory-Funktion ist noch nicht da und das Transferwissen zu übertragen und so. Aber das sieht man, wo fundamental immer wieder Teams dran sind und das natürlich nach und nach forschen.
Johannes Schaback: Wo ich mich total darauf freue, ist, wenn wir es schaffen, beispielsweise Websites zu generieren durch künstliche Intelligenz. Also einfach nur das Layout, dass es eben Sinn macht. Ja, das Frontend einfach. Du erzählst ja für mich, was du willst. Oder wie auch immer. I have no clue. Oder durch Backpropagation, also durch Dreaming Networks. Also in Ordnung, alle können ja auch träumen und sozusagen einfach rückwärts wieder was ausspucken.
Fabian Westerheide: Aber da bin ich ja gespannt mit eurem Geschäftsmodell, weil ihr seid ja sehr SEO-lastig. Ja, und wenn du der KI das dann beibringst, dann natürlich nochmal die Suchmaschinenoptimierung hinten mit reinzubringen, wird dann sehr lustig.
Johannes Schaback: Ja, das ist interessant, ja. Genau, also Limitations von Deep Learning oder grundsätzlich vielleicht auch Machine Learning. Also du hast eben nicht alle Bereiche sind so einfach quantifizierbar. Du hast eben viele, viele Bereiche sind einfach nur durch Kreativität gut lösbar. Sales ist auch immer so eine Sache. Du kannst zwar unglaublich mächtige Werkzeuge bauen, aber bis man dahin kommt, dass die menschliche Interaktion ersetzt werden kann, komplett und auch beim Support ein Aufprall, Kunden zu beruhigen. Das ist alles, da kommen wir irgendwann hin. Ich glaube, das wird aber noch ein bisschen dauern.
Joel Kaczmarek: Was ist denn ein bisschen?
Johannes Schaback: Also ich denke, 50 Jahre müssen wir schon noch rechnen. 50?
Fabian Westerheide: Ja, ich glaube ja. Ja gut.
Johannes Schaback: Also bis wir es wirklich komplett schaffen, den Turing-Test in seiner Auslegung, wie er ursprünglich gemeint war, zu bestehen, ich glaube, das wird noch dauern. Ich glaube, dass Singularity-Gefahren, vor denen wir uns sorgen
Joel Kaczmarek: Was sind denn Singularity-Gefahren? Was meinst du damit?
Fabian Westerheide: Du siehst die Gefahren, ich sehe die Möglichkeiten.
Johannes Schaback: Also Singularity wäre der Moment, in dem eine Maschine sich selbst verbessert und sie dann sozusagen exponentiell schlauer wird und wir es nicht mehr schaffen, das zu verstehen, was diese Maschine macht und sie, und das ist dann die Gefahr, möglicherweise konträr zu unseren Interessen handelt. Also es gibt immer dieses wunderbare Beispiel, eine Maschine könnte die Target-Funktion, also sozusagen das Ansinnen haben, möglichst viele Heftklammern herzustellen und dann alles darauf auszulegen, dass sie möglichst viele Heftklammern herstellt und sich dann ständig selbst verbessert, immer smarter wird.
Fabian Westerheide: Und im Endeffekt der Planet zum Riesencomputer wird.
Johannes Schaback: Genau, zum Riesencomputer wird die Menschheit einfach nur um Heftklammern hergestellt.
Joel Kaczmarek: Also Skynet lässt grüßen.
Johannes Schaback: Genau, exakt. Das ist so die negative Auslegung. Es gibt natürlich auch eine positive. Es ist ja nicht in Stein gemeißelt, dass genau das passieren muss. Es kann auch sein, dass das wunderbar kooperativ ist.
Fabian Westerheide: Also ich glaube, menschliche Interaktion stimme ich zu. Aber das ist wieder das Thema, wo setzt es Menschen? Überall, wo es um Execution geht, ja, und Pattern Matching etc. ist die KI eigentlich ganz gut drin. Überall, wo es um Mathematik geht und Logik auch. Überall, wo es um Kreativität geht, wird es dann wieder schwieriger. Dann haben wir Menschen noch einen Vorteil. Menscheninteraktion kommt es drauf an. Also jeder, der Online-Shopping macht. Ich lasse mich wahrscheinlich auf Amazon lieber von einem Chatbot beraten oder so etwas. Der hat ja schnell und sofort. Das persönliche Gespräch mit dem Kunden beim Maßschneiden oder so möchte ich immer noch haben. Ich glaube, wir zahlen auch in Zukunft ein Prämium dafür, wenn wir von Menschen bedient werden.
Johannes Schaback: Aber die Chatbots heute
Fabian Westerheide: Ja, die sind schlecht, aber gib dir nochmal fünf Jahre. Nicht 50, fünf Jahre. Guck mal, wie weit ihr nach dir angekommen seid.
Johannes Schaback: Ja, gut, das ist natürlich schlau. Ja, natürlich total weit.
Joel Kaczmarek: Aber was machst du denn so zuversichtlich, dass das nicht 50 Jahre dauert?
Johannes Schaback: Also ich glaube, die kurzfristigen Effekte werden überschätzt. Die langfristigen unterschätze ich wahrscheinlich auch. Vielleicht ist es auch 30 Jahre und die 50 Jahre.
Fabian Westerheide: Also ich gebe dem Ganzen noch weniger. Aber es liegt daran, weil ich sehe, was veröffentlicht wird. Ich sehe, wie viel Input da reinkommt, wie viele Leute an dem Thema sitzen, wie viel Geld da reingeht und dass das eine Beschleunigungskurve hat. Und diese Kurve kann natürlich irgendwann eine Sättigung erreichen, weil dann kommt wieder die nächste S-Kurve obendrauf, aber wir sind gerade erst am Anfang. Also deswegen können wir auch Übersprung. zum Thema ist, AI overhyped. Ich sage, AI ist underhyped. Es ist Overhype in den Ängsten. Journalisten greifen das Thema auf, weil es für sie greifbarer ist, weil es halt demagogischer und populistischer ist. Ja, vernichten Arbeitsplätze und das und das. Interessanterweise in den USA wurde das Thema nie erwähnt. Trump sagt immer, Globalisierung frisst Arbeitsplätze. Nein, Digitalisierung frisst die Arbeitsplätze und verlagert die vom Fließband teilweise ins Büro rein etc. Das wurde nicht angesprochen. Aber ich sage, AI ist immer noch an der Hype. Also die wahren Auswirkungen im Positiven und Negativen, die können sich nur ein Bruchteil der Menschen da wirklich erahnen. Da kommt noch viel, viel, viel mehr, gerade am Anwendungsbereich. Also ich kann eine riesige Liste machen an Sachen, wo wir mit heutigem Stand der Technik schon real mehr Umsatz zu weniger Kosten generieren. Mit all diesen Firmen würden wir es nur implementieren und wären die Unternehmen bereit, es zu implementieren.
Johannes Schaback: Aber wenn man sich auf die Motivation beschränkt, warum werden AI-Systeme implementiert und verbessert und auch erforscht letztendlich, dann ist es ja ein großes, großes Werkzeug. Für mich ist das sozusagen die Weiterführung der Digitalisierung. Es ist ein unglaublich mächtiges Werkzeug.
Fabian Westerheide: Korrekt, hundertprozentig. Es ist die Weiterführung der Digitalisierung. No doubt about it. Es ist die logische Konsequenz.
Johannes Schaback: Genau, aber letztendlich wird es immer auf einen Use Case hin optimiert. Es gibt sehr, sehr gute Gründe, warum Google mit einem bestehenden, sehr erfolgreichen Geschäftsmodell so viel in AI oder in Machine Learning investiert. weil sie damit eben auch ihr bestehendes Geschäftsmodell auch noch weiter ausoptimieren. Und klar, auch weitere entdecken. Aber erst mal mit AlphaGo verdienen sie jetzt erst mal per se kein Geld.
Fabian Westerheide: Das ist Verforschung.
Johannes Schaback: Genau, das ist Verforschung. Aber es ist die Frage, wann sie es schaffen, das zu kapitalisieren, auch mit neuen Produkten. Aber letztendlich ist es immer so, dass es nicht die KI selber, wie das Telefon sozusagen per se, schon etwas ist, für das Geld ausgegeben wird. Ich kaufe mir keinen Assistenten bisher, weil ich den Assistenten haben will, sondern letztendlich wird mir der als Service angeboten von Amazon oder anderen Anbietern, um irgendeinen Need zu erfüllen oder irgendein Produkt.
Fabian Westerheide: Also die meisten Anwendungen für KI sind B2B. Also Endkonsumententhema können wir mal ausschließen, deswegen Chatbots etc. nicht. Also viel interessanter ist im Bereich autonomes Fahren, für LKWs zum Beispiel, für Drohnen, selbstlernende Roboter etc.
Johannes Schaback: Aber der Punkt, den ich versuche zu machen, ist eigentlich, Es wird immer nach dem Use Case, aber es wird immer nach dem Bedarf entwickelt, sodass es nach meinem Dafürhalten sehr, sehr lange dauern wird, bis wir bereit sind, zu investieren in etwas, was außerhalb eines sehr, sehr konkreten Use Cases, einer sehr konkreten Möhre, die wir als Firma vielleicht vor Augen haben, entwickelt wird. Und die Forschung ist zwar schon sehr, sehr gut und es gibt auch viele Träume von der generellen AI, aber ich bin mir nicht so sicher, ob letztendlich dafür das Geld reinfließt, weil dann doch wieder militärische Anwendungen Hast du recht?
Fabian Westerheide: Das liegt aber daran, dass Unternehmen egoistisch sind. Extremst egoistisch. Die Unternehmen profitieren davon, dass die Gesellschaft, vertreten durch einen Staat, die Kindergärten stellt, die Leute zur Schule schickt, sie zur Universität schickt und wenn sie fertig ausgebildet sind, dann schnappt ein Unternehmen das und bezahlt sie. Und dasselbe machst du eigentlich dann mit einer KI. Du kaufst entweder eine KI-Anwendung ein von Unternehmen, weil du ganz genau, nehmen wir Kundensupport, weil das einfacher ist. Wenn du eine KI-Anwendung hast oder irgendeine Anwendung, die 50 Prozent deiner E-Mails instant beantworten kann, kannst du dir ganz klar ausrechnen, ich brauche ein Drittel weniger Mitarbeiter. So, und das machst du aus einem Grund, wo du weniger Personalkosten hast, weil es flexibler ist, 24 Stunden verfügbar ist, weil es skalierbarer ist, weil es schneller ist, weil die Lernkurve drin bleibt, weil wenn die KI das Wissen immer weiter dazulernt, wenn der Mitarbeiter krank wird, schwanger wird oder ausfällt, das Wissen verschwindet oder in Rente geht. So, und du als Unternehmer wirst das natürlich machen und klar, Deswegen ist dieser Markt auch übrigens getrieben von Startups primär, die kleine Use Cases und KI-Anwendungen anfangen und die dann in die Wertschöpfungskette immer wieder injizieren. Und größere etablierte Unternehmen, die nach und nach dazukaufen, Google die dann komplett kauft oder du mietest sie dir pro Dienstleistung etc. Da sehe ich auch, und das nennen wir auch Applied AI, also angewandte KI-Lösungen finde ich auch gerade, das ist so der Markt für die nächsten fünf Jahre. Eine AGI, also eine generelle Intelligenz zu entwickeln, das machen die schon seit 40, 50 Jahren, das haben die noch nicht geschafft. Da gibt es Leute wie zum Beispiel Good AI, die jetzt die AGI Challenge rausgegeben haben, einen Preis von 5 Millionen, wer als erstes schafft und so etwas. Das ist auch noch zu wenig. Ich sage dir aber auch, die Forschungsetat von DARPA und Co. sind in dem Bereich deutlich größer. Ich sage auch gar nicht, wir brauchen eine AGI. Das ist ein Hobbythema oder das ist ein philosophisches Thema. Mir reicht es eine ganze Welt von Narrow AIs, die sehr, sehr gut drin sind. Aber ich sehe sie da wie in Fachkräften. Also da, wo Menschen eingesetzt werden, die wir hier zu Idioten ausbilden, indem sie nur E-Mails den ganzen Tag beantworten und nur das Telefon in den Hörer nehmen, da setze ich halt eine KI für ein.
Joel Kaczmarek: So, aber wenn wir jetzt nochmal irgendwie ein bisschen diese Oberhype-Frage so ein bisschen zusammenfassen. Du bist ja da, glaube ich, ein bisschen Gegner, ne? Also er sagt, das ist underhyped, da kommt noch viel mehr.
Johannes Schaback: Ich sage in der Tat, wir müssen diesen Begriff der künstlichen Intelligenz mit Vorsicht genießen, weil wir etwas versprechen, was wir sehr lange nicht halten werden. Ich glaube, in der Wahrnehmung der Leute wird es immer ein Werkzeug bleiben. Und wir gewöhnen uns ja sehr schnell an Fortschritt. Ich stelle gar nicht in Frage, dass die Fortschritte des maschinellen Lernens toll sind, sondern meine Gefahr ist, dass wir wieder in so einen AI-Winter kommen wie damals, weiß nicht, 1970, weil eigentlich das Gefühl, die Chatbots werden gar nicht besser, werden wir aber als künstliche Intelligenz verkauft, sich gar nicht so sehr bewahrheitet. Und Fakt ist einfach Stand heute, dass das maschinelle Lernen, ein Begriff, der es einfach besser trifft, sich sehr stark weiterentwickelt hat. Aber letztendlich ist es eine sehr, sehr gute Signalverarbeitung. Manche Leute verkaufen eine lineare Regression schon als eine AI. Und das ist natürlich gefährlich und darunter leiden wir letztendlich auch, wenn irgendwann diese Marketing-Bubble platzt und plötzlich uns Gegenwind entgegenkommt und wir merken, ach du Scheiße, wir werden sogar ausgelacht, wenn ich den Begriff AI-Mode nehme. Es gab mal Phasen, wo Big Data ähnlich behaftet war und alle haben Big Data gemacht und jeder mit einer MySQL-Datenbank hat plötzlich Big Data gemacht. weil einfach auch der Begriff nicht richtig definiert war. Was ist denn jetzt Big Data? Und das ist auch schon so, dass es Phasen gab, diesen Begriff einfach besser gar nicht zu benutzen, weil man sich sofort in diese Ecke gestellt fühlt und so, oh, oh, oh, once again.
Fabian Westerheide: Aber das ist so ein Berliner Hipster-Problem, dass wir Angst haben, weil wir so oft, weil wir sind so in einer kleinen Blase noch mal drin innerhalb der Blase und dann wandert man immer schnell weiter. Ich stimme dir dazu, aber zum Beispiel Aufgriff Big Data, Wenn ich auf der Bühne stehe, sage ich den Leuten, ihr habt noch nicht mal Big Data implementiert. Also ihr habt noch nicht mal eure Datenströme, ihr wisst noch nicht mal, was ihr habt, ihr habt noch keine Silos, ihr habt noch nicht aufbereitet, ihr habt keine Prediction, keine Analytics.
Johannes Schaback: Wir machen Schritt 3 vor Schritt 2.
Fabian Westerheide: Und KI kommt erst, wenn ihr das alles davor habt. Also, dass alle über Big Data sprachen, war positiv, dass wenn ich die Berater auf ihre Folien geschrieben habe, die Berater haben es den CEOs erzählt und der CEO hat vielleicht intern mal gesagt, ich glaube, wir müssen da mal irgendwie was machen. Und das ist so ein Trickle-Down und so ist es auch mit KI. Aber ich stimme dir zu, KI ist, sage ich immer, das, was wir noch nicht gelöst haben. So wie Magie. Sobald du den Trick verstanden hast, ist es keine Magie mehr. Sobald du KI verstanden hast, ist es keine Magie mehr. Für dich ist es keine KI, weil du es technisch verstehst. Für viele da draußen ist es noch Magic.
Johannes Schaback: Aus Pui innen Pui.
Fabian Westerheide: Ja, und es ist Marketing, ich benutze den Begriff auch bewusst, ich habe früher angefangen mit maschinellem Lernen, ich habe es ein bisschen Maschinenintelligenz genannt und ich bin dann irgendwann aus SEO-Gründen auf KI gewechselt.
Johannes Schaback: Aus SEO-Gründen?
Fabian Westerheide: Und Venture Capital, das war kein Traffic hinter Maschinenintelligenz. Also habe ich gesagt, okay, ich muss mir die Keywords ein bisschen anpassen. Also ich habe eine klassische Keyword-Analyse gemacht und geguckt, Buzzwords werden gesucht. Warum? Für Gründer ist das irrelevant, die verstehen das auch so. Aber für nach außen hin, also LP's are limited partners, also Leute, die in Fonds wiederum investieren etc., ist dieses Buzzword natürlich einfacher, damit sie dich in die Schublade packen können.
Johannes Schaback: Ich wusste gar nicht, dass Fabian ein SEO war.
Fabian Westerheide: Oh, ich habe jede Menge SEO. Ich war ja früher der größte Bauten- und Händler Deutschlands.
Johannes Schaback: Nur durch SEO. Was Händler?
Fabian Westerheide: Ich habe Hochzeitskleider verkauft. Und zwar nur über SEO. Ich würde sagen, ich habe heute wenig Ahnung, aber damals war ich fit genug, um ein paar hunderttausend Uniques zu generieren.
Johannes Schaback: Das ist auch gut.
Joel Kaczmarek: Seht ihr mal hier, was in den Leuten noch steckt. Wir wissen das alles gar nicht vorher.
Johannes Schaback: Hat sich nicht viel geändert übrigens.
Fabian Westerheide: Der Markt ist da ähnlich. Deswegen habe ich mir damals auch Ladenzeile angeguckt gehabt, weil die eine Art Geschäftsmodellvorbild waren. Und was SEO-technisch war, waren die neben Zalando diese beiden Firmen, die wir als Benchmark genommen haben.
Joel Kaczmarek: Guck mal hier, was für Meriten ihr euch beide arbeitet. Wusstet ihr gar nicht voneinander, dass ich euch beide so schätze? So sieht es aus. Gut, also wenn wir jetzt nochmal so ein bisschen den Überblick machen. Wir können ja so Overhyped und Limitations so ein bisschen in einem Atemzug nennen, weil man muss sich ja fragen, was sind die Grenzen des Ganzen? Daran kann man bemessen, ob es Overhyped ist und wie kann man die eventuell überkommen. Das heißt, wir haben jetzt eben schon mal festgehalten, es braucht große Datenmengen, es ist sehr, sehr aufwendig, eine Maschine was beizubringen. Dann hast du noch so ein bisschen, Johannes, ins Feld geführt, das ganze Thema Erwartungsmanagement ist ein bisschen problematisch, weil alles irgendwie als KI gelabelt wird, was es gar nicht ist, beziehungsweise man auch mal denkt, wir können jetzt bald über das digitale Wasser gehen und das ist nicht so und dass das halt auch gerade Leute so in ihren Sales präsentieren. Wenn wir das jetzt mal so ein bisschen challengen, diese Punkte, die wir hatten, zum Beispiel das ganze Thema Lernen müssen, Datenmenge brauchen. Ist es denn irgendwie absehbar, dass sich das in einer gewissen Zeit reduziert? Und man hat es relativ gefragt. Ich erinnere mich, als wir mal so darüber gesprochen haben, wie eigentlich Programmieren funktioniert. Da redet man ja auch gerne mal über Klassen, dass man zum Beispiel sagen könnte, wenn irgendwie Firma 1 schon mal viel Geld und viel Daten ins Maschinenlernen gesteckt hat, die schon mal angereichert hat, warum kann das Firma 2 und 3 nicht mitnutzen? Also man kann ja so ein bisschen in so eine Form von OS eigentlich denken. Kann es irgendwann so eine Art KI-OS geben. Also mit OS meine ich ein Betriebssystem, dass man das wie so einen großen Datenhub macht, dass jemand, der vielleicht zum Thema Katzenbilder erkennt, schon super viel gelernt hat.
Fabian Westerheide: Ich würde es sogar einen KI-Kindergarten nennen. Also Professor Danko Nikolic hat einen guten Vortrag darüber mal gegeben, wo er genau gesagt hat, wir müssen an den Punkt kommen, wo du so eine Art, wie man Menschen in seiner DNA haben, wo die ganzen Lernalgorithmen schon drauf sind. Das ist wie heutzutage per API oder per Framework, das injizierst du da rein und darauf kannst du alles mögliche aufbauen.
Johannes Schaback: Oder ein Master Algorithm, der lernt, das richtige Verfahren zu trainieren, um es dann zu lernen.
Joel Kaczmarek: Seht ihr denn Ansätze in diese Richtung, dass jemand sagt, man schafft im Prinzip eine Wissensdatenbank oder eine Kompetenzdatenbank für KI?
Johannes Schaback: Also realistisch gesehen halte ich es für höchst unwahrscheinlich, dass beispielsweise die Deutsche Bahn jetzt anfängt mit Audi oder so, große Datenmengen zu teilen, insbesondere, oder stell dir mal vor, Facebook mit Google, etwas plakativer, das halte ich für sehr, sehr unwahrscheinlich, weil ein maschinelles Lernverfahren ist insbesondere so gut wie seine Daten. Wenn du gute Daten hast, hast du auch sehr, sehr gute Ergebnisse. Und es gibt diese zwei Faktoren. Es ist einmal die Menge und du brauchst auch wirklich gute Qualität. Häufig hast du, und das viele Unternehmen ertrinken in Daten, aber sie ertrinken, weil sie nichts wissen mit diesen Daten anzufangen und weil sie auch im ersten Schritt und vielleicht auch im zweiten, dritten und vierten Schritt eigentlich gar nicht so wertvoll sind. Sondern sie werden erst wertvoll, wenn sie kombiniert werden mit einem weiteren Datensatz. die aber sehr, sehr schwierig oder sehr, sehr teuer ist zu akquirieren, weil sie beispielsweise doch Menschen hinsetzen müssen, um bestimmte Datensätze zu annotieren, wie man sagt, also zu labeln. Oder weil sie die irgendwie cross-referenzieren müssen mit anderen Daten, die unglaublich teuer sind zu kaufen. Das ist das Problem bei Daten. Du hast nicht automatisch, weil du viele Daten hast, hast du irgendwie einen Datenschatz. Du
Fabian Westerheide: hast zum Beispiel Google, die meinen, hat das Lab jetzt, oder OpenAI hat, glaube ich, Universe geöffnet, also die bauen schon bewusst so Open-Source-Frameworks oder Modelle, wo du trainieren kannst, also die gehen schon hin, das Wissen zu bündeln und das abzugreifen, aber ja, das sind Dilemma, es gibt kein Master-Algorithmus, es gibt auch noch keine Möglichkeit, das alles zu bündeln, das wäre auch mein Traum, wir gehen alle hin, packen alle optimalen Narrow-AIs zusammen und haben eine super Narrow-AI-Gruppe. Es gibt
Johannes Schaback: so wunderbare Cognitive API von Microsoft, die beispielsweise Spracherkennung schon sehr, sehr gut löst und so was wie Sentiment Detection oder auch so Natural Language Processing Themen wie Part of Speech Tagging oder so in Anführungsstrichen Standardsachen für dich sehr, sehr gut löst und aus denen du dir dann Bausteine bauen kannst für größere, höhere Higher Order Systems. Die gibt es und das sind einfach vortrainierte Modelle. Es gibt viele APIs, auch innerhalb der Chatbots-Welt, dass du deine Konversation hinschickst oder deine Antwort hinschickst und du kriegst sozusagen eine aufgefächerte, aufstrukturierte Antwort zurück, wie die Maschine diese Message interpretiert. Mit allen Entities drin, bezieht sich das auf einen Ort oder bezieht sich das auf eine Person und so. Das gibt es schon, aber das ist natürlich auch wirklich immer mit Aufwand verbunden, die einzubinden. Das ist nicht so, dass du einfach blind deine Daten hochlädst und dann einfach dich hinlegst und am nächsten Morgen aufwachst und du hast dein Problem gelöst. Magic.
Joel Kaczmarek: Viele Menschen, die da jetzt nicht in der Tiefe drinstecken, werden ja sagen, naja, aber Moment mal, warum musst du denn in IBM einen Watson betreiben und in Google einen DeepMind und in Facebook seine eigenen Aktivitäten? und dann gibt es noch ganz viele kleine Klitschen und große Klitschen. Können die nicht irgendwie auf ein gemeinsames höheres Ziel einzahlen?
Fabian Westerheide: Aber du willst ja nicht eine super KI haben. So eine künstliche Intelligenz entwickelt sich zu einer Agenten später. Und in meiner Vision hat jeder seinen eigenen Agenten, du hast vielleicht dann einen Agenten, der für dich den Haushalt koordiniert, vielleicht hast du einen Agenten, der für dich deine Termine koordiniert, kann auch sein, dass er selber Agent ist, aber du wirst irgendwann den Agenten kommunizieren, vielleicht auch denken, anstatt zu schreiben oder zu sprechen, dass die einfach für dich Aufgaben übernehmen und so wird das ein Unternehmen auch sein, der eine macht vielleicht die Buchhaltung, die Controlling und je nach Größe und Komplexität kann das ein großes System sein oder viele kleine Systeme, Es gibt nicht einen Superorganismus in dieser Welt. Es gibt ganz, ganz viele Arten, ganz viele Spezien. Und es werden sich KIs entwickeln, die werden auf einem Intelligenzlevel von Ratten sein, aber vielleicht ganz viele. Es wird KIs entwickeln, die sich vielleicht auf einem Intelligenzlevel von Katzen oder Hunden sind. Oder Bakterien. Dann auf Bakterienlevel vielleicht, ganz fundamental. Aber vielleicht werden sich auch welche entwickeln, die für uns noch nicht mal vorstellbar sind, weil sie über dem Menschen liegen. aber auch nicht unbedingt schädlich sind, sondern vielleicht betreiben die eine Raumstation oder vielleicht betreiben die später die Matrix, die wir selbst erfunden haben, also eine virtuelle Welt oder so etwas, die eine Komplexität generieren, die wir gar nicht abstrakt mehr hinterherkommen. Bereits heutzutage kannst du ja KI-Anwendungen oder Deep Learning verwenden für Lösungen, die wir mathematisch selber nicht mehr lösen können, weil sie multidimensional sind, 20, 30 Variablen drin etc. im Raum. Das ist eine Frage der Vorstellung. Aber ich glaube, wir werden halt eine evolutionäre Bandbreite haben von sehr, sehr vielen kleinen, simplen Agenten, dummes Level zu immer werden spitzeren, wenigen Superintelligenzen oben hin. Und da hoffe ich auch, dass es mehr als eine geben wird.
Joel Kaczmarek: Ich war witzigerweise heute gerade irgendwie im Büro von IM. Also diese Foto-App, die ja sich so sehr stark auf das ganze Thema Bilderkennung per KI und darauf aufgesetzt hat, so einen Stockfotomarktplatz zu bauen, fokussiert hat. Die sagen mir halt, hey, es ist heute technisch schon möglich, ein Handy in die Hand zu nehmen, auf etwas draufzuhalten und du kriegst live sozusagen ohne Verarbeitung aus dem Gerät heraus, also nicht in die Cloud gejagt, per Algorithmen gecheckt und wieder zurück. Heute schon möglich zu sagen, okay, ich schaue gerade auf einen Menschen, der lacht, der sieht asiatisch aus, ist gebräunt im Urlaub.
Fabian Westerheide: Und noch besser ist, deren KI kann dir sogar sagen, wenn du das Foto jetzt machst, können wir dir sogar schon vorher sagen, wie viel Geld du dafür kriegen wirst, weil wir schon antizipieren können, wer es kaufen würde. Das heißt, du läufst mit der Kamera rum und sagst, das Foto jetzt machen, 15 Euro.
Joel Kaczmarek: Ist das irgendwie ein realistisches Setting für KI insgesamt, für dieses Thema Deep Learning, dass irgendwie dieser Kosten sich senken lässt? Weil daran kann man ja so ein bisschen overhyped, underhyped und hinterher auch irgendwie abfrühstücken. Wie günstig ist das eigentlich umzusetzen?
Johannes Schaback: Ich weiß natürlich nicht im Detail, wie es funktioniert. Letztendlich hast du natürlich immer beim Telefon auch das Problem, dass, wenn du jetzt auf die Energie abzielst, dass du dich in einem sehr computationally limited Rahmen bewegst. Grundsätzlich wird es immer weiter möglich sein, auch immer mehr Verfahren auf dem Mobiltelefon ausführen zu lassen. Ich würde daran nicht so sehr den Begriff Overhyped oder nicht festmachen, weil natürlich wird es so sein, dass die Verfahren sich weiter ausoptimieren und natürlich wird es so sein, dass die Verfahren weniger Energie verbrauchen, aber Es ist eher für mich die Frage, verspricht man etwas, was man nicht halten kann? Schaden wir nicht langfristig vielleicht doch wirklich einfach auch der Forschung? Und es ist eben ein total emotionalisierendes Thema. Es ist total spannend. Die ganzen Filme, die in den Büchern sind, sind unglaublich interessant zu lesen. Aber jahrelang haben die Forscher bewusst nicht über Artificial Intelligence gesprochen. Sogar Machine Learning war verpönt und man sprach von intelligenter Datenanalyse und so. Also es war sehr, sehr, sehr vorsichtig aus gutem Grund. Und dann kam eben Google daher. Dann kam DeepMind daher und dann wurde das eben sehr, sehr stark vermarktet, das Thema. Und jetzt, es ist sicherlich gut, weil jetzt strohfeuerartig sehr, sehr viel Geld da reinfließt. Ich habe ein bisschen die Sorge kann aber auch, und darauf hoffe ich, klopfe auf Holz oder eher Spanplatte hier, dass eben jetzt auch noch zehn Jahre anhält. Aber mein Gefühl ist, dass dieser Lebenszyklus dieses AI-Hypes zumindest an Traktion verliert gerade und gerade sich so ein bisschen so eine, ja, Ernüchterung möchte ich noch gar nicht sagen, aber so ein bisschen so ein, okay, also das geht wirklich. Jeder hat jetzt irgendwie einen Echo, einen Amazon Echo zu Hause und sich so ein bisschen das sozusagen jetzt so einfängt.
Fabian Westerheide: Also zwei Argumente dagegen. Das eine ist für mich das Thema KI, diese Welle heutzutage. Ich weiß, es gab AI Winters etc., aber für mich die Welle so wie das E-Commerce und Mobile. E-Commerce ist nicht verschwunden, es ist nur nüchterner Umgang. Am Anfang wussten nur die Nerds über E-Commerce.
Johannes Schaback: Aber das ist auch wirklich ein Success.
Fabian Westerheide: Es ist eine Success Story, aber ich glaube auch, dass KI sich zu dieser Success Story entwickelt. Es ist nur anders, weil es eine Horizontaltechnologie ist, wie Mobile, also aus dem Internet, Mobile, KI, weil KI die ganze Verbindung zwischen Internet, Mobile, Internet of Things, Internet of Everything, Self-Driving Cars, Optimierung von Gridsystemen, das wird alles erst über KI möglich. Der Grund, welcher dagegen spricht, warum ich glaube, das nicht abnimmt, ist, weil die Systeme lernen. Und wenn die kumuliert lernen und immer besser werden, kommen dann recht interessante Sachen raus. Ich habe mit jemandem gesprochen von Daimler. Ja, wir bringen 2017 haben wir jetzt die Teststrecken und 2020 kommen wir mit dem Auto raus, das semi-autonom ist. Und dann sind wir so gut wie Tesla. Sag ich, ja, ihr seid vielleicht so gut wie Tesla vor zwei Jahren, aber wo ist denn Tesla in drei Jahren? Kumuliert mit den Erfahrungen, die deren System hat. Die Daten, die sie gesammelt haben, werden die auf Milliarden von gefahrenen Meilen kommen und das wird besser sein, als jeder Mensch da draußen fahren kann, also statistisch gesehen, weil kein Mensch Milliarden an Meilen in seinem Leben je fahren kann. Und dann hast du in der KI mit jedem Auto, was rauskommt, das kann schon fahren und hat einen Vorsprung, da muss ein Daimler entweder kaufen. aber der kann die nicht so einfach trainieren oder der kommt da nicht einfach so dran. Das ist richtig teuer. Also kurzum, da hat ein Tesla einen ungeheuren jahrelangen Vorsprung und dieser Vorsprung wird in der Qualität des Autos sein. Und wenn ich dann die Wahl habe, ich kaufe eine Mercedes oder ich kaufe einen Tesla, selber Preis, aber der Tesla fährt einfach 99,9% sicher und der Daimler ist halt nur bei 99%, dann sind diese 0,9% immer noch entscheidend.
Joel Kaczmarek: Was hat der geantwortet? Was hat der geantwortet, der Typ?
Fabian Westerheide: Nichts. Ich hatte dieselbe Diskussion auch mit Fondsmanagement von der Allianz. Die investieren Milliarden und die suchen halt noch Firmen und sagen, ja so ein Amazon, da investieren wir, weil die ein Produkt haben, aber Google können wir nicht kaufen, die haben kein Produkt. Und die investieren über Milliarden und die kaufen halt kein Google, weil sie sagen, da ist kein Produkt drin.
Joel Kaczmarek: Wäre denn eigentlich KI lizenzierbar?
Fabian Westerheide: Ja, so wie Software as a Service, du mietest es aus, also per Usage, per API würde ich es rausgeben.
Johannes Schaback: Das ist eine interessante Frage, weil aktuell ist es wirklich eine Commodity. Fast alles ist Open Source. Also TensorFlow und so, das sind alles große Frameworks.
Fabian Westerheide: Nur die Werkzeuge. Das sind nicht die Applied Anwendungen. Also wenn ich was bauen möchte im Kalibereich
Johannes Schaback: Die Papers sind da, aber in der Tat werden die vorgehalten und wenn es jetzt so ein Groundbreaking-Discoveries gibt, dann werden die nicht sofort veröffentlicht. Aber bisher ist das sehr, sehr zugänglich. Das ist sehr wenig
Fabian Westerheide: Aber wer kann denn schon ein Paper lesen? Ich kann ein Paper nur das Abstract lesen und die Einführung und das Fazit. So weit es die Mathematik gibt, verstehe ich die nicht mehr. Und so viele Menschen gibt es ja nicht, die das anwenden können.
Johannes Schaback: Stimmt, aber der Punkt ist, es gibt sehr, sehr, sehr viele sehr gute Libraries da draußen, mit denen du State-of-the-Art-Machine-Learning-Programme schreiben kannst. Und du musst auch nicht ein Mathematik-Prof sein, um die zu verstehen. Es gibt auch wirklich relativ viele E-Learning-Tutorials, mit denen du die sehr, sehr gut verstehen kannst. Und auch die Parameter sind. ein wichtiger, wichtiger Nachteil von Neural Networks ist, dass sie sehr, sehr viele Parameter haben. Das haben wir übrigens vergessen.
Fabian Westerheide: Die Einstellung.
Johannes Schaback: Genau, die Einstellung. Du musst sozusagen die richtigen Parameter finden. Es gibt Machine Learning, um diese Parameter zu finden. Das ist eine Ironie. Damit du auch weißt, wie du die richtig aufsetzt, diese Systeme. Aber letztendlich ist das sehr, sehr zugänglich. Und du musst eigentlich kein so absoluter Experte sein, um es zu benutzen. Es ist eine Commodity. Jeder kann es verwenden.
Fabian Westerheide: Dank TensorFlow, es gibt ja so ein paar Open-Source-Frameworks, ist es immer leichter. Das wird auch noch leichter. Finde ich auch gut. Also für mich muss KI so weit sein wie WordPress. Dass der Laie sich eine eigene KI, ob es ein eigener Chatbot ist, einen eigenen Agenten bauen kann, drag and drop kann ich das machen. Da kommen wir hin. In dem Bereich Behavioral AI, beziehungsweise motivierte AI. Deswegen habe ich auch zwei Firmen, die ihren KIs Motivation beibringen. Also dass du denen sagst, das ist eine Zielsetzung, das ist eine Aufgabe. Also nicht nur optimiere das und verbessere dich, sondern mach den Job. Bewache dieses Areal, mach die Produktion hier höher, mach die Buchhaltung. Also denen eine Motivation mitzubringen, die dann unterliegende Ziele hat, wo die Maschine selbst entscheiden kann, wie ich diese Ziele ausgestalte, solange es übergreifender ist. Wir Menschen sind ja auch motiviert. Wir sind auch motiviert zu lernen. Eine KI hat ja noch keinen Willen, schlauer zu werden.
Johannes Schaback: So eine tolle Überleitung vielleicht, um noch ein bisschen auf den Markt einzugehen.
Joel Kaczmarek: Ich will ja von dir nochmal ein Fazit hören, warum du glaubst, dass KI overhyped ist. Außer jeder erzählt, er macht das, sie machen es aber gar nicht. Und irgendwie Erwartungsmännchen, da habe ich noch nichts gehört, wo ich sagen würde, würde ich jetzt sagen, wow, hat er einen Punkt. Echt?
Johannes Schaback: Ich sehe das schon so. Also wenn du dich damit beschäftigst und weißt, also hast du in einem Jahr so eine Erkundung? Es ist ein großes Regelwerk aktuell. Es ist keine AI. Es wird verwendet an Stellen, wo es nicht verwendet werden sollte. Es wird verwendet von Leuten, die es wahrscheinlich nicht genau verstehen, was sie eigentlich damit sagen. Ich habe die Befürchtung, dass es uns nach hinten raus, also auch gerade an deutschen Unis möglicherweise, nicht unbedingt hilft, wenn wir jetzt allzu sehr auf so einen Hype aufspringen würden und sagen würden, wir machen das, wir machen das. Weil ich die Befürchtung habe, dass sie sich irgendwann einstellen wird, dass sich herausstellt, okay, wir kommen bis hierhin, aber diese groundbreaking AI, was wir eigentlich erwarten mit diesem Begriff, tritt nicht ein. Ich finde den Begriff überladen und etwas überbewertet. Das ist meine Kritik.
Joel Kaczmarek: Fair, fair. Aber gibt es auch irgendwie technische Faktoren, wo du sagst, das glaubst du limitiert die Entwicklung von KI, dass das nicht dahin kommen wird, wo man es gerne hätte? Also diese Traum-Szenarios, die hier der Mann neben mir gerne hat. Gut, er sagt ja eben sowieso so Narrow AI Komplementarium, total in Ordnung, das reicht ihm. Aber gibt es irgendwas Technisches, wo du sagst, darum glaubst du, dass das irgendwann platzen wird?
Johannes Schaback: Also ich glaube immer noch, dass die kurzfristigen Implikationen davon überschätzt werden und die langfristigen unterschätzt. Das glaube ich schon. Nur die Frage ist, wie weit kann ich in die Zukunft blicken? Aktuell sehe ich, dass die Verfahren, die verwendet werden, sich nicht grundlegend geändert haben. Also beispielsweise, wenn du das Telefon nimmst, dann hat das Mobiltelefon einen neuen Markt geschaffen. weil das in sich einfach sozusagen ganz viele neue Applikationen ermöglicht hat. Neue Geschäftsfelder aufgenommen, ganze Businesses drehen sich darum. Wenn du dir anschaust, wirklich echte AI-Businesses, die nur AI machen, gibt es ganz, ganz wenige. Es gibt tausend AI-Firmen, die Narrow AI anwenden, um einen bestimmten Use Case zu lösen. Und das ist auch völlig in Ordnung. Das ist einfach eine Weiterführung der Digitalisierung. Die haben Werkzeuge entwickelt, eine bestimmte Aufgabe besser zu lösen. Aber das echte Artificial Intelligence, was da immer im Raum steht, das gibt es so per se nicht. Fast gar nicht. Da ist nicht sozusagen etwas entstanden, wo man sagen könnte, daraus kommt jetzt neue Wertschöpfung, außer der Optimierung auf bestehenden Geschäftsmodellen.
Joel Kaczmarek: Also muss man eigentlich so ein bisschen sagen, wir laufen manchmal mit falschen Bildern und Erwartungshaltungen im Kopf rum. Das wird nicht so eine Hayley Joel Osment Nummer, wie hier damals in dem Film von Steven Spielberg oder Eye-Robot oder wie die alle heißen. Das heißt, der AGI-Denke, dieses Skynet in der Horrorfassung sozusagen, das ist eigentlich ein bisschen over the top, sondern es geht eigentlich wirklich eher um, was Fabian ja auch sagte, narrow bestimmte Faktoren einfach massiv viel besser machen können. Das ist dann aber eigentlich keine Intelligenz, sondern das ist dann eigentlich eher Prozessgeschichte.
Johannes Schaback: Ich glaube, dass wir uns darüber Gedanken machen sollten. Ich glaube aber, dass wir uns noch mehr Gedanken darüber machen sollten über immediate problems, wie was passiert in Amerika, was passiert in Polen. Ungarn. Das sind Probleme, die für mich kurzfristiger dringlicher sind, als über die Arbeitslosigkeit, die entsteht durch Digitalisierung.
Fabian Westerheide: Die Medien sind voll von Trump und voll von Wahlen und viel zu wenig darüber, was sind die Folgen von Digitalisierung für die Gesellschaft, was sind die Folgen auf den Arbeitsmarkt. Das Thema wird komplett ignoriert. Das wird in intellektuellen Berliner Kreisen diskutiert. Jeden Abend. Aber das hört bei den Politikern schon auf, das hört bei den Konzernvorständen auf und das hört beim Rest der Bevölkerung auf. Und das ist viel zu wenig drin. Wir sind in unserer Blase drin und wir glauben, wir haben es einmal diskutiert, wir haben es geklärt, nächstes Thema. Aber das ist lange noch nicht da unten angekommen, das war komplett unterschätzt.
Johannes Schaback: Was haben wir genau geklärt?
Fabian Westerheide: Also fast jede Diskussion, ich führe ja, Digitalisierung verdrängt Arbeitskräfte, wir brauchen ein Grundeinkommen, wir brauchen eine Zusammenführung von Nationalstaaten, wir brauchen eine globales System, was sich gegen Erderwärmung stemmt und die Genetik irgendwie das Ganze kontrolliert kriegt. Das sind so alles Themen, die man abstrakt recht schnell einmal durchdiskutiert hat. Aber die Anwendung, die Execution davon, das ist meilenweit davon und wir sind also noch gar nicht so weit. Wir haben das Thema also noch nicht gelöst, wir haben es noch nicht mal ausreichend diskutiert und gesprochen. Und ich sage, ich bin viel radikaler, ich sage, wir müssen eigentlich gestern schon Roboter gesetzerlassen haben. Wir müssen gestern schon angefangen haben, in jede Blackbox, die neuronale Netze hat drin, irgendwo hart zu weiern. Don't harm humans, don't kill humans, act in the interest of humans, von vornherein. Weil wenn wir in zehn Jahren erst auf die Idee kommen, dann sind da Millionen von Anwendungen draußen und viel zu viel zu spät.
Johannes Schaback: Aber hast du die Befürchtung, dass die AI sich gegen die Menschheit Also auch in 10 oder vielleicht sogar auch erst in 12 Jahren? Oder glaubst du, dass es eher grundsätzlich als sehr mächtiges Werkzeug weiter bestehen wird und der Mensch sozusagen humanistisches Weltbild schon fast im Zentrum dessen bleiben wird? Und das, was wir AI nennen, also die mächtigen Werkzeuge eigentlich nur mächtige Werkzeuge bleiben, die zwar sehr, sehr smart sind, aber eigentlich Werkzeuge sind. Und wir letztendlich dann doch noch diejenigen werden, die sie benutzen.
Fabian Westerheide: Okay, das ist ja sehr humanistisch gedacht. Ich bin persönlich eher Transhumanist. Ich glaube eher, dass wir Technologie nutzen, um uns selber abzugraden, um mehr aus uns rauszuholen. Ich persönlich bin der Meinung, dass wir irgendwann an den Punkt kommen werden, du wirst roboterähnliche Maschinen haben. Du wirst auch Maschinen haben, die vielleicht kein Bewusstsein haben wie wir, aber es sehr gut simulieren kann.
Johannes Schaback: Was ist dann der Unterschied? Wenn du perfekt getäuscht wirst, die Magic, wie du immer sagst.
Fabian Westerheide: Dann fängst du an. Wir können ja heutzutage schon Rindfleisch züchten. Irgendwann wirst du organische Strukturen züchten und die mit Maschinen kombinieren. Das heißt, du wirst Tierformen haben, die halb Maschine, halb Biologie sind. Dasselbe wird mit uns passieren. Wir haben ja heute schon Prothesen, die du mit Gedanken steuern kannst. Ich habe letztens einen Professor in der TU gesehen, der spielt Computerspiele mit dem Kopf. Der denkt nur. Also diese ganze Interaktion wird immer kommen, das weicht alles auf. Also jeder, der ein Smartphone hat, ist aus meiner Sicht schon Cyborg, weil wir abhängig machen uns, weil die Technologie uns schon bestimmt, wann stehe ich auf, wann gehe ich ins Bett, wann arbeite ich, wer kann mich erreichen. Wir wollen doch gar nicht mehr zurück. Ich behaupte auch, die Singularity ist schon passiert, weil für mich ist Singularity der Moment, wenn wir auf Technologie nicht mehr verzichten wollen. Keiner will zurück.
Johannes Schaback: Und dann übernimmt im Grunde die Technologie die Macht über uns.
Fabian Westerheide: Das ist die Angst. Ich glaube, die Technologie hat schon die Macht über uns genommen, weil wir abhängig davon sind. Wir sind extrem abhängig davon. Wir sind aber auch abhängig von der Landwirtschaft und vielen, vielen anderen Sachen. Ich hoffe, ihr KIs verzeiht mir das eines Tages. Für mich sind die KIs die Sklaven der Moderne. Der Mensch ist ein Ausbeuter. Im Römischen Reich, im Griechischen Reich und bei den Ägyptern haben wir davon gelebt, dass wir biologische Sklaven hatten. den kompletten Monarchie basierte auf biologischen Sklaven in Form von Leibeigenen. Und heutzutage hatten wir dann erst die Servicearbeiter und die Industriearbeiter, das waren Ausklaven, die haben die schlecht bezahlt, die sind teilweise echt alle unter die Hunde gekommen. und bis irgendwie dann Reformen eingesetzt wurden, SPD hat dann ein bisschen was gemacht, Bismarck hat sich da mal durchgesetzt, was ja in Ordnung war, um das Ganze zu beschwichtigen. Und heutzutage sorgen wir dafür, dass der Mensch nicht mehr die biologische Ausbeutung ist, wie in der Matrix, der Mensch wird ausgebeutet, sondern dass wir endlich mal unsere Intelligenz benutzen, Maschinen zu erfinden, die wir ausbeuten, aber da ist hoffentlich keine Ausbeutung drin, weil es ist nämlich ähnlich wie ein Pferd. Ich war Reiter und ein Pferd kannst du sagen, wenn du das reitest, das ist Ausbeutung. Du missbrauchst das Pferd, weil du benutzt es ja und es wird nur durchgefüttert, um dir einen Gefallen zu tun. Aber die Pferde haben Spaß dran. Die machen das gerne. Die haben eine Aufgabe. Ein Pferd ist schlecht drauf, wenn du es nicht rausholst und es reitest. Das ist mies drauf. Das braucht diese Bewegung. Das ist so wie ein Hund. Der geht gerne raus und der spielt gerne mit dir.
Johannes Schaback: Die Frage ist, wird es wie eine Katze oder wie ein Hund?
Fabian Westerheide: Und ich hätte gerne lieber eine Hunde-KI, also lieber eine KI, die der Freund des Menschen ist, das macht, was wir wollen, also ein bisschen eigenen Gedanken hat und nicht die Katze hat, die den ganzen Tag das macht, was sie will. Ja, und eigentlich nur denkt, nee, ich beherrsche dich.
Joel Kaczmarek: Hervorragend. Ich würde sagen, dann war das doch ein schöner Ritt so ein bisschen aus Philosophie meets Technology. Es ist manchmal sehr abstrakt, also wahrscheinlich muss man sich so einen Podcast trotzdem zwei, dreimal anhören, ehe man das alles durchdrungen hat, aber mir hat das viel Spaß gemacht und ich glaube, wir werden uns echt auch noch
Fabian Westerheide: Ich bin mal gespannt, wie du das Ganze mal wieder einordnest, was für einen Titel du dir ausdenken wirst. Und bitte, ja, ich bin immer noch dafür, dass alle unsere Gesichter auf deinem Banner landen.
Joel Kaczmarek: In diesem Sinne, danke euch ganz herzlich.
Johannes Schaback: Viel gelernt. Vielen Dank. Tschüss.