Dieses Transkript wurde maschinell erstellt. Wenn dir ein Fehler auffällt, schreib uns gerne zu diesem unter redaktion@digitalkompakt.de.
Joel Kaczmarek: Hallo Leute, herzlich willkommen zu einer neuen Folge digital kompakt. Und ein alter Bekannter hat mich mal wieder besucht, nämlich der liebe Lars Jankowski. Vielleicht erinnert ihr euch, NFQ Asia war ja bisher der Name seines Unternehmens. Mittlerweile heißt das Gradian. Vielleicht erzählt er mir da auch noch ein bisschen was zu. Und der gute Mann ist ja mit Gradian, wie es mittlerweile heißt, dabei. Der hat quasi eine digitale und Deep Tech Consultancy. Das heißt, er berät Unternehmen zu digitalen Fragen, zu Deep Tech Fragen und er macht auch gleich Global Delivery. Das heißt von Wissen sammeln bis Programmieren. Und vielleicht habt ihr es mitbekommen, ich war ja auf dem NFQ Asia Summit. Der nächste ist auch schon in Planung, wie ich gelernt habe. Da werden wir bestimmt auch mal reden, was wir da zusammen machen können. Und habe Lars halt als einen Weltenbummler kennengelernt, der halt extrem viel kennt und weiß. Und unser heutiges Thema ist Singularity. Das heißt, wir reden mal darüber, warum kommt es jetzt eigentlich zu exponentiellem Technologiewachstum? Beschäftigt uns ja alle. Und nicht nur KI, auch einiges mehr. Also warum jetzt? Welche Chancen stecken drin? Welche Gefahren? Und wie kann ich das für mich nutzbar machen? Das ist heute unser Roadmap. Von daher lieber Lars, schön, dass du da bist. Hello!
Lars Jankowfsky: Hallo Joel, ich freue mich, dass ich hier sein darf.
Joel Kaczmarek: Ich darf jetzt mal in der Schande gestehen, ich kannte den Begriff auch gar nicht, Singularity. Habe ich das denn richtig wiedergegeben?
Lars Jankowfsky: Ganz genau. Singularity ist im Prinzip die Definition, das ist der Moment in der Menschheitsgeschichte, an dem die Technologie exponentiell nach oben geht.
Joel Kaczmarek: So und du hast ja gesagt, das kann man herleiten, warum das nun jetzt gerade so ist. Was ist so deine Antwort darauf?
Lars Jankowfsky: Das ist jetzt nicht unbedingt meine Antwort, sondern es gibt ja wirklich viele Menschen, die sehr viel schlauer sind als ich, Zukunftsforscher, KI-Forscher auf dieser ganzen Welt. Ganz, ganz vorne dran ist Ray Kurzweil, das ist der Vordenker der Singularity, der hat auch eine sogenannte Singularity University gegründet, schon vor vielen Jahren. Der hat vor 30 Jahren seine ersten Vorhersagen getroffen, wann das sein wird. Wir reden hier von ungefähr 2040, 2039 und das ist eine ganz spannende Geschichte.
Joel Kaczmarek: Und was genau sagt er, was einsetzt bis 2040, also was passiert dann?
Lars Jankowfsky: Wir haben die letzten hundert Jahre oder hunderte Jahre einfach eine relativ lineare technologische Entwicklung vorgelegt. Das geht immer so langsam nach oben. Vor zehn Jahren gab es iPhone 5, heute ist iPhone 16, in zehn Jahren ist dann iPhone 26. Dem ist aber jetzt nicht so. Und warum ist das so? Wir haben bei der Computerdichte ein unglaubliches Wachstum über die letzten Jahre gehabt. Das menschliche Gehirn hat, ich glaube, das sind 10 hoch 16 Neuronen. Das ist eine Zahl 10 und dann 7 mal 3 Nullen. Diese Hardware nachzubilden war uns lange nicht möglich. Wir haben jetzt über die letzten 30 Jahre so eine Kurve hingelegt bei den Computern, dass wir heute ungefähr diese Leistung für unter 10.000 Dollar bekommen. Und das führt jetzt dazu, dass wir auf einmal in der Lage sind, Computer zu haben, die theoretisch, das ist ganz wichtig, theoretisch so leistungsfähig sind wie der Mensch. Wir reden jetzt heute nicht über Bewusstsein und Seele und so weiter, sondern wir reden jetzt einfach mal nur über die Hardware. ist mit den künstlichen Intelligenzen jetzt in der Lage, so zu forschen und nach vorne zu bringen, dass wir jetzt technologische Entwicklungen geben, die sich so ganz langsam beschleunigt.
Joel Kaczmarek: Aber gibt es nicht mittlerweile auch so Deckeneffekte, dass du quasi diese Chipdichte nicht mehr weiter erhöhen kannst, dass die Technologie quasi so an Grenzen stößt und dass dann immer dieses Thema aufkommt, erst mit Quantencomputern, da werden so die nächsten Schritte genommen?
Lars Jankowfsky: Die gab es mehrfach und die wurden aber jedes Mal wieder durchbrochen. und Quantencomputer, Computer ist richtig, das ist dann natürlich nochmal ein ganz anderes Game. Die brauchen wir aber gar nicht, um jetzt in die künstliche Nähe zu gehen. Wir sind heute an dem Punkt, wo wir sogenannte LLM, Large Language Models haben, die sind nicht wirklich künstliche Intelligenz. Das ist zwar natürlich cool, sich mal mit so einem GPT zu unterhalten und du denkst so, wow. Sie sind wie ein Mensch, ist es aber nicht. Die machen nur nach, verstehen nicht wirklich, was sie da tun, sondern die wissen einfach statistisch, wenn ich diese Worte höre, dann ist statistisch diese Antwort die richtige Antwort. Also so ganz stark vereinfacht. Der nächste Entwicklungsschritt ist die sogenannte AGI, so die Artificial General Intelligence. Das wäre dann sozusagen eine echte Artificial Intelligence, ja. Die wird ungefähr erwartet in den nächsten drei bis fünf Jahren. Das ist auch gerade das, was auf der Welt passiert. Wir haben, ähnlich wie 1969, meinem Geburtsjahr, ein Wettrennen auf der Welt. Ein Wettrennen zwischen den großen Nationen, wer die erste AGI sozusagen hat. Deswegen hat Trump zu unglaublich investiert, deswegen wird in China unglaublich investiert. Und auch in Europa sind wir ein bisschen hinten dran, aber sind auch mit dabei in dem Spiel. Und da geht es jetzt darum, wer ist sozusagen der Erste und hat die erste echte künstliche Intelligenz.
Joel Kaczmarek: Was finden die Stufe nach AGI? Da gab es doch auch noch eine, wenn ich mich richtig entsinne.
Lars Jankowfsky: Innerhalb einer sehr kurzen Zeit wird sich alles dramatisch verändern. Wir spüren ja heute schon, dass die technologische Entwicklung nicht mehr wirklich linear ist. Alles geht schneller, alles wird auf einmal. sechs Monate später ist schon wieder alles ganz anders. Und daran kann man sehen, dass sozusagen diese Kurve ganz leicht anzieht. Wir sind aber noch weit entfernt von der Singularity. Nochmal, vorhergesagt ungefähr 2039 plus minus. Was ist jetzt die Singularity? Da gibt es zwei Möglichkeiten. Die eine ist, dass die AI quasi ihren eigenen Source-Code modifiziert. Und sich verbessert. Also man muss sich vorstellen, die programmiert sich quasi besser, wird dann durch besser, programmiert sich wieder besser, wird dadurch besser und so weiter, immer schneller, immer schneller, immer schneller und verbessert sich dadurch dramatisch. Jetzt gibt es aber noch eine zweite, viel abgefahrenere Variante. Du hast vielleicht von Elon Musk Neuralink gehört, der Chip im Hirn, den es ja schon gibt. Da sind auch schon Menschenversuche, wo die einen Cursor auf dem Bildschirm steuern können. Und die Idee ist natürlich, einen Chip im Hirn zu haben, mit dem ich direkt mit einer AI kommunizieren kann. Also ich brauche dann kein Telefon mehr, ich brauche keine Webseite mehr, ich brauche keinen Computer mehr, sondern ich kann direkt meiner AI im Kopf sagen, hey, pass mal auf, ich möchte gern dies oder jenes oder kannst mir mal sagen und so weiter und so weiter. Jetzt ist es so, wenn wir diesen Chip im Hirn haben, dann können wir natürlich per Bluetooth oder was auch immer uns direkt auch verbinden. Und hier ist die zweite Theorie, dass sie sagen, dass quasi die Masse aller Menschen, die sozusagen in einem Netzwerk verbundenen Hirne plus die AI, die wir ja dann in unserem Kopf haben, gemeinsam eine sogenannte Superintelligenz kreiert. Es klingt jetzt ein bisschen wie sein Zwitschgen, ist es auch, ist aber valide Theorie, die ich mir jetzt nicht ausgedacht habe und die ich auch nicht in einem Buch gelesen habe, sondern gibt es wirklich etliche Forscher, die sagen, das ist ein wahrscheinliches Szenario.
Joel Kaczmarek: Also ich finde immer, wenn es mit Gehirnchips losgeht, da denke ich eher so an Borg, das finde ich irgendwie ein bisschen gruselig, so wie du es gerade beschrieben hast, so ein Kollektiv und hast die Stimme im Kopf. Also findest du das nicht ein bisschen gruselig auch?
Lars Jankowfsky: Bei der ganzen Geschichte sind auch absolute Gefahren dabei. Es wurde jetzt 2024 eine Umfrage gemacht zwischen zweieinhalbtausend AI-Forschern auf der gesamten Welt, die gesagt haben, was glauben die denn, wie sind die Gefahren? Und der Median dieser Umfrage war, dass fünf Prozent davon ausgehen, dass die Kreierung der Singularity ein sogenanntes Human Extinction Event auslöst. Also dass wir sozusagen ausgerottet werden. Ich finde fünf jetzt nicht so wenig. Ehrlich gesagt. Also ich würde jetzt nicht russisch Roulette mit einem Revolver mit 50 Hüllen und einer Kugel spielen. Das wäre mir schon zu heiß für die gesamte Menschheitsgeschichte.
Joel Kaczmarek: Komm, wir machen es heute aber mal undeutsch. Wir fangen heute mal mit den Chancen an. Also was da für Chancen drinstehen, wenn sowas wirklich einsetzt. Was ist denn da so ein Blick drauf?
Lars Jankowfsky: Die haben wir ja heute schon. Also die, fangen wir mal mit der medizinischen Entwicklung an, die hat sich ja auch heute schon unglaublich verändert. Also du musst dir mal vorstellen, Medikamente wurden früher ja sehr, sehr, sehr extrem aufwendig gebaut. Da wurden quasi ausgewählt aus Medikamenten. Vielen verschiedenen Molekülen manuell die besten versucht rauszufinden. Die wurden dann gemacht, die wurden dann getestet und es hat Jahre gedauert. Heute kann die AI natürlich die Kombination dieser Moleküle simulieren und in einem sehr kurzen Zeitraum dann testen. diese Moleküle testen und so den geeigneten Kandidaten. Ein gutes Beispiel, das ist jetzt ein bisschen umstritten, aber ein gutes Beispiel wäre Moderna, der Covid-Impfstoff. Der wurde von der AI innerhalb von zwei Tagen gefunden. Die wahrscheinlichsten Kandidaten. Und die müssen natürlich dann immer noch gebaut werden, getestet werden und so weiter. Aber das hat Jahre gedauert. Und deswegen sehen wir jetzt auch eine Entwicklung von einem Impfstoff für HIV, für Malaria und so weiter. Das sind alles Dinge, die jetzt schon sozusagen aus AI, gepowerter Medizinforschung kommen.
Joel Kaczmarek: Ja, das habe ich gerade gelesen, dass KI schon jetzt besser in der Lage ist, Röntgenbilder oder MRTs jetzt schon besser lesen kann als professionelle, ausgebildete Ärzte, die darauf spezialisiert sind. Also nicht irgendwie Hinz und Kunstarzt, das ist ein Allgemeinmediziner, der mit Röntgen gar nicht so viel zu tun hat, außer mal einen gebrochenen Arm anzugucken, sondern richtig Profis dafür. Und das Ding erkennt das genauer und leitet die dann sozusagen dahin. Das ist ja schon ein bisschen abgefahren, oder?
Lars Jankowfsky: Absolut, ja. Ich habe erst vor ein paar Wochen mit einem Startup aus Bangladesch gesprochen. Die haben ein Modell gebaut. In Bangladesch ist im ländlichen Gebiet Tuberkulose noch ein Riesenthema. Und das ist gar nicht so einfach, Tuberkulose zu erkennen. Also da nimmt man ja quasi Proben, das kommt in die Petrischale und dann muss ein Labortechniker sagen, das ist jetzt Tuberkulose oder nicht. Und die haben das ganz einfach gemacht. Die machen quasi die Proben unter das Mikroskop, machen dann ein Foto mit dem Smartphone und dieses Foto mit dem Smartphone geht quasi an den zentralen Server, die AI, und die AI sagt dann, ist Tuberkulose oder ist nicht.
Joel Kaczmarek: Okay, gut, also erstes Chancenfeld Medizin.
Lars Jankowfsky: Ja, vielleicht auch noch ganz kurz, das Riesenthema da ist natürlich Longevity, also Langlebigkeit. Wir gehen davon aus, dass mit der Singularity die Medizintechnik so weit getrieben wird, dass wir nicht nur das Altern anhalten können, sondern teilweise auch zurückdrehen können. Um jetzt mal so ein bisschen nochmal in seinen Zwitschgenbereiche abzudenken, gibt es einen Begriff und zwar ist es so, wenn die Medizintechnik so schnell fortschreitet, dass quasi innerhalb eines Jahres genügend Treatments erfunden werden, um das Altern für ein Jahr aufzuhalten, dann haben wir sozusagen Longevity Escape Velocity erreicht. Das ist quasi die Geschwindigkeit, Das Escape with Solacity, das kommt aus der Raumfahrt, ist die Geschwindigkeit, die man braucht, um aus dem Gravitationsfeld der Erde zu entkommen. Und da würden wir quasi dem Altern entkommen. Weil wenn man quasi jedes Jahr ein Jahr on top legen kann, könnte man theoretisch ewig leben. Natürlich sehr wahrscheinlich unter der Voraussetzung, wenn man es sich leisten kann.
Joel Kaczmarek: Also ich finde das immer ein bisschen eklig, aber können wir gleich mal darüber reden, ob Geld eigentlich noch eine Rolle spielt, wenn man all das hat, weil das frage ich mich ja die ganze Zeit. Und hast du nicht zu mir sogar mal gesagt, Joel, mit 50% Wahrscheinlichkeit wirst du irgendwie 500 Jahre alt? Ich glaube, das war so dein Take, oder?
Lars Jankowfsky: Also das ist nicht nur mein Take, sondern das ist der Take von vielen Menschen, für deine Kinder sehr wahrscheinlich. Und die interessante Frage, die sich da dann natürlich aufstellt, wenn du jetzt davon ausgehst, dass deine Kinder Sehr, sehr viel länger leben. Was bedeutet das denn jetzt für die Schulbildung? Was bedeutet das denn für deine Altersvorsorge? Was bedeutet das denn für die Planung? Das ist ein komplett anderes Spiel.
Joel Kaczmarek: Reden wir da eigentlich, by the way, nur von Zellalterung? Also, dass du sozusagen jünger aussiehst, deine Organe? Weil ich meine, so ein Gehirn, wenn ich mir das wie so einen Arbeitsspeicher mal vorstelle Wenn es von 76 Jahren auf einmal auf 500 hochspeichern darf, da wirst du ja bekloppt.
Lars Jankowfsky: Auch da wird im Moment gerade diskutiert. Wir reden natürlich von Zellalterung oder von dem Körper. Jetzt haben wir aber natürlich im Gehirn Depressionen, Probleme mit der Erinnerung, Alzheimer, was auch immer. Da gibt es viele Dinge. Was nützt mir das, wenn ich dann lange lebe, aber nicht mehr so richtig da bin?
Joel Kaczmarek: So Medizin, Longevity, erste Achse. Lass doch mal die zweite Achse dann vielleicht sowas wie Mobility aufmachen. Also Fortbewegung, planetare Reisen, die ganzen Milliardäre haben ja mittlerweile auch ihre Raketen gefühlt so als Spielzeugthema. Also mir war gar nicht so klar, warum. Bis ich jetzt langsam mal verstanden habe, alles klar, dieses ganze Satellitengame und Daten und so weiter, das ist relativ mächtig, die günstig ins All zu kriegen. Aber bei den Thesen, die du da gelesen hast, geht es da auch um interplanetare Reisen?
Lars Jankowfsky: Also erstmal nicht, aber das wird natürlich ein Thema werden. Das Thema Transport, das fließt eigentlich an an die Robotik. Und das ist eigentlich das große Thema. Wir sehen durch die EA ja heute schon eine unglaubliche Verschiebung von Arbeitsplätzen und Vernichtung von Arbeitsplätzen. Erstaunlicherweise, wir Büro-White-Collar-Worker haben ja immer gedacht, hey, wir sind safe. Dem ist jetzt nicht so. Anwälte, Softwareentwickler müssen uns wirklich auf die Hinterbeine stellen, damit wir unseren Job weiterhin behalten in den nächsten Jahren. So wie wir den früher geführt haben, wird das nicht mehr gehen. Alle großen Beratungsgesellschaften sagen ja ungefähr vor, in den nächsten zehn Jahren 30 Prozent ungefähr aller Jobs fallen weg. Und jetzt kommen die Roboter. Wenn du dir mal anschaust, Elon Musk, Optimus oder Figure.ai, das ist unfassbar. Ja, also Da kommen jetzt auf einmal humanoide Roboter her, die wirklich à la Robocop bei dir zu Hause putzen oder Kellnern oder Fliesen verlegen werden und so weiter. Die Prototypen von bei 4K AI sind in der Automobilproduktion, bei BMW zum Beispiel, zu sehen, wie die am Band stehen und arbeiten. Und dann auf einmal kommen die manuellen Jobs auch dran. Also was bedeutet das für uns als Gesellschaft? Also wenn wir 30, 40 Prozent keine Arbeit haben. und wenn wir dann weiterhin den Wert eines Menschen anhand seines Geldbeutels, also seines Einkommens definieren, dann wären ja per se, so wie wir es heute sagen, diese Menschen nicht so viel wert. Dann sind das aber so viele, dann haben wir den Mob mit der Mistgabel auf der Straße.
Joel Kaczmarek: Wieso sind denn da die Sprünge eigentlich auch so hoch? Das ist ja eine ganz andere Disziplin als das KI-Thema. Also KI-Thema ist ja Prozessieren und Daten erfassen und Daten in Verhältnis bringen und so weiter und so fort. Und Robotik ist ja eigentlich was Mechanisches. Also hat eine technologische Komponente, ist ja ganz klar, so eine Softwarekomponente, aber ist ja sehr viel Hardware. Warum gibt es denn da auch solche Sprünge parallel?
Lars Jankowfsky: Aus dem gleichen Grund, warum wir jetzt die AI-Health-Tech-Fortschritte sehen, weil die KI neue Materialien, neue Verbundstoffe entwickelt. Weil wir mit der KI gestützt neue Technologien finden können, die es so noch nicht gab. Ich habe zum Beispiel mal, das ist schon eine Weile her gesehen, so einen Verbundstoff, wo die KI angeleitet quasi von der Natur Träger im Bau sozusagen gebaut hat. Die sahen unglaublich spannend aus, die sahen so organisch aus wie so Blätter und die waren bei sehr viel weniger Gewicht ungleich viel tragfähiger.
Joel Kaczmarek: Gut, also wir fangen jetzt nochmal so ganz kurz zusammen. Also das war, jetzt haben wir abgegangen bei den Chancen. Wir haben jetzt über Medizin geredet, über Longevity, Transport haben wir angerissen mit Robotik. Mich persönlich interessieren ja immer auch so die Metathemen Umwelt und Finanzen.
Lars Jankowfsky: Ja, natürlich. Also die größte Herausforderung ist, das hat übrigens jeder, das ist auch der größte Kritikpunkt, ist die Energie. Wenn wir davon ausgehen, dass im Prinzip die Technologie und die KI die Zukunft darstellt, dann gewinnt dieses Land oder Region oder was auch immer, die die Energiethematik nachhaltig löst, weil das ist ja unglaublich energiehungrig. Ich weiß nicht, ob du die Diskussionen um Elon Musk, Kroc in Memphis nachverfolgt hast. Also der hat ja, das Rechenzentrum für Kroc läuft in Memphis. Und da hat der zig Methangasturbinen aufgestellt, illegal. Und die machen die Luft für die Anwohner richtig, richtig schlecht. Und das ist dem aber total egal. Das Ding braucht so viel Energie und der macht das einfach.
Joel Kaczmarek: Ich habe gestern mich mit jemandem unterhalten, die sagte mir, eine Google-Suche hätte man ja mal berechnen können. Das war, glaube ich, ganz gut erforscht. Drei Watt. Und KI dreimal so hoch. Und wenn Google jetzt hingeht und immer noch Gemini mitlaufen lässt, hast du quasi 3 Watt für die Google-Suche und 9 Watt für Gemini. Also 12 Watt. Also viermal so viel Verbrauch quasi, wenn du das beides kombinierst, wie wenn du es nur einmal hättest. Und ich meine, das ist ja gigantisch. Und dann war die andere Zahl, 10% der Menschheit benutzt KI. Was ist, wenn es auf 20 geht? Auf 40, 60 und so weiter. Also das muss ja exponentiell, das muss ja gigantisch sein, was du da an Energiebedarf hast. Und ich habe vor nicht allzu langer Zeit einen Typen interviewt, der hat ein Startup gemacht über Fusionskraft. Das finde ich immer abgefahren, wenn VCs anfangen in Fusionskraft zu investieren. Weil ich immer dachte, die machen eigentlich nur so ein Software-Shit. Aber nein, das sind so die Themen jetzt. Glaubst du, dass sich da was tun wird? Dass das so der Pfad sein wird, den man gehen muss? Oder was siehst du so in Energie?
Lars Jankowfsky: Ich weiß es nicht. Fusion ist natürlich der heilige Gral. Das will jeder. Die Kernspaltung ist ein bisschen old-fashioned. Da gibt es aber auch neue Technologien, die ja bei den Großen angegangen werden. Und ansonsten, je nachdem, jetzt vielleicht nicht gerade in Deutschland, aber ist Solar immer noch der King. Also zumindest, wenn ich viel Sonne habe.
Joel Kaczmarek: Hast du das mal unternehmerisch betrachtet? Weil man fragt sich ja immer, wenn du jetzt so ein Land bist hier, bekannter von mir macht das in Montenegro zum Beispiel. Aber wenn ich jetzt ein Land bin, wo ich zum Beispiel viel Wüste habe, dann ist ja ganz dankbar, kann ich sogar den Boden verschatten mit Solaranlagen, habe eigentlich wirklich riesige Mengen an Energie, die da reinkommen. Aber ich weiß gar nicht, was die Cases dahinter sind, also wie sich das rechnet.
Lars Jankowfsky: Ich lebe ja in Vietnam, die sind klassisch Kohlekraftwerke und die haben jetzt die letzten zehn Jahre irre investiert in riesige Solarkraftwerke. in den Bergen, also Gigawatt haben die da installiert und das funktioniert super. Das interessante Thema bei Solar übrigens ist, und das ist ein spannendes Thema, also Solar ist ja klassisch, sage ich mal, ein grünes Thema. Und konservativ klassisch lehnt ja eher zu Nuklear. Was jetzt in den USA passiert ist, in Texas ist, was ja, sagen wir mal, hochgradig konservativ ist, dass die dort gemerkt haben, Mensch, Also Texas, wir haben viel Sonne, Solar ist schon ziemlich geil, weil wir können Energie viel günstiger produzieren als althergebracht. und auf einmal dreht sich das Bild auch der Konservativen, wenn es ums Geld geht.
Joel Kaczmarek: Ja, ich weiß nicht, das ist in Deutschland ja auch genauso, wenn man an die Windkraftanlagen denkt. Die Diskussion mit Bayern, ich will mir so eine Dinger nicht hinstellen, die Verschandelung, dann hast du keine Achsen, wo der Strom fließt von Nord nach Süd und so weiter. Also ich finde das manchmal ein Trauerspiel, aber okay, anderes Thema. Kannst du mir da ein bisschen Hoffnung machen? Ich bin ja immer so, dass ich mir, also ich will mir nicht mehr so viel Zukunftsangst machen. Wenn man Klimawandel betrachtet, finde ich, ist das aber evident und quasi unausweichlich. Ich hoffe immer drauf, wenn hier sowas eintritt, dieses Singularity-Thema, was wir jetzt hier besprechen, dass so ein Ding halt in der Lage ist, sich Wege zu überlegen, wie man das CO2 wieder aus der Atmosphäre kriegt, wie man vielleicht irgendwie Prozesse, die eingeleitet sind, wieder reversibel kriegt, weil es ist ja so, wenn es diese Punkte gibt, dann ist Ende Gelände. Also dann hast du auch Luftfeuchtigkeit zu Hitze, dann kannst du nicht mehr atmen, dann die Ozeane heizen dich auf whatever. Gibt es da Ansätze, dass es sozusagen Hoffnung gibt?
Lars Jankowfsky: Das wäre jetzt noch ein bisschen früh, also mir ist da nichts bekannt, aber ich wüsste jetzt nicht, warum das nicht so sein sollte. Wenn wir die Rechenleistung haben, wenn wir die hinreichende Energie haben und wenn wir uns bis dahin nicht irgendwie jetzt noch in irgendwelchen großen Weltkriegen, Gegensätze in die Steinzeit bomben, dann sehe ich da schon gute Chancen, dass wir in der Lage sind, auch diese Themen anzugehen, auf jeden Fall.
Joel Kaczmarek: Und sag mal, jetzt haben wir ja so ein bisschen über Wirtschaft schon geredet im Anriss, so langsam mal als Brücke von schon Chance noch zu Risiken, aber vielleicht ist ja noch eine Chance drin. Ich frage mich ja immer, ob Geld überhaupt noch ein Thema wird. Weil wenn wir mal ganz ehrlich sind, ist ja Kapitalismus irgendwie auch ein Penner-System. Also, dass alles irgendwie bezahlt werden muss, was eigentlich manchmal auch menschlich ist, ist ja schon auch schade. Mir ging es so, als ich bei dir in Vietnam war, dass ich so am Verkehr gemerkt habe, wie so eine Gesellschaft tickt, wenn die nicht, also zumal ehrlich, die ist, glaube ich, schon auch kapitalistisch geprägt. Die ist zwar kommunistisch im politischen System, aber ich meine, da ist es auch so, Anfrage und Nachfrage und Angebot. Aber ich habe das so beobachtet im Verkehr und das war so mein Messpunkt, den ich mal so hatte, dass ich so gemerkt habe, wenn du da fährst, in Deutschland ist es ja so, wenn du angehubt wirst, ist die Aussage, du Arschloch. Oder du hast was falsch gemacht. Oder ich habe recht. In Vietnam ist das Hupen ganz anderes. Da ist es so, Achtung, hier bin ich. Pass auf, guck um dich. Hier, hallo. Und das fand ich interessant, dass das da mehr wie so ein Schwarm ist. Dass die Menschen mehr füreinander sind. Und nicht so, ich gegen dich. Ich im Wettbewerb zu dir. Weil ich habe mich mit dir dann mal darüber unterhalten, dass du gesagt hast, ja, das ist ja halt irgendwie eine gemeinschaftliche Gesellschaft und die deutsche ist eine individuelle. Also wenn wir Roboter sagen, wir gehen kreativen, du kannst ja mittlerweile Musik super machen, du kannst Gedichte schreiben und, und, und. Glaubst du, dass Geld dann überhaupt noch ein Thema wird?
Lars Jankowfsky: Ne, wir müssen dann eine neue Lösung finden. Das ist ja künstlich. Also der Kapitalismus, den wir so haben, das ist ja eben nicht das einzige Modell. Wenn man so an die alten Griechen zurückdenkt, ein Sokrates war ein armer Schlucker, war aber unglaublich hochgradig angesehen. Ich wüsste jetzt nicht, ganz offen gesagt, ich könnte mir vorstellen, dass 30 Prozent der Menschheit sagen, geil, Mensch, ich Ich kann zu Hause meinen Hobbys nachgehen, ich kann dichten, ich kann meinen Garten schön gestalten, ich kann irgendwie zur Gemeinschaft beitragen. Was wir halt schaffen müssen, ist ein System, in dem sowas auch Respekt und Anerkennung verdient und wir eben nicht sagen, na, das ist ja ein Hartz-IV-Empfänger, der ist ja nichts wert. Ein Milliardär ist in unserer Gesellschaft sehr viel mehr wert und angesehen als jemand, der staatliche Unterstützung bezieht. Und wir müssen das nochmal ganz kurz sagen, dem ist nicht so. Das sind beides Menschen, die beide Respekt verdienen. Der Milliardär wird wahrscheinlich in unserer Gesellschaft einen größeren Impact haben, positiv wie negativ, je nachdem wer das ist. Das könnte ja auch sein, dass jemand zum Beispiel ein unglaublich toller Maler ist oder Kunst gestaltet, die einfach die Herzen der Menschen erwärmt.
Joel Kaczmarek: Komm, dann gehen wir nochmal rüber zu dem Thema Gefahren, weil ich frage mich ja so ein bisschen, ob so eine Singularity-Welt nicht prädestiniert für Depressionen ist, ehrlich gesagt, und Selbstmord und keinen Zweck mehr im Leben haben, Purposelosigkeit, weil ich frage mich schon, warum soll ich denn malen, wenn eine Kaidis auf Knopfdruck besser kann? Oder ist es der Prozess, der die Leute glücklich macht? Aber weißt du, was ich meine? Wenn das Ergebnis einer Maschine von der Qualität her immer besser sein wird, die fertigen was, der 3D-Drucker baut was, was du töpferst, wird nicht ansatzweise so gut sein. Ob das nicht auch ganz viele Leute so in die Sinnlosigkeit stürzt?
Lars Jankowfsky: Was die Maschine nicht kann ist, die Maschine macht nach. Wenn wir die Singularity haben, aber wenn wir die Singularity haben, dann ist unsere Gesellschaft sowieso so anders. Das ist ja die Frage, wie sieht eine Gesellschaft aus, in der wir nicht mehr arbeiten müssen? Wie sieht eine Gesellschaft aus, in der wir ewig leben können? Wie sieht eine Gesellschaft aus, Wie wollen wir gemeinsam miteinander umgehen? Das sind Themen, die sind nicht gelöst. Wie ist zum Beispiel die ethische Situation? Also was ist Ethik? Wir haben keine allgemeingültige Ethik, auf die wir uns als Menschheit geeinigt haben. Wir haben eine Ethik, sagen wir mal, der westlichen Welt, der europäischen Welt, die unterscheidet sich schon wieder von der amerikanischen Welt und unterscheidet sich ganz sicher von der asiatischen oder der arabischen Welt. Und von Nordkorea und solchen Ländern müssen wir gar nicht sprechen. Wir sind noch nicht mal in der Lage zu sagen, was sind denn so allgemeine Grundgesetze? Mal als Beispiel, die meisten KIs sind ja aus dem amerikanischen Raum geprägt. Die werden ja keine weiblichen Brüste darstellen. Das wäre jetzt in Deutschland und Europa überhaupt kein Thema. In unserer Kultur ist das ethisch völlig in Ordnung. Dort nicht. Dafür ist es dort in Ordnung, dir eine Pistole zu kaufen und rumzuballern. Und das ist übrigens auch die Herausforderung, die wir jetzt haben, dass wir diese Themen vordenken. Weil die Risiken, die entstehen, die KI sind immer noch Maschinen. Und wenn wir diese Maschinen vernünftig programmieren und gestalten, dann können wir diese Risiken minimieren. Wenn wir da ethische Grundprinzipien verankern, können wir diese Risiken minimieren. Auch der Gesetzgeber, was wir jetzt in Europa haben mit dem KI-Akt. Ist ja gerne mal umstritten und die Leute jammern, aber prinzipiell ist das schon gut, dass da mal jemand hingeht und sagt, wir müssen das gesetzlich regeln und wir müssen irgendwie festlegen, was okay ist und was nicht okay ist.
Joel Kaczmarek: Was siehst du denn sonst als größte Risiken?
Lars Jankowfsky: Also nochmal, 5% Human Extinction Event. Es gibt ja ja so diese Beispiele, Paperclips und so. Da gibt es so Denkbeispiele, dass eine KI kriegt irgendwie diese Aufgabe, zum Beispiel hier Büroklammern herzustellen. Hat aber keine Grenzen gesetzt. Das heißt, die fängt dann an, Büroklammern herzustellen und irgendwann gehen halt die Materialien aus und dann wird alles zu Büroklammern verwurscht, inklusive Menschen. Wir würden ja sagen, okay, ich habe jetzt kein Metall mehr, ich mache jetzt keine Büroklammern mehr. Aber eine Maschine muss ja da an der Stelle nicht unbedingt aufhören.
Joel Kaczmarek: Was ist denn dein Gefühl, dieses dystopische?
Lars Jankowfsky: Also ich stehe der Zukunft grundsätzlich sehr positiv und optimistisch gegenüber. Ich glaube, dass wir viele schlaue Menschen auf dieser Welt haben. Ich glaube, dass viele schlaue Menschen die richtige Richtung denken. Prinzipiell hat jede technologische Entwicklung, die wir gehabt haben in der Menschheitsgeschichte uns weiter nach vorne gebracht. Ja, da war auch Disruption dabei, die industrielle Revolution zum Beispiel und so weiter. Das hat viel verändert und manchmal auch Kriege ausgelöst und so weiter. Aber prinzipiell waren wir danach in einer besseren Situation als vorher. Uns geht es ja heute so gut wie nie. Also wir jammern ja gerne in Deutschland, aber man muss sich einfach mal vor Augen halten, vor 100 Jahren hatten die Leute keine Dusche, kein Nichts, kein Elektrik. Selbst Menschen, die wir in unserer Gesellschaft als arm definieren, denen geht es sehr viel besser, sehr viel besser als noch vor 50 oder 100 Jahren.
Joel Kaczmarek: Machst du dir auch strategische Gedanken, dass du sagst, in fünf Jahren gehe ich davon aus, dass wir
Lars Jankowfsky: Selbstverständlich. Also wir haben jetzt zum Beispiel das letzte Jahr einen großen Shift hingelegt. Deswegen steht ja bei uns im Namen auch Deep Tech in Richtung Robotik, Intralogistik, also Produktion. Das sind Themen, die werden unglaublich zunehmen.
Joel Kaczmarek: Und wird das so ein bisschen, ich denke mal daran, als ich ein Kind war, gab es mal hier Loney Tunes mit Acme. Acme hat doch mal irgendwie alles gemacht, diese Firma, kennst du die? Und glaubst du, es wird auch später so sein, dass wir eher so ein Oligopol haben, anstatt dass jeder seine eigene Robotikflotte hat, seine eigene KI-Geschichte, seine eigene Datenaufbereitung und so weiter? Weil ich habe so den Eindruck, dass vieles gerade dann geht. Man probiert viele Tools aus und merkt dann, okay, je integrierter in ein Ökosystem, desto besser. Was ja eigentlich Oligopol-Wahrscheinlichkeiten stützen sollte.
Lars Jankowfsky: Ja, das ist auch die Frage, wie sieht denn die Zukunft sowieso aus? Was wird in 50 Jahren, was sind Staaten noch? Haben wir noch Staaten? Sind das eher Einflussgebiete von Großkonzernen? Da gibt es ja auch viele Zukunftsvisionen. Und dann ist halt natürlich die Frage, mit welcher Technologie arbeiten wir, wo arbeiten wir, was passiert da? Joel, das ist ein bisschen theoretisch. Da müsste ich jetzt wirklich Kaffeesatz lesen. Was ich vorher erzählt habe, sind Fakten. Das sind auch faktenbasiert.
Joel Kaczmarek: Sind das nicht auch Leute, die sich das ausdenken? Die vermuten, es könnte so sein, dass in so und so vier Jahren oder wie kann man da Fakten reinbringen? In 39 Jahren haben wir eine Singularity.
Lars Jankowfsky: Über die Extrapolation der Rechenleistung von Computern. Ganz einfach. Ich kann einfach sagen. Ich bin heute hier, die technologische Entwicklung war so, ich kann ziemlich genau vorhersagen, wann ich an den Punkt komme, dass die Leistung, und an dem Punkt sind wir ja heute schon, jetzt so ist, dass wir diese Technologie haben.
Joel Kaczmarek: Abschließend, was macht das so mit dir? Wie blickst du da drauf, wenn du sowas hörst? Du hast ja schon gesagt, du bist ein optimistischer Mensch, fängst schon an, dein Business umzubauen. Wie legst du dir jetzt die Karten?
Lars Jankowfsky: Also ich baue mein Business um, auf jeden Fall. Das macht mir gerade große Freude. Es macht mir auch große Freude, meinen Kunden zu helfen, die nach vorne zu bringen und sich dieser Verantwortung und dieser Hürde, dieses Tsunamis, der uns da so ein bisschen überrollt, zu stellen. Und ich persönlich, ich werde jetzt 56, ich beschäftige mich stark mit dem Thema Longevity. Ich versuche gesund zu leben, um Longevity. es noch irgendwie hinzukriegen, dass ich noch in 20 Jahren so rüstig bin und geistig da bin, wenn dann irgendwann mal mit Glück die Medizintechnik so weit ist, dass ich mich so ein bisschen verjüngen kann. Ich würde das ganz gut finden. Muss ich jetzt 500 Jahre leben? Das muss ich aber heute auch nicht entscheiden. Aber ich fände das schon ganz gut. Ich muss sagen, das Leben ist schön.
Joel Kaczmarek: Ich wollte gerade sagen, 130, 140 Jahre leben und sich wie ein 20-Jähriger fühlen. Ich glaube, das wäre attraktiv.
Lars Jankowfsky: Das wäre sehr attraktiv, ja. Da wäre ich gerne dabei.
Joel Kaczmarek: Na gut, also hey, ich bin da neugierig drauf. Ich weiß ja, nächstes Jahr haben wir auch wieder ein Summit bei dir. Da bin ich mal gespannt, was du da dann zu berichten hast. Von daher für heute erstmal vielen Dank und to be continued.
Lars Jankowfsky: Sehr gerne. Danke, dass ich da sein durfte.