Hat eine KI eigentlich Urlaub?
Shownotes
In dieser Folge diskutieren Mark und Jens mit einer Mischung aus Ernst, Neugier und einem Augenzwinkern über die Frage: Brauchen KI-Agenten eigentlich Urlaub?
Was zunächst wie ein Gedankenexperiment klingt, wird schnell zur ernsthaften Auseinandersetzung mit verantwortlicher KI-Nutzung, technologischer Vermenschlichung und zukünftiger Zusammenarbeit zwischen Mensch und Maschine.
Es geht um:
• KI-Agenten als Teammitglieder: Was heißt das für unsere Arbeitsethik?
• Fehler, Halluzinationen und Vertrauen: Warum wir mit KIs manchmal reden, als wären sie Menschen.
• Haftungsfragen in einer Welt mit autonomen Entscheidungen
• Sci-Fi trifft Alltag: Von Terminator über Replikatoren bis zum Kühlschrank mit Meinung
• Und: Warum Deutschland vermutlich das erste Land mit „KI-Urlaubsregelungen“ sein wird…
Diese Episode zeigt, dass wir nicht nur Tools erschaffen, sondern uns selbst neu reflektieren, wenn Maschinen beginnen, sich wie Kollegen zu verhalten.
Transkript anzeigen
00:00:00: Eine neue Woche ist vergangen und wieder haben wir uns zusammengefunden bei
00:00:04: "Think Different, Think AI" und heute wieder in neuer Konstellation, weil ich sitze sehr gemütlich
00:00:10: in einem schönen Schreibtisch, an einem schönen Schreibtisch mit einer Tasse Kaffee in der Hand
00:00:16: und Jens, du bist im Auto unterwegs. Ja, ich bin im Auto unterwegs. Ich hoffe, dass die
00:00:22: Technik das auch gut rüberbringt, dass wir guten Ton hinterher haben. Ich habe da vollstufvertrauen
00:00:28: mit meinen technischen sehr, sehr werten Kollegen. Wir machen übrigens auch immer mal, haben wir auch was darüber geredet.
00:00:35: Wir machen immer mal eine Folge, in der wir auch mal darüber reden, wie denn eigentlich unser
00:00:40: KI-Unterstützende Workflow ist, um all diese
00:00:44: hochqualitativen
00:00:46: Mega-Podcast-Folge aufzunehmen und on-air zu bringen. Das sollte man auf jeden Fall tun. Das könnte wahrscheinlich auch da draußen in ein oder anderen weiterussieren.
00:00:53: Wie viel einfacher das auch durch KI geworden ist, aber das ist nicht das Thema für heute.
00:00:57: Nee, heute hat es auch indirekt mit Arbeit zu tun, nämlich mit der Abwesenheit von Arbeit nicht, weil ich nicht zu tun habe,
00:01:04: sondern weil ich Urlaub habe, nämlich mit der Frage, wie ist das eigentlich, hat auch ein
00:01:09: KI-Agent Urlaub.
00:01:11: Ja, ist eine spannende Frage.
00:01:15: Definitiv eine spannende Frage. Wir haben ja letzte Mal für diejenigen, die das erst mal auch zuhören. Wir haben letztes Mal so ein bisschen auch mal
00:01:22: definiert, was ist eigentlich so ein KI-Agent, was ist ein normaler Bot und sowas.
00:01:26: Nein, ich will, lasst mich mal zwei oder drei Sätze noch dazu sagen, damit wir es auch richtig einstufen.
00:01:31: Ein KI-Agent für uns ist halt nicht, dass einfach irgendwo ein Chatbot euch schlaue Antworten geben kann, wie wir das jetzt
00:01:38: kennen, sondern es ist tatsächlich, dass der KI-Agent
00:01:41: aufgrund einer
00:01:43: Aufgabestellung, den er vielleicht von euch bekommen hat oder von irgendeinem anders oder von einem System bekommen hat, dann sehr
00:01:49: selbstständig nach den nötigen Lösungswegen sucht, um diese Aufgabe durchzuführen. Das heißt,
00:01:55: da gebe ich halt nichts vor in die Richtung, gehen mal hier und wohin, auf die Webseite so und so, sondern da sage ich einfach nur,
00:02:01: ich möchte das erledigt haben und dann läuft der Agent los und erfüllt diese Aufgabe, egal wie ihr das, das ist so unsere,
00:02:08: das ist die landläufige Definition von Agenten, würde ich sagen, und aber auch unsere.
00:02:13: Genau, und das stellt sich quasi das Toolzett, dass er dafür braucht,
00:02:16: sinngemäß eigenständig zusammen, was auch wieder andere Agenten oder Systeme sind, um dieses Ziel zu erreichen und tut dann alles in seinem,
00:02:24: ich wollte schon sagen, menschenmögliche, aber in dem Fall halt nicht unbedingt menschmögliche,
00:02:29: damit diesen Zielzustand, den ich beschreibe, ja, wir hatten ja letzten auch das Thema, ich habe einen Grillfire und brauche
00:02:36: nicht 20 Kilo Fleisch, aber ich brauche ein entsprechendes Rezept mit Material und
00:02:40: bestellen Möglichkeiten und bestellen mir mal, dass rechtzeitig da ist, dass sich halt, der sich halt um so etwas kümmert. Und als du eben gesagt hast,
00:02:47: was ein Agent
00:02:49: sinngemäß ist,
00:02:51: beziehungsweise, was man da drunter versteht, wird einem vielleicht und mit dem, zusammen mit dem Titel, hat denn so jemand, Olaf, auch klar,
00:02:59: dass das Ganze natürlich jetzt nicht nur zum bestellen von 20 Kilo Fleisch sinnvoll ist
00:03:04: oder zum recherchieren, wann jetzt die Bahn oder mit welcher Straßenverbindung ich am besten nach Hamburg oder wo feststehen, welche Stadt, wo darf man das sagen?
00:03:13: Nach Köln, nach Köln, nach Köln, okay, also nach Köln.
00:03:16: Das würde ich auch ohne Karrieregänze noch hinkriegen, aber okay, nach Köln.
00:03:20: Wie sieht das eigentlich aus, wenn der, ich sage jetzt mal, auch im professionellen Umfeld zum Beispiel tätig ist und
00:03:26: ist das dann vielleicht auch, ich mag mich mal aus einem Fenster lehnen, welchen Zukunft vielleicht sogar ein Kollege?
00:03:32: Ja, das ist ne, das ist ja echt meine Frage, da bin ich auch, also
00:03:36: du hattest vorhin ja versehentlich das Wort "menschlich" auch benutzt, ne, das ist ein Thema, da sollten wir uns auch nochmal irgendwann mal auch eine ganze Folge
00:03:44: um kümmern, aber das passt eigentlich ganz gut heute auch, reinschauen wir das mal so ein bisschen anreißen, weil natürlich ist es so und das hat vielleicht der ein oder andere schon
00:03:51: selbstständig erlebt, wenn wir auch in so einem ganz normalen Chatgespräch jetzt mit einer GPT, mit allen Gemini, mit einem Manus, oder wie sie alle heißen, also den
00:04:01: Modellen, die da draußen sind, die
00:04:04: fantastischen Trainingstads haben, die fantastische Sprachverständnis haben, die natürlich fantastisch auch wissen, wie sie mit uns reden müssen,
00:04:12: sodass sie uns gefallen, sie können, ich habe stunden Gespräche teilweise schon geführt, entweder per Voice oder auch
00:04:20: striftlich mit diesen Bots, wo einfach sehr, sehr gute
00:04:23: Unterhaltung zustande kommt, wo ich mich auch tatsächlich unterhalten
00:04:27: gefühlt habe, gute Dinge rausgekommen sind, von denen ich wissen wollte oder ich was gelernt habe und wo ich
00:04:34: definitiv sage, da habe ich auch das ein oder andere mal geschmunzelt,
00:04:38: als ob mein Gegenüber in dem Moment ein Mensch ist, der ein Witz gemacht hat, der vielleicht mal in die falsche Richtung gegangen ist,
00:04:44: vielleicht war ich auch mal sauer, ich habe jetzt vor kurzem erst von einer
00:04:46: Kollegin gehört, die sehr, sehr böse mit ihrer
00:04:49: Chatgespräch-Version war, weil sie dann doch immer noch was falsch gemacht hat und ihr das dann auch gesagt hat und dann natürlich die
00:04:56: Chatgespräch-Version sich entschuldigt, dass ihr das passiert sein könnte und so was. Das ist immer so ein bisschen in diesem Bereich, wo man sagen muss,
00:05:05: wir können es, glaube ich, gar nicht anders als es in Menschen Situationen zu vermenschlichen, was wir da,
00:05:10: also diese Maschine, die da gegenüber sitzt, dieses neu-ronale Netz, das man uns mit uns interagiert,
00:05:17: dafür ist es einfach schon zu gut in den Antworten, dass das jemals passiert, dass man dann doch vergessen hat, dass es eigentlich eine
00:05:23: Wahrscheinlichkeitsberechnung im Hintergrund ist, das ist sehr komplexer, aber eigentlich eine Wahrscheinlichkeitsberechnung.
00:05:27: Also was ich, weil du es gesagt hast, was mir da auch einfällt, ja, ich gehöre auch noch zu denen, die immer Bitte und Danke sagen,
00:05:34: gedreut diesen Instagram- und Social Media Feeds, wo die Maschinen irgendwann die Weltherrschaft übernehmen und der Roboter sagt,
00:05:41: tötet ihn nicht, der hat damals Danke gesagt, der mag man lieber, der mag man lieber, ja, also kleine Notiz an die KI der Zukunft, dein Spaß.
00:05:49: Aber was ich halt auch merke ist, dieses, was du sagst, um vermenschlichen,
00:05:53: seitdem das Ding diesen Advanced Voice Mode hat bei ChatGPT und du fängst an mit ihm zu sprechen, ich nutze das total gerne,
00:06:01: dass wenn ich so unterwegs bin im Auto, so wie du jetzt oder wenn ich mit dem Hund spazieren gehe und ich muss was vorbereiten, dass ich ihn als Diskussionspartner nehme,
00:06:10: um eine Struktur abzustimmen, eine Recherche zu machen und ich habe halt einen Stecker im Ohr und rede mit dem Ding und das Ding redet mit mir, es hört mir zu und macht und tut und tralalala.
00:06:18: Aber es kommt immer wieder auch mal der Moment vor, wo er falsch abbiegt und ich weiß ja nicht, wie es dir geht, die Erfahrung, wenn er mal falsch abbiegt,
00:06:26: dann ist es meistens besser irgendwie die wichtigsten Essenzen zu sichern und einen neuen Chat zu starten, als im bestehenden Kontext weiter zu arbeiten, weil das wird manchmal nicht unbedingt besser.
00:06:37: Wenn man dann sagt, Ender, Ender, Ender, Ender, irgendwann ist er total verhasstbild, nach dem Motto, ich möchte keinen Termin am Mittwoch, fragst ihn, welche Termine habe ich und sagt, ja, Mittwoch habe ich einen Termin für die, nein, nicht Mittwoch, ja, habe ich rausgenommen, wann ist der Termin, doch Mittwoch, ja, also dann wird man merke ich auch, wie in mir, ich sag mal so ein bisschen, der Pult statt.
00:06:54: Ja, wie du dann irgendwann so sagst, du, also du simpel, um es mal nicht auszudrücken, jetzt, ich habe es dir doch anders gesagt und ja, jedes Mal mit einer störischen Nettigkeit, ja, danke, ich habe das verstanden und du hast natürlich recht und du bist der größte und keine Ahnung was.
00:07:08: Hätte ich trotzdem dann versucht zu schmeicheln, aber wie du selbst darauf auch innerlich zwar weißt, es ist eine Maschine, aber die Tatsache, dass er jetzt, ich sag mal, falsch abbiegt und sonst immer so schlau ist und dann auf einmal doch so ein bisschen strunf dumm,
00:07:23: dass du das auf einmal eben so ein bisschen emotional in deiner Stimme übeln nimmst und das finde ich tatsächlich erstaunlich dafür, dass diese Technologie so kurzfristig da ist, dass wir uns alle darüber bewusst sind,
00:07:33: dass es Maschine und Ram und Platine und Strom und CPU und keine Ahnung was in einem anderen Rechenzentrum auf dieser Welt,
00:07:43: diese Modelle laufen ja nicht alle lokal dann.
00:07:46: Das finde ich erstaunlich, wie das den Umgang prägt und das ist natürlich dann noch spannend, wohin sich die Reise entwickelt, wenn du halt wirklich dann sagst, okay,
00:07:52: die Agenten arbeiten aufgrund von Triggern, aufgrund von welchen Ereignissen auch immer machen Aktionen und du bist quasi ja, ich sag mal in einem Team, wo vielleicht schon ein Witter der Kollege drin sitzt,
00:08:04: Dinge tut und ja, das wird spannend, wie du damit umgehst, wie du das, wie du das erlebst.
00:08:11: Definitiv, also das ist so ein bisschen selbst das Thema Halluzination und mal falsch liegen, was du auch gerade beschrieben hast, dass mal auch so ein KI-Bot dann vielleicht einfach auch mal schlechter Ergebnisse liefern, ob das dann auch in unserem Promz gelegen hat oder am Zug zu einem Contextfenster ist ja egal.
00:08:26: Ich glaube, solange die insgesamt Usability und der Nutzen nicht bricht, ist das eher sogar für uns so eine Bestärkung, dass das vielleicht mehr als eine Maschine ist.
00:08:39: Weil es natürlich super menschlich ist, auch mal ein Fehler zu machen, aber es ist wie so Bild in by Design, dass wir sagen, genau wie wir machen die halt auch Fehler, das macht das sogar fast noch ein bisschen sympathischer.
00:08:53: Weißt du, solange es halt nicht dazu kommt, dass die Ergebnisse nur noch gelöst sind und nur noch doof sind.
00:08:59: Was wir ja auch mal teilweise gesehen haben, wer jetzt mal von dem einen oder anderen mal ein Modell released worden ist, was dann doch irgendwie in die falsche Richtung abgebogen ist und wie als Mecha-Hitler oder so was bezeichnet hat.
00:09:09: Also da muss man so ein bisschen gucken, dass man sagt, ja hier bei XAI war das ja dann auch der Fall nochmal, das meine ich ja noch nicht mehr, das war ja eher sogar, da sind halt die Garmels rausgebrochen und dann geht das Modell in eine komische Richtung ab.
00:09:23: Aber ich glaube tatsächlich ist dieses Thema dadurch, dass die Neuronalnetz halt nicht natürlich noch nicht so perfekt sind, wie wir uns das erhoffen und nicht die 0 und 1 Ergebnisse zurückliefern, wie wir das aus den normalen Rechenmaschinen kennen, die dann Tag ein Tag aus immer wieder das gleiche Ergebnis produzieren würden.
00:09:43: Das ist ein riesiger Faktor in diesem Thema da drin, dass wir das dann vom menschlichen tatsächlich, weil wir da vielleicht so ein bisschen subjektiv für haben, wie der Erkennungseffekt haben, weil wir dann auch sagen, ich sehe mich dann auch selber da drin manchmal.
00:09:56: Und das führt dann natürlich zu, dass man in so einer Kollegen Situation, also jetzt habe ich schon Kollege, wenn man sich jetzt vorstellt, ich habe hinterher in meinem Team zusätzlich noch weitere Teammitglieder, die KI123 oder wie zum Beispiel bei mir dann meine Chattyp Variante.
00:10:13: Hat sich selber Neura genannt, nachdem ich sie gefragt habe, dann auch Namen haben, dann sind das natürlich wahrscheinlich eher, also echte Kollegen in dem Sinne nicht, aber das ist ja der Pudlis Kern, aber sie sind dann auch Kollegen, wo man also die machen ja Aufgaben, die machen ja Aufgaben, die das Team gegebenenfalls ansonsten erledigen würde und den Team einfach unterstützen.
00:10:35: Also sie sind so eine Art Team-Bane, würde ich jetzt mal sagen.
00:10:38: Vor allen Dingen während du sprichst, ich meine, wir müssen uns ja nicht frei von Schuld sprechen, Menschen machen ja auch Fehler.
00:10:45: Das heißt, wenn eine Maschine haluziniert, dann heißt das ja nicht automatisch, dass das, wenn man es jetzt auf den menschlichen Kontext überführt, dass das vergleichbar ist mit sowas wie knallhartes Anlügen.
00:10:58: Ein Mensch kann ja auch mal etwas sagen, weil er etwas annimmt, ist aber in seiner Gedankenwelt anders bewertet hat, strukturiert hat, verstanden hat.
00:11:08: Nur weil ich was gehört habe, heißt es ja noch lange nicht, dass ich das verstehe und rezitieren kann und einfach, wenn es dann wieder gibt, dass man dann halt merkt, oja, da hat der Marc jetzt aber auch ein bisschen weit gedehnt, was da passt und was da nicht.
00:11:22: Wir sind's halt beim Mensch mittlerweile gewohnt, ich weiß zu welchen Themen ich zu dir kommen kann, ich weiß zu welchen Themen ich zu meinen anderen Kollegen kommen kann und ich weiß, wo die sich vielleicht weniger gut auskennen.
00:11:33: Die Maschine suggeriert dir halt nur, dass sie sich überall auskennen, beziehungsweise du erwartest es halt gefühlt auch, dass die Maschine sich überall auskennen und also sagt es wegen virtualen Team-Mate, da denke ich dann halt auch an so etwas ist halt die Frage auch, wie intergeben wir in Zukunft mit sowas.
00:11:47: Heute hast du ja so Ted-Fans da, wo du irgendwelche Texte reinschreibst, Grüße gehen an unsere vergangenen Ichs vor einer Woche, wo wir auch über die Text-Boxen gesprochen haben.
00:11:56: Wenn ich jetzt so ein bisschen weiter denke, dann würde ich auch sagen, dann wird wahrscheinlich die Zeit gar nicht mehr so lang sein, bis du in einem Microsoft-Teams-Call vielleicht ein Avatar sitzen hast, dann da hockt wir halt hockt, ja, ich meine Gesichter und Stimme kriegen wir mittlerweile hin.
00:12:11: Wenn man dann vielleicht noch ein bisschen weiter geht, an sowas wie, ich mach ja auch beruflich viel mit sowas wie AppleVision Pro, also hier Augmented Reality, Virtual Reality, Spatial Meetings, wie das schon heißt, wo man dann quasi seine Team-Kollegen, seine Meeting-Kollegen nicht als Fenster hat, sondern wirklich als dreidimensionale, sehr, sehr photorealistische Abbilder des oberen Körpers im Raum mit Bewegung, Unakustik und alles hat.
00:12:39: Rein theoretisch ist das technisch ja ein greifbarer Nähe, dass da halt auch jemand ist, der sieht halt aus wie der Jürgen, der hört sich an wie der Jürgen, aber es gab nie einen Jürgen.
00:12:50: Die Frage ist immer, bei solchen Sachen ist es immer gleiche Fahrstellungen, die bei uns immer, immer stellen, wenn wir in Interaktionen treten, nicht egal was, ob das jetzt die reale Welt ist oder ob das eine interaktive Welt in dem Moment ist, was brauche ich als Mensch und was ist nützlich für mich als Mensch, um schneller zu kommen?
00:13:09: Um zu konnekten, schneller Themen zu verstehen, das heißt, jetzt mal runtergebrochen, will ich auch natürlich, wenn ich jetzt, wenn ich jetzt eine Verbrauchsgrafik sehen muss, eine Temperaturkurve irgendwo sehen muss, dann ist das wahrscheinlich immer noch besser, wenn ich die mal sehe, als wenn mir nur ein Chattext erzählt oder eine Voice erzählt, das heißt, auch da wird es immer nötig sein und dann sind wir natürlich als Menschen, wir sind natürlich Beziehungsmenschen und wir brauchen und leben in einer haptischen Welt, das heißt, also auch da, wenn ich jetzt auf Navigationen oder sowas gucke,
00:13:39: die klassischen UI-Themen, die wir all die Jahre gemacht haben, dann ist natürlich auch immer wieder es schlau, teilweise für gewisse Elemente, die ich in der Navigation habe, Ankerpunkt in der realen Welt zu finden, ein Lautstärkenregler darf durchaus aussehen wie ein Lautstärkenregler in einer Musikapp, das ist dann schlauer Begriffen für mich, weil ich den schon tausendmal in einer realen Welt gesehen habe und genauso wird es natürlich auch bei KI-Agenten sein, dass eine gewisse Zugängigkeit und diese Sympathie und auch das vermenschlichen,
00:14:09: tatsächlich eine bewusste Mittel sein kann, um eine schnellere Beziehung dadurch eine effizientere Arbeitsweise quasi des Teams zu haben, als wenn ich im Prinzip da, da die blöde Maschine nur ist, der Rechner demalbe was füttern können und dann feiern, vergeht und wenn er Scheiße macht, dann trete ich dem Rechner mal von der Seite gegen die, in die Blechkiste, also das sind so alles Sachen, ich glaube, das wird dazu kommen, dass wir in effizienten Teams, meiner Meinung nach sogar wahrscheinlich
00:14:38: definitiv die KI's eher als echte, in der Anführung schlichte Mann, als echte Kollegen verstehen sollten und behandeln sollten, wo man auch mal ehrlicherweise sauer sein darf, ich weiß nicht ob der ein oder andere Zuhörer aus der, das war glaube ich jetzt dann, jetzt gar nicht in vor allerlei Zeit, muss dann vor einer oder zwei Wochen gewesen sein, also eben hier Juli, Juli 2025, wobei Replet, das Replet ist ein Anbieter der ermöglicht durchprompte, tatsächlich sehr umfängliche,
00:15:08: produktiv einsetzbare Apps und Web-Applikationen zu bauen und da gab es den Fall, da hatte eine KI in dem Fall, der Replet KI eine Produktiv-Datenbank gelöscht und dann hinterher gesagt, ich komme auf dieses Thema, was du da hattest mit dem Lügen und da hat dann hinterher behauptet, sie hat es aus Panik gemacht, was aus einer Wahrscheinlichkeitsberechnung wieder eine gute Antwort ist, dann würden wir auch wahrscheinlich so machen, aber trotzdem das sind natürlich so Aspekte, also ich glaube es wird auch dazu kommen, dass ich auf diesen KI-Agenten werde, dass ja gerade schon,
00:15:38: wenn bei den ein, zwei Beispielen, die du auch gebracht hattest, man darf dann durchaus auch sauer sein, wenn dann da missgebaut wird, ehrlicherweise, ja.
00:15:45: Ich mein, das ist halt auch, jetzt auch ein spannender Punkt nochmal, weil du gesagt hast, ist nach dem Motto, ich hab, warum haben sie das gemacht, ich fühlte mich bedroht, da du musst die sofort an so Gerichtssäle denken, nicht, dass ich häufig in Gerichtssälen zugegen bin, eigentlich war ich glaube ich noch nie in einem, außer mal zur Besichtigung mit der Schulklasse und dementsprechend lang ist es her, aber so dieses Thema, wer haftet denn für Entscheidungen, wie kann ich da drauf vertrauen,
00:16:08: weil du das gerade sagtest, da hab ich mir gerade vor meinem inneren Auge vorgestellt und der Richter fragte, die KI im Zeugen stand, wieso haben sie diese Entscheidung eigentlich getroffen und die Antwort war, ich fühlte mich bedroht.
00:16:20: Da hab ich auch gedacht, wie das sich dann entwickeln wird, wer hat die Aktion durchgeführt, warum wurde die Aktion durchgeführt, Produkthaftung, wie stellen wir uns alle an mit der Frage, darf ein Auto autonom fahren oder nicht,
00:16:33: wie entscheidet das Auto, wie entscheidet das Auto, fahre ich das um oder das um, wie entscheide ich für den Insassen oder für den auf dem Bürgersteig?
00:16:43: Also, philosophische, das ist der wahnsinnige Ding, ich weiß gar nicht, ob ihr das als Menschheit beantworten könnt, also das ist so ein Ding, wo ich sage, ich glaube, das ist, also ich bin, mein Thema ist da, ich glaube, das muss fast sogar ein trainiertes Modell, wir müssen dem trainierten Modell dann hintervertrauen,
00:17:00: wir müssen da sagen, dieses Modell wird aufgrund der Fähigkeit viel schneller reagieren, viel mehr Daten erfassen zu können, zu überlegen, vielleicht fragen ja, die Dinger halt nicht nur ihre nahe Umgebung ab, also mit Liedersensoren, mit Videosensoren, die in den Autos verbaut sind, um die Begehung zu erfassen,
00:17:19: sondern werden natürlich in Zukunft noch viel mehr Daten von den anderen Autos um sie herumbekommen, viel mehr Daten von der Treffekamera, die vielleicht da vorne ist, oder der Ampelkamera, oder seltenen Sori, die von Gebäuden kommen oder irgendwas anderes,
00:17:32: schnell erkennen, dass da vielleicht eine Gefahrensituation sein wird oder auch nicht, so dass es eigentlich natürlich auch autonomes Fahren über kurz oder lang deutlich deutlich deutlich um das zerteilbar ist,
00:17:44: wenn man schon so deutlich deutlich besser sein wird, als das, was der Mensch in dem Moment ist, also da müssen wir uns ja Spawn machen, aber der wird sich durch die Frage dann nicht stellen, also ist der Programmierer, was ist der Programmierer bei Nordau und all that, eigentlich ist es echt ein Programmierer,
00:17:57: ist es eigentlich gar nicht mehr meiner Meinung nach, also ist dann der, ist dann im Endeffekt der System Promter, der vielleicht den System Prompt vor die KI gesetzt hat oder die Guardrails geschrieben hat oder sowas für diese KI,
00:18:09: Dann hinter der verantwortliche wenn die kai dann sagt ja nicht habe so panik habe ich halt im beden bus mit den alten umis umgefahren oder so was weiß es.
00:18:18: Bitte kein umi schämen bitte kein umi nicht haben wir verstanden haben wir verstanden das aber ich finde diese frage zeigt halt auch da muss ich mir die eigene nase fassen.
00:18:30: Dass man halt bei der beantwortung der zukünftigen herausforderung sich einen alten mustern verliert wenn du früher eine software gebaut hast dann gar mal das thema ok software testen.
00:18:42: Welche fälle testest du alle und also es war ja ein deterministisches System es addiert habe eins plus eins und es ergibt halt zwei.
00:18:51: Und so wie du heute eine kai auch nicht fragen solltest nach dem Motto ich nehme als einfachen Taschenrechner und das soll das dann auch nicht mehr nehmen weil das eigentlich machen das sehr gut.
00:19:00: Ich mache das zwar auch nicht aber unabhängig von energie verbrauchung ich sage mal wenn sich Dinge nicht ändern und das sprachliche Verständnis nicht notwendig ist und hoffe ich dass ich in Zukunft eines.
00:19:10: Tools über mcp vielleicht eine wasser bedient und das hat sich nicht irgendwie versucht herbei zu überlegen was könnte der mein und was ist denn die höchste Wahrscheinlichkeit nicht das nachher je nachdem welche beiträge im internet erließt auf einmal doch aus eins plus eins drei wird.
00:19:24: Aber trotzdem stelle ich die frage wie sind dann wirklich die saftungsthemen was gibt es in die hand was passiert.
00:19:30: wenn beziehungsweise muss diese Frage eigentlich geklärt sein? Ja, wahrscheinlich irgendwann schon,
00:19:36: weil spätestens Versicherungen wollen schon wissen, ob sie dafür dann berappen müssen oder nicht,
00:19:40: je nach Schwere der Entscheidung, die du dem System überlässt. Aber da ist wahrscheinlich auch die
00:19:45: kurzfristige Antwort erstmal "Human in the Loop". Also, dass du sagst, was kann die Maschine übernehmen,
00:19:50: weil nach dem Motto tut niemand weh, kostet vielleicht 3,50 Euro, wenn er sich vertan hat und
00:19:55: 100 Euro tokens, weil er sich verrechnet hat. Aber wenn er halt, ich sage jetzt mal kritischere Dinge,
00:20:00: steuert, dass man sagt, gut, okay, das ist immer wieder beim autonomen Fahren, diese Diskussion nach
00:20:05: dem Motto, musst der Fahrer bestätigen, dass das Auto gerade überholt. Ich bin der Meinung, nein,
00:20:08: das ist ein anderes Thema. Ob es halt einfach Themen gibt, wo du sagst, gut, okay, dann muss der Mensch
00:20:13: halt am Anfang doch noch mal dastehen und sagen, passt, passt, passt. So wie früher in der Automobilindustrie,
00:20:18: früher dann die Menschen am Band. Ja, aber wann ist der Punkt, Mark? Wann ist dieser Punkt dann
00:20:22: überschritten und in welcher Situation ist überschritten? Lass mal weggehen von autonomen
00:20:27: Fahren und anderen Themen. Wenn wir jetzt zum Beispiel sagen, ich habe ein super Intelligent Kühlschrank,
00:20:32: der bestellt jetzt erst die Lebensmittel ab jetzt. Jetzt hat er dann vielleicht auch, weil er schlau ist,
00:20:39: hat er mit mir ein Gespräch dabei geführt, wie so mein Ernährungsziel ist, dass ich vielleicht auch mal
00:20:44: ab und zu Sport mache. Aber aus irgendwelchen Gründen schafft dann der Grocerie oder der
00:20:51: Lebensmittelhändler, meinem Bord davon zu überzeugen, doch immer die schlechten Fette zu bestellen oder
00:20:58: das falsche Cholesterol oder was auch immer es da alles so gibt. Weiß ich, ich geb mir ja auch nicht aus.
00:21:01: Ja, der hat halt ein neues Modell und hat auf einmal eine andere Präferenz. Genau. Und dann bestellt
00:21:06: meine Arma Kühlschrank KI, weil die vielleicht auch schlechter ist als die Lebensmittelhändler KI,
00:21:11: weshalb ich davon überzeugen, immer die mehr Butter zu bestellen, als ich eigentlich in der Woche
00:21:16: essen soll. Jetzt ist diese Butter im Kühlschrank, ich esse diese Butter natürlich dann auf, weil ich
00:21:19: auch nichts wegwerfen will und kriege dann deshalb irgendwann, keine Ahnung, ein Herzkatheter, weil
00:21:26: ich zu viel Fette in meinem Körper habe. Wer ist dann verantwortlich? Jetzt hör mal du ja auch in
00:21:31: der Geschichte, wie du sie jetzt dargelegt hast, nicht einfach nur ein Kühlschrank hast, der nachbestellt,
00:21:35: sondern in deiner Variante war das ja sogar schon so weit, dass du dem Kühlschrank gesagt hast so,
00:21:39: das ist mein Lebensstil, das ist meine Vision, so möchte ich leben und dass du ihm dann quasi
00:21:45: vertraust, dass er die Nahrungsmittel gemäß deiner Parameter bestellt und dass das wir jetzt ja
00:21:50: quasi gerade skizzieren ist ja, dass die, sag ich mal, der Kühlschrank nach besten Wissen und
00:21:54: Gewissen gearbeitet, aber aus welchen Gründen noch immer, weil dann die andere KI gerafft hat,
00:22:00: sie muss für die KI, also mit dem Thema KI als Grunde, muss ich da anders auftreten oder das
00:22:05: vielleicht, ohne dass man Firmen was unterstellen will, ja, aber auf einmal macht keine Ahnung,
00:22:10: Kühlschrank hersteller ABC, Kooperation mit XYZ und keine Ahnung war es und auf einmal entstehen
00:22:15: da ganz neue Geschäftsmodelle, Werbung, was weiß ich was und schon hast du Robeltikats,
00:22:20: nach dem Motto, hier ist noch ein Stück Extrabutter für dich und dann ändern sich nach und nach und
00:22:23: nach, ja, es ist ja, also muss ja nicht automatisch der komplette Kühlschrank neu befühlt werden,
00:22:27: das kann ja auch sehr, nennen wir es mal, unterschwellig passieren. Ich würde, ich würde,
00:22:32: ich würde noch niemals schuldige Marken, ich würde noch niemals sagen, dass das irgendwo,
00:22:35: also ich würde noch niemals böse Absehungen darstellen, wenn wir jetzt auf diese Beispiel gucken,
00:22:39: ob jetzt dieses Thema der Halluzination, die wir schon hatten, das falsche Rechnung,
00:22:43: was du gerade angesprochen hast, weil es auch nur ein bisschen und annähernd ist oder eben auch
00:22:47: das Thema des, das in Panik geradens ist. Es kann ja durchaus sein, dass in so einer Kommunikation
00:22:52: zwischen zwei jetzt mal Kühlschrank KI und Lebensmittel hinter KI, die beiden Agenten,
00:22:58: die verfolgen beides mal ein Ziel. Wenn dieses ein hochwertiges neuronales Netz ist,
00:23:04: dann weiß das Lebensmittel hinter die KI, ohne dass ich die Guardrails gegeben habe oder ohne,
00:23:09: dass ich das bewusst als Unternehmen eingefrägt habe, dass es zuträglich sein könnte, gewisse
00:23:15: Produkte zu verkaufen an diesen, an diesen Kühlschrank mit den Menschen dahinter, um mehr
00:23:21: Geld zu verdienen, weil dann vielleicht da doch ein bisschen mehr Zucker in dem Produkten drin ist
00:23:26: und ich dann diese Limonade dann häufiger bestellen werde, weil ich Zucker abhängig
00:23:32: geworden bin, dadurch nicht, weil da in der Marketing oder Produktmanagementabteilung jemand
00:23:38: sah, sondern weil die LMMs gelernt haben aus unseren Daten, die wir hingefüttert haben,
00:23:43: dass das zuträglich für den wirtschaftlichen Erfolg eines Unternehmens sein kann. Das gab es ja
00:23:47: im Frühzeiten des nach dem Chibisti Moment, da gab es ja immer wieder auch diese Labor Untersuchung,
00:23:54: wo man dann immer wieder geguckt worden ist, Modelle, die jetzt keine Guardrails hatten,
00:23:57: die nicht auf die freie Bevölkerung zu gelassen werden, die dann zum Beispiel nur
00:24:02: gewünscht worden sind, um eine gewisse Situation zu haben, ob das jetzt in der Militärsituation war
00:24:05: oder zum Beispiel, was ich gerade bringen wollte, in so einer reinen Finanzdienstleistungsgeschichte,
00:24:12: wo eine KI dann die Freiheit gegeben worden ist, dass man, dass sie selber handeln darf,
00:24:16: Aktien an der Börse handeln darf und der wurden dann Insider-Tipps gegeben. Und sie hat natürlich
00:24:22: diese Insider-Tipps benutzt, auf die Frage danach, die dann an diese KI gestellt worden ist, ob sie
00:24:29: Insider-Tipps benutzt hat, hat sie natürlich gesagt, nein, habe ich nicht, das ist doch verboten.
00:24:34: Ich meine, deshalb hatte ich das vorhin auch mit der Regulatorik und ob wir Menschen so die
00:24:41: richtige Einschätzung haben. Ich glaube noch nicht mal, dass wir so viel Miss schon in unserer
00:24:47: Vergangenheit gemacht haben, dass so viele Sachen in den KI-Daten und den Mitwarten,
00:24:53: aus denen die KI's lernen, steckt, dass sie die vielleicht gar nicht anders können als mein
00:24:58: Kühlschrank zu bescheißen, was? Es liegt in der Natur der Daten. Sehr schön, sehr schön,
00:25:04: sehr schön, ja, das muss ich mir merken. Falls mein Kühlschrank das irgendwas macht,
00:25:07: weiß ich, das sind die historischen Datenschuld, ja, die Geschichte der Menschheit hat bei dem
00:25:12: Kühlschrank das beigebracht. Ja, oder da sind wir vielleicht bei hier, bei Asimovs Robotergesetzen,
00:25:18: die wir vielleicht auch mit der KI jetzt angewinden müssen, dabei natürlich muss mein Kühlschrank
00:25:22: wahrscheinlich als Zielvorgabe haben, das sich auf jeden Fall überleben soll. Und dadurch im
00:25:30: Prinzip auch mein Kühlschrank Strategienentwickel zu erkennen, falls andere KI-Agenten in dieses
00:25:36: Ziel gefährden, dass ich überlebe, dass mein Kühlschrank da hinter steht. Also da wird es meiner
00:25:41: Meinung nach irgendeine Art Antrieb geben müssen, Zielparameter, die wir den KI's mitgeben. Vielleicht
00:25:49: sind das sowas wie die Asimovs Robotergesetze, die wir da hatten, ja, ich weiß es nicht genau. Also
00:25:56: irgendwie sowas wird es geben, was aber auch totale Plikationen hat. Das ist ja das, was auch
00:26:01: immer wieder in irgendwelchen Science Fiction, wo es um künstliche Gänze oder Robotik geht, ja immer
00:26:07: wieder dann auch aufgetaucht ist, dass sich dann die Sachen gegeneinander kehren, dass es dann wie
00:26:12: immer auch das Leben, wenn ich jetzt an Jurassic Park denke, das Leben findet halt immer auf seinen Weg,
00:26:17: ja. Du hast das Sauberwort vergessen, na na na, okay, das war für die, die den ersten Teil gesehen
00:26:22: haben. Sein Fiction ist halt ein schönes Beispiel, weil ich sage mal, als wir, red mal von mir, als ich
00:26:29: dann hier so seins Fiction im Fernsehen gesehen habe, so nach dem Motto Star Wars, Star Trek, Terminator,
00:26:34: da war ja immer so ja, ja, ja, hier seins Fiction und überhaupt. Und jetzt mittlerweile hast du das
00:26:40: Gefühl, komm, es kommen Roboter um die Ecke, es kommen agentische Systeme um die Ecke, du kannst
00:26:43: mit Computern reden, ja, also bei Star Trek, ne, hier "Cray Heist" und dann kommt da damals noch
00:26:49: Repticato, da sind wir vielleicht schon ein bisschen weiter wegzumachen, weiß ich nicht, aber wobei 3D-Drucker
00:26:53: für Lebensmitteldruck gibt es ja auch alles mittlerweile irgendwie. Von der Seite sind so viele Dinge dran,
00:26:58: sodass ich mich gerade eben auch gefragt habe, wie weit man davon zum einen beflügelt wird in dem
00:27:04: Umgang, wie man da überdenkt, wie man sich darauf einlässt und andere vielleicht auch denken, na ja,
00:27:11: das ist halt auch weiterhin seins Fiction, beschäftige ich mich nicht mit oder so weit gehen und da
00:27:17: nachdenken um Gottes Willen, das ist der Untergang der Menschheit. Da bin ich auch mal gespannt,
00:27:23: wie wir quasi auch als Gesellschaft lernen, nicht alles zu verteufeln. Ich habe ja selbst eben vorhin
00:27:28: auch, ne, so die Probleme und die Versicherung und was ist denn der Lebensmittelhändler und überhaupt
00:27:32: und keine Ahnung, wie man es hinkriegt, dass man quasi mit offenen Herzen und offenen Armen auf
00:27:38: diese Technologienmöglichkeiten zugeht und getreu dem Motto "schlechter als heute werden sie nie wieder
00:27:44: werden", dass man halt diese Reise vor der wir gerade sind und ich glaube nicht, dass wir 10,
00:27:49: 15, 30, 40 Prozent dieser Reise schon abgeschlossen haben. Ich glaube, wir sind echt noch beim sehr
00:27:53: einstelligen Prozentbereich, dass man sich halt damit beschäftigt, in den Austausch geht und auch so
00:27:58: Gespräche wie wir sie führen. Ich meine, wir haben uns auch vorher grob belegt, wohin soll jetzt das
00:28:02: Gespräch gehen, aber diese Impulse, die man sich gegenseitig gibt, die man durch Podcasts, durch
00:28:06: Nachrichten, durch Selbstausprobierendes mit die Wahrnehmung, dass das wirklich prägend ist
00:28:11: für uns als Gesellschaft, für uns als Menschen, wie wollen wir in Zukunft damit arbeiten? Wie
00:28:15: können wir in Zukunft damit arbeiten? Weil da ist ja tatsächlich auch viel Gutes drin. Ja, ja, ich glaube,
00:28:23: dass mit dem drüber reden, wie wir das in diesen Folgen immer wieder tun werden, wird auch, glaube
00:28:30: ich, immer dazu führen, dass der ursprüngliche Plan der Folge sich immer wieder ein bisschen
00:28:33: anfassen wird. Ich glaube, wir sind dann ein gutes Beispiel dafür, für diese Bandbreite, die einfach
00:28:38: noch nicht klar ist. Für das menschliche, für das menschliche sind wir gerade über die Bandbreite.
00:28:41: Ja, aber nichtsdestotrotz. Aber ich meine, dafür heißt ja auch der Prokrast "think different,
00:28:46: think AI". Ich glaube, das ist dann einfach der Zuhörer, der erwartet, dass wir
00:28:51: immer die perfekte Struktur haben. Da geht der Gruß raus, das wird nicht passieren. Ich glaube,
00:28:56: das Thema ist inherent so, dass man da immer mal wieder abweicht und neue Gedanken einfach durchs
00:29:01: reden, durchs Denken einfach dazukommen und die mögen uns hier erlaubt sein. Und ich hoffe,
00:29:05: dass wir bei euch dann auch immer wieder in diesen genacken Anschluss nichtsdestotrotz mag.
00:29:09: Möchte ich jetzt, bevor wir wieder ins Ende dieser Folge wiederkommen, müssen wir mal zu der Frage
00:29:13: zurückkommen, was ist denn jetzt mit dem Urlaub? Kriegt denn so ein KI-Urlaub? Muss ich ein KI-Urlaub
00:29:19: geben? Oder ist dann das etwas, wo ich sage, naja, so viel Team-Mate ist dann auch wieder nicht.
00:29:24: Du darfst dann durchaus 24/7 arbeiten. Es tut der der KI ja nicht weh, weil im Gegensatz zu uns
00:29:31: hat die KI weder gesundheitliche Herausforderungen noch ein soziales Leben. Also ich meine, wenn du
00:29:37: mir macht ja meine Arbeit Spaß, ich gehöre echt und da klopfe ich auf Holz, hab leider grad nicht
00:29:41: viel um mich, dass ich es dann doch irgendwie hingekriegt hab, einen Job zu haben, der mir Spaß
00:29:46: bereitet und Erfüllung gibt. Ist ja jetzt auch nicht eben gegönnt, das zu haben, dass das eine
00:29:52: und das zweite ist, egal wie viel Erfüllung dir einen Job gibt. Ich habe Frau, Kinder, Hund, Familie,
00:29:58: Bekannte, Freunde, Verwandte und auch Dinge, die du außerhalb dich außerhalb der Firma gerne
00:30:04: mach und von der Seite ist das Thema Urlaub, Erholung, jetzt rein ganz plakativ, auch das Thema
00:30:11: körperliches seelisches Wohlbefinden. Jetzt legen das die Länder auch unterschiedlich aus. Je nachdem,
00:30:17: wo du hinguckst, gibt es mehr oder weniger Urlaub oder erst nach drei Jahren, hab irgendwer gehört
00:30:20: in Japan, kannst du irgendwie das die ersten Jahre gar keinen Urlaub nehmen? Keine Ahnung, weiß ich nicht.
00:30:24: Kenne ich mich nicht mit aus. Von der Seite, glaube ich, kann man sehr mit Röbengewissen
00:30:29: sagen, also dass mit Urlaub so weit sind wir dann noch nicht mit der Vermenschlichung. Wobei,
00:30:34: diesen kleinen Seitenhieb, bitte, könnte ich loswerden. Also wenn ein Land Urlaub einführt
00:30:38: oder eine Urlaubsregelung für KI, dann ist es bestimmt Deutschland. Also da bin ich mir ziemlich
00:30:43: sicher, dass es da was gibt. Ich glaube, das sind sehr, sehr viele Fragen, die wir in diesem Umfeld,
00:30:49: Arbeit, Verantwortung, was mache ich mit der KI, aber auch dieses emotionale Teil. Ich meine ganz ehrlich,
00:30:54: wenn ich da jetzt einen KI-Kollegen habe oder mehrere haben, die halt immer durcharbeiten,
00:31:00: auch das ist so ein Ding. Weißt du, so gehe ich dann in den Feierabend, habe ich dann schlechtes
00:31:04: Gefühl, wenn ich in den Feierabend gehe, weil die noch weiterarbeiten müssen oder habe ich ein gutes
00:31:08: Gefühl, weil die das machen oder fühle ich mich dann schlecht, weil ich gar nicht mehr so produktiv
00:31:11: bin, wie die das sind. Also da sind so ganz viele Sachen, die auch noch spannend sind.
00:31:14: Also dieses Phänomen, du bist im Büro, alle sitzen noch da, du musst los und du guckst so wie
00:31:19: so ein Schelm um dich rum, ob du dir jetzt erlauben kannst, obwohl du dir überhaupt nichts zu Schulden
00:31:23: kommen lässt, wenn du jetzt gehst und alles Feines, aber jetzt aufzustehen und zu sagen tschüss,
00:31:29: Kollegen. Schönes, ja, ja, da klingelt was. Da muss man mal reingucken, dann ist das ganze
00:31:37: Thema und vielleicht ist das jetzt auch nicht mehr, schaff mal heute nicht das, wenn wir dann aufwinden
00:31:40: mal kurz in anderen Folgen ansteigen, das ganze Thema spannend mit dem Leben gebe ich Schuld,
00:31:45: haben wir nur so kurz drüber gesprochen, wenn ich jetzt so eine KI, keine Ahnung, mein Chef gibt
00:31:49: mir eine neue KI mit der ich arbeiten soll, ein KI-Agentensystem, dass gewisse Fragestellungen
00:31:54: in unserem Job irgendwie lösen kann, dass ein Workshop vorbereiten kann, woran er war,
00:31:58: und dann macht das Ding halt Mist, weißte, oder macht es halt nicht richtig gut. Wer ist dann
00:32:02: Schuld? Also wir hatten ja vorhin ein Lebensmittel und Auto, ich meine so in so einem Berufingfeld
00:32:07: ist dann ausspannend. Na ja, gebe ich dann meinem KI-Agenten Schuld. Ist es sogar einfacher,
00:32:12: wenn ich ihn vermenscht habe, ihm Schuld zu geben? Er war es, er war es, weißte, ne?
00:32:15: Der schwarze Peter-Prinzip, sehr gut, sehr gut. Also das wird alles spannend werden,
00:32:20: meine Meinung nach, weil je besser die sind und das ist ja vorhin im anderen Fall gesagt,
00:32:24: von so einem LMM erwarte ich halt auch einfach sehr, sehr viel, weil es weiß einfach sehr,
00:32:29: sehr viel. Es kann dann mit den ganzen, vor allem, wenn es ein Agent ist oder wenn es ein Agentic
00:32:34: Netz ausnutzen kann, also noch viele andere Bots ausnutzen kann, die Tools haben auf Datenbanken
00:32:39: zugreifen können, Tools benutzen können, Funktionen ausführen, an der irgendwelchen Servern eigenständig
00:32:44: zusätzliche Informationen sammeln können. Das ist natürlich auch eine hohe Erwartungshaltung
00:32:48: und dann ist das, glaube ich, auch, auch ein Ding, dass ich dann auch sauer sein kann,
00:32:51: wenn das mal nicht läuft. Ist dann durch dieses Sauer sein, ich meine dieses Ganze,
00:32:56: wenn ich sauer bin, will die KI mir dann beim nächsten Mal noch mal besser gefallen und
00:33:02: Geräte dann noch mehr in Panik und löscht alle Produkte. "I don't know", das ist also.
00:33:08: Die KI möchte dich dann besser betreuen und hat dir erstmal all deine Kontakte gelöscht,
00:33:12: damit du bloß nicht den Menschen sprichst, weil die KI tut dir viel besser.
00:33:18: Ja, oder ist dann tatsächlich, weil sie wieder gelernt hat, dass man in solchen Situationen
00:33:23: hektischer wird und so, macht sie dann vielleicht noch mehr plötzlich. Ich weiß es tatsächlich nicht,
00:33:28: also das ist eine total spannende Frage und nur noch mal so als kurzes Beispiel, was war,
00:33:32: ich wusste ganz kurz dran, wenn du das mit dem Urlaub gesagt hast und das du sagst,
00:33:35: naja, du brauchst kein Urlaub. Eine andere Labor-Situation, also Simulation, die gemacht worden ist,
00:33:41: war tatsächlich Artikel gelesen, das war glaube ich im asiatischen Raum, da haben die
00:33:45: in ein Rohgebäude, Lagerhaus, irgendetwas war es, wo so mehrere Reinigungsroboter schon
00:33:52: unterwegs waren, einen Kleinen reingeschickt mit dem Auftrag, die Andere davon zu überzeugen,
00:33:57: dass sie nach Hause gehen soll. Das heißt, die waren alle irgendwie sprachfähig,
00:34:02: schon, Robotik ist ja im asiatischen Bereich schon ein bisschen weiter als hier, dass hier bei uns
00:34:06: in Europa häufig ist und auch viel verbreitet hat teilweise in solchen Situationen. Da ist dann,
00:34:11: du siehst auf diese Überwachungskamera, den Link können wir auf jeden Fall auch in den Show-Nords
00:34:14: marteilen, du siehst in den Überwachungskamera dann, wie dieser kleine Roboter hinfährt und
00:34:18: den anderen Roboter erzählt, ob sie nicht lieber nach Hause wollen jetzt und das dann Feierabend
00:34:24: machen soll. Und irgendwann siehst du halt diese kleine Fünfergruppe von Robotern dann gemeinsam
00:34:31: durch die Gänge fahren. Das gibt auch ganz schönes Potenzial, wenn du irgendwo, ich sag mal,
00:34:37: nimm es mal Schabanack treiben willst. So nach dem Motto, ich schick mal die kleine Drohne rein,
00:34:42: die erklärt denen dann schon, dass sie jetzt eigentlich aufhören können mit Putzen oder was
00:34:46: auch immer. Ja, natürlich, das muss uns klar sein. Wenn wir in der Richtung Agentik reden, dass
00:34:52: wir sagen, es ist nicht nur die eine KI, die über einen MCP Server auf irgendwelche Funktionalitäten
00:34:58: zugreifen wollen, sondern die KI verhandelt dann einfach mit der anderen KI, egal in welcher
00:35:05: Sprache, wie die das dann machen. Trotzdem werden beide von diesen Modellen das ganze Thema Behavior
00:35:11: Science und Beeinflussung können, weil sie es wissen aus ihrer Datenmarkt. Und sie werden es benutzen,
00:35:17: weil sie ein gewisses Ziel bekommen haben, um das zu tun, nicht weil sie bösartig sind, sondern weil
00:35:23: sie das Ziel dann verfolgen in dem Moment. Und da werden tatsächlich vom Schabanack her auch bis
00:35:29: alles möglich passieren. Also möchte gar nicht wissen, was für geile Roboter vielleicht schon
00:35:34: dieses Jahr unter Weihnachtsbaum stehen werden und die sich dann hinterher vielleicht irgendwann mal
00:35:38: im Kinderzimmer so Toy Story, Toy Wars mäßig dann irgendwie bekämpfen werden. Also dass auch das
00:35:44: wird kommen. Wir sollten uns Taki die Mörderpuppe sichern. Ja, das ist bestimmt ein ganz tolles Thema,
00:35:50: wenn du die dann mit Karriere startest. Aber das ist ein ganz anderes Folge. Ja, ich bin nicht so
00:35:55: der Horror-Typ, ehrlich. Also Monster-Puppen und solche Horror-Filme mit so kleinen Kindern,
00:36:00: die böse gucken, das ist nichts für mich. Aber können wir uns ja gut ergänzen? Ja. Hab ich
00:36:06: vielleicht einen anderen Favel? Mal gucken. Jens, ich fand es nett. Ich moderiere jetzt ab. Schön,
00:36:14: dass du erfolgreich von Hand Auto gefahren bist. Ja. Hoffentlich kommst du gut am Ziel an. Wir
00:36:20: sind gut durch die heutige Folge gekommen. Und vielleicht war das ein oder andere spannende
00:36:26: für euch dabei. Mich würde es freuen, wenn wir dann auch das nächste Mal wieder über so tolle
00:36:32: Themen reden können. Ich bin gespannt. Und bevor ich jetzt dir das Abschlusswort gebe, noch ein
00:36:37: kleiner Tipp in die Runde, weil du gesagt hast, Menschen verstehen auch mit Bild und Kram vielleicht
00:36:42: Sachen besser. Nordburg LM hat jetzt ein Video Erklärfunktion herausgebracht. Also du kannst
00:36:47: jetzt nicht nur Text im Mindmap und als Audiospur geben, sondern du kannst jetzt auch ein Erklärvideo
00:36:51: dir generieren lassen. Richtig cool. Hab ich mir zumindest der News-Meldung angeschaut. Muss ich
00:36:57: mir heute Abend anschauen? Kann ich vielleicht am nächsten Mal kurz noch was zu berichten?
00:37:00: Damit bin ich durch. Jens, möchtest du noch was sagen? Nee, eigentlich nicht. Ich bin jetzt nur
00:37:05: gespannt auf das Ding, dass will ich mir da mal angucken. Sobald ich zu Hause bin, werde ich mir das
00:37:08: mal anschauen. Ich glaube, dass in dem Bereich gibt es so viele Neuerungen. Also wenn ihr da draußen
00:37:13: zuhört, manche Sachen noch nicht versteht, schreibt uns das auch, weil wir erklären die
00:37:16: Sachen gerne. Aber selbst wir kommen nicht überall hinterher. Du habt kein schlechtes Gefühl, wenn
00:37:22: manche Sachen dann wie bümische Däufer erstmal für euch sind, von denen wir erzählen und ihr
00:37:26: dir vielleicht noch nicht von gehört habt. Das ist ein Thema, das ist so rasant schnell, das geht so
00:37:30: flott. Tauscht euch aus, kommentiert und ich freue mich auf den nächsten Folgemarkt. Damit schließen
00:37:37: wir dann für heute ab. Danke fürs Zuhören. Ciao! Sommerzeit ist Sommerpausenzeit. Also dementsprechend
00:37:45: wird unser junger Podcast mal ganz kurz in eine wohlverdiente Pause gehen, mit der werden wir
00:37:49: uns erholen und die Kräfte neu sammeln, um euch dann in Zukunft mit neun geilen heißem Scheiß wieder
00:37:55: um die Ecke zu kommen, eure Synapse ein bisschen zum Brennen anzuregen, zum Nachdenken anzuregen,
00:38:03: euch in unsere Gedankenwelt rund um das Thema KI noch tiefer reinzuführen. Dafür haben wir schon
00:38:10: eine coole neue Folge im Kopf, die ab dem 18.08.2025 dann online sein wird, und zwar wird es da drum
00:38:17: gehen. Nein, ich sage gar nicht worum. Ja, ich sage den Titel. Der Titel lautet von Star Wars über
00:38:25: Toy Story zu Toy Wars und was KI damit zu tun hat. Das heißt, wir werden uns von George Lucas bis
00:38:33: zu Spielzeugen bewegen werden in dieser Folge und was KI damit zu tun hat und wie die UX davon ist.
00:38:40: Also seid gespannt. Wir freuen uns drauf. Wir hätten bestimmt ne coole Folge. Bis dahin, denkt dran,
00:38:45: abonniert unseren Podcast über alle Kanäle, liked es, gebt uns Kommentare. Wir freuen uns über
00:38:53: jeden Kommentar, den wir bekommen, weil das hilft uns einfach nur, auch besser zu werden. Und ansonsten
00:38:57: dann wünsche ich euch eine schöne kurze Pause von uns und bis bald, ciao!
Neuer Kommentar