Von Star Wars zu Toy Wars

Shownotes

In dieser Episode von „Think Different, Think AI“ tauchen wir ein in die Schnittstelle zwischen Science-Fiction und Realität. Was haben die Droiden aus Star Wars mit heutiger KI und UX-Design zu tun? Warum war R2-D2 vielleicht der bessere Assistent als jeder Sprachroboter? Wir diskutieren, wie Robotik und künstliche Intelligenz unsere Interaktion mit Technik verändern – von Navigationsgeräten, die nur piepen, bis zu Robotern, die im britischen Akzent Smalltalk führen.

Dabei werfen wir auch einen Blick auf aktuelle Entwicklungen: humanoide Roboter, smarte Lampen im Pixar-Stil und die nächste Generation von Spielzeugen wie KI-Barbies. Zwischen Begeisterung, Uncanny Valley und kritischen Fragen zu Daten, Ethik und emotionaler Bindung an Maschinen entsteht ein Bild, das gleichermaßen fasziniert wie beunruhigt.

Am Ende bleibt die Frage: Steht der nächste „Toy War“ nicht in einer fernen Galaxis, sondern direkt im Kinderzimmer?

Apple zeigt Roboter-Tischlampe im Stil der Pixar-Lampe Luxo

Transkript anzeigen

00:00:00: Da läuft es mir immer noch kalt den Rücken runter, aber es geht heute nicht nur um Star

00:00:12: Wars in unserer neuen Folge von "Tink Different, Think AI", sondern es geht unter anderem um Star

00:00:18: Wars, aber auch Toy Wars oder Toy Story, I don't know, was das alles mit KI zu tun hat. Der ältere

00:00:26: Herr, den wir gerade durch das Mikrofon so wie sein Blatt mit einem Rauschen gehört, oder Röcheln

00:00:34: gehört, der ist ja so ein ganz interessantes Ding, weil er mit seinen ganzen Modifikationen

00:00:39: schon so ein halber Mensch im Prinzip war, der gute Darth Raider. Über den reden wir aber heute

00:00:47: nicht, oder? Ich glaube über Kybernetik und Körperteile, vielleicht, mal gucken. Es geht

00:00:55: uns ja, dass wir immer gemäß unseres festen Redeskriptes Vorhabens immer daran fest orientieren,

00:01:01: mal gucken, ob das da drin steht und ob spontan eingestreut wird. Ja, wobei das nicht zu dem

00:01:07: Thema findet, wir wollten ja immer mal über dann menschliche Nervenzellen, die mittlerweile als

00:01:14: möglich zur CPUs der Zukunft gehandelt werden, wo dann neuronale Netze durch menschliche Nervenzellen

00:01:20: gebaut werden. Und ich, das habe ich jetzt vor kurzem noch gelesen, weil zu Preisen um die 30

00:01:25: bis 40.000 Euro kann man, glaube ich, da schon Rechner kaufen, die tatsächlich ein neuerer,

00:01:32: nahes Netz aus menschlichen Gehirnzellen in sich haben. Die sind dann halt leider nicht, das ist

00:01:36: so ein Rechner, der in ein paar Monaten haltbar ist, ist jetzt noch nichts für den Haus gebraucht,

00:01:39: aber das könnte ein Thema werden, aber reden wir nicht heute. Ich glaube, ist auch ein schwieriges

00:01:43: Thema am Estisch. Weißt du, kommen die Schwiegeltern zu Besuch und dann sagst du ja,

00:01:46: da hinten sind noch so ein paar menschliche Zellen, die müssen für mich noch den

00:01:50: nächsten Aufsatz überlegen, weil darauf mein lokal laufendes KI-Moder läuft. Ich glaube,

00:01:56: spätestens dann kommt man so ein bisschen in Probleme, nicht nur bei Gesprächen mit den

00:02:02: Schwiegeltern. Aber du sagst das ja, um Schwiegeltern geht es heute nicht. Und auch noch nicht um

00:02:07: menschliche Gehirnzellen, sondern um das Thema tatsächlich, was hat denn so Star Wars mit

00:02:12: KI zu tun. Und ich glaube, da ist so, da ist wirklich so ein, so ein, etwas dem George Lucas

00:02:19: damals gelungen, was man aus einer UX-Perspektive eigentlich so ein bisschen beeindruckend finden

00:02:25: muss. Weil ich weiß nicht, wenn Star Wars kennen vielleicht viele von unseren Zuhörern, da gab es

00:02:32: sehr, sehr viele Droiden, die den Menschen zur Seite gestanden haben, unterschiedliche Funktionen

00:02:37: wahrgenommen haben. Manchmal auch um uns umzubringen oder so. Die schlechteste Punkt. Wie verhört

00:02:44: Droiden? Oder dann aber gab es auch ihr welche Droiden, die als Kellner gearbeitet haben. Es gab

00:02:50: mit C3PO ein Übersetzungsdroiden. Roboter-Mensch-Kontakter. Ja. Und mit SWD2, glaube ich, den allerbeliebtesten

00:02:59: Droiden, der mit seinen Piepsgeräuschen durch die Gegend gerollt ist. Für die, den so ein bisschen,

00:03:05: der ist so ein bisschen, sagen wir mal, das Smartphone, das Smartphone der Star Wars Welt gewesen,

00:03:12: weil er konnte halt viele Sachen. Er konnte halt irgendwie auch mal so Elektroschocks verteilen,

00:03:16: aber hatte auch Navigationsthema in sich. Konnte Türen öffnen, Konnte Sachen beeinflussen.

00:03:22: Also wirklich so das Taschenmesser in Droidenform. Ist schon lustig, wenn ihr die Science-Fiction-Welt

00:03:29: von früher anschaust, wie viel davon auch Realität wurde. Ja, ich mein Star Wars Star Trek, wie das

00:03:35: Ganze so heißt. Terminator kommen vielleicht auch noch drauf. Aber es ist, finde ich, auf der

00:03:39: anderen Seite auch wieder lustig, wenn du jetzt ein paar Jahre weiter bist als die Zeiten, in denen

00:03:43: diese Filme gedreht wurden. Und du schaust dir an, was die sich in einer fernden Galaxis in einer

00:03:49: ja und Zukunft und keine Ahnung war es, wobei Zukunft war es ja damals nicht im Vorspann, ne,

00:03:54: vor langer Zeit in der Navig-Fahrt der Fernden Galaxis. Aber was man da so als modern titulierte,

00:03:59: weil dann auf einmal sagt der Androiden, Roboter da irgendwie rumlaufen, irgendwas machen,

00:04:03: irgendwas tun. Ich glaube, heute würdest du für so ein R2D2 oder ein C3PO sicherlich in der

00:04:10: Interaktion und der Befähigung, die sie haben, in den Fähigkeiten, in den Kapabilitäten, die sie

00:04:14: bieten, sicherlich gerne was investieren, aber nicht in der Art, wie sie da stehen, außer vielleicht

00:04:18: jetzt, okay, der Goldene, der dann da jetzt auf zwei Beinen, das würde ich glaube ich schon nehmen,

00:04:23: ja. Aber so ein C3PO zu Hause rumfahren lassen, glaube ich, spätestens bei der ersten Treppe

00:04:27: wäschlos. Also R2D2, man so, ne, ja, unser Goldene, das kann ja mal passieren, ne, ich korrigiere.

00:04:33: Halt der Mann halt, ne, so lange ich meine Familie nicht verwechselt, geht's ja noch.

00:04:37: Aber da würde ich widersprechen. Also ich glaube, es gibt eben meiner Welt, glaube ich,

00:04:43: würde es nichts Besseres und Schöneres geben, einen hochintellektuellen oder intelligenten

00:04:48: R2D2 hier durch die Gegend fahren zu haben. Der konnte ja auch, er hatte ja auch seine Düsen gehabt,

00:04:53: wo er irgendwie rumfliegen konnte und so, der wird das mit den Treppern schon späten.

00:04:56: Genau. Aber trotzdem ist es ja spannende, also diese, diese Designentscheidung, die George

00:05:01: Lukas damals gefällt hat, ja, zu sagen, ich habe unterschiedlich gebaute Arten von Roboter in

00:05:06: diese Filmen, die eine klar zu erkennende Aufgabe auch durch ihre, durch ihre äußere Gestaltung haben,

00:05:14: weil es gibt ja dann diese, diese Müllroboter, die da rumfahren, irgendwas anderes, na das ist ja,

00:05:17: sagen wir mal so, wenn man die heutige Roboter sieht, die eher so auf das ganze Thema,

00:05:21: alles muss so humaniuit aussehen, dann ist es die beste Form, natürlich ist das auf die beste Form,

00:05:25: deshalb sind wir Menschen auch so, dass wir sehr anpassungsfähig sind, weil viele Sachen nach

00:05:29: die Invulsion dann wohl absichtlich so gemacht, dass man mit zwei Beinen und zwei Armen rumraufen

00:05:33: kann und dann gut agieren kann mit der Welt um einen herum, deshalb ist das keine schlechte Idee.

00:05:38: Trotz alledem aus so einer, wie reagieren wir auf diese Roboter und wie interagieren wir mit dem,

00:05:46: ist natürlich dieses Gestalten in Spezial-Aussehen plus sogar in Spezial-Kommunikationsfähigkeit

00:05:54: ein ganz spezieller Aspekt, weil ehrlich, also wenn wir heute schon mit KI quasi plappern können,

00:06:00: warum sollte da nicht jeder Roboter in fünf bis zehn tausend Jahren nicht auch immer die

00:06:06: Fähigkeit haben, mit uns in natürlicher Sprache zu reden, warum braucht es ein Übersetzungsroboter,

00:06:11: na und dieser Punkt, na da arbeite ich nochmal ruhig aus, der ist total spannend, weil ich glaube,

00:06:16: was die, was der George Lucas da so an UX-Prinzipien vorweggenommen hat, ist glaube ich das Ding,

00:06:21: dass man sagen könnte, in so einer Welt, in der immer mehr Gerätschaften mit uns kommunizieren

00:06:28: werden, ist es für... Versteigt Teil auch das Leben sind, oder? Versteigt Teil des Lebens sind,

00:06:33: ist es vielleicht nicht die schlauste Idee, dass alle wie wild auf uns zu plappern und reden,

00:06:39: weißt du, dass also dieser neue Anquatschereien noch viel größer wird, stell dir vor, du bist in

00:06:42: der Bahn und irgendwie alle Leute mit den Drohinen sitzen und nicht herum, alle sind am Proper mit

00:06:47: ein, ich meine, wir sehen das ja manchmal schon bei dem einen oder an den Jugendlichen der Sprachnachten

00:06:52: in seinen Handy reinkredet, in den Akumenschnalten, die ich noch nie so verstanden habe, warum man das

00:06:57: eigentlich so macht, aber dafür bin ich tatsächlich nicht zu alt. Aber ich... Oder wenn du einen falschen

00:07:02: Knopf drückst und dann das der Sprachassistent des Handys, ich habe mich leider nicht verstanden,

00:07:06: sei es in der Straßenbahn oder in einem Meeting deiner Wahl, stellst dir vor, ja, und überall

00:07:11: fängt es an zu reden, da gebe ich dir recht, das ist natürlich, das wäre ja der klanke Horror,

00:07:16: stellst dir immer vor, wenn alle Geräte mit dir ständig oder wenn alle darauf reagieren würden,

00:07:20: nach dem Motto, hast du mich gemeint, hast du mich gemeint, hast du mich gemeint, ja, und die dann

00:07:25: auch noch anfangen untereinander, sich gegenseitig quasi, ich wollte schon sagen wie safe first,

00:07:29: also eigentlich mache ich ja die rake words zu sagen, damit wir darauf reagieren, Horror.

00:07:33: Ja, und da ist zum Beispiel, da ist zum Beispiel bei R2D2 das Thema mit seinen Peepsgeräuschen und

00:07:39: es ist ja ungelogen der Sympathischte, aus meiner Perspektive der Sympathischte Roboter, der bei

00:07:44: Näsum und diese Sachen so haben, einfach hervorstechen, weil er ist eigentlich der einer der

00:07:50: zentralen Achteure, der aber nur rum piepsen kann, ehrlicherweise. Und ich blende das nochmal

00:07:55: kurz ein, weil ich da als der eine oder andere Hörer, ich setze ein kurzer Szene aus, aus Star Wars,

00:08:01: Star Wars, im Prinzip Luke Skywalker flieht von dem Eisverleten und der Eisverleten

00:08:06: jetzt zurücklassen wird, weil er von dem Imperium überrannt wird, aber Luke Skywalker mit seinem

00:08:10: X-Wing dann wegfliegt. Ich blende das nochmal kurz ein, ich hoffe, das kann man ganz betören.

00:08:36: So, reicht schon. Also ihr merkt so ein bisschen, wenn man das zuhört, da ist diese Interaktion, die von Luke quasi mit R2 geführt wird und R2 reagiert nur mit gewissen,

00:08:51: sagen wir mal, Sounds, die dann Luke helfen zu verstehen, was R2 mal und sogar Emotionalitäten. Also ihr merkt das an den Antworten, die Luke da gibt.

00:09:00: Das ist ja eben auch, wer geht dann auf R2 ein und solche Sachen. Das heißt zwischen den beiden ist so eine Sprache entstanden, die auch jetzt andere vielleicht gar nicht so fort 100 Prozent verstehen können.

00:09:10: Wir wissen das, aber weil das so, weil das im Prinzip so ein bisschen auch wieder Menschen ähnlich ist, das ist so ähnlich.

00:09:18: Also auch der Sounddesigner, der das damals gemacht hat, hat auch seine eigene Stimme überhaubig genommen und so ein bisschen verfremdet in diese Töne rein, damit das so ein bisschen ähnlicher ist.

00:09:25: Aber wir erkennen, dass, wenn das Zustimmung ist oder wenn es auch mit einem hinterfragen auch von R2 ist, ob das eine gute Idee ist, jetzt dahin zu fliegen und auch eine Enttäuschung.

00:09:33: Vermittelt er allein durch diese Piepstöne.

00:09:35: Es gibt ja auch so Szenen, wo er so das Gefühl von Angst oder Furcht vermittelt und du kriegst es einfach nur, weil du diese Piepstöne in der Höhe, in der Frequenz, in der Geschwindigkeit, keine Ahnung, was nicht alles, nimmst du wahr.

00:09:49: Okay, er findet das gut, er findet das schlecht, er möchte das in das tun und irgendwie hast du auch das Gefühl, dass du ihn verstehst.

00:09:58: Genau, und ich finde es so jetzt mal mal auf unsere heutige Welt übertragen, wenn wir sagen, ich setze mich jetzt in so ein Navigationssystem oder ich würde zum Beispiel, keine Ahnung, ich bin mit meinem Fahrrad unterwegs und will jetzt irgendwie, sag mal, in der Serie, sag mal, in der German-IW, immer mit welchen KI-Modell ich dann auch gerade rede.

00:10:12: Ich sage so, komm, stellen wir doch jetzt irgendwie die Navigation oder plane mir einen kurzen Coffee-Stop in meiner Fahrradtour ein und wenn ich dann nur so ein bestätiges Piepsen bekommen würde, wenn es sich so cool anhört wie von R2, ehrlicherweise, finde ich das 10-mal geiler, als wenn mir das Ding irgendwie wieder vollhabert, ja, ja, lieber Jens, ich habe jetzt einen tollen Kaffee-Laden gefunden und ich stelle dir das ein, das was ich heutzutage von so einem Navigationssystem oder auch KI-System bekommen.

00:10:37: Ich glaube, manche Leute in der Pri-Prompt-Welt draußen, die dann auch durchaus mal ihren KI-S dann sagen, labern nicht so viel, sondern gibt mir mal schneller die Fakten in dem Moment, weil die KI-S tendieren ja auch zum Umlabern, weil es wieder menschlich ist und dementsprechend ist es, ich finde es ganz charmant in diesem Aspekt und ich fand es so, ich bin auf das Thema gekommen, lasst mich da kurz ausholen, Marc, ich bin auf das Thema gekommen durch einen Artikel, den ich vor einem guten Jahr oder sowas mag.

00:11:07: Da hat Boston Dynamics ihren Roboterhund Spot genommen und den kennt ihr vielleicht alle, der ist schon relativ bekannt, sehr, sehr mobil gewesen, dieser Hund ist auch so, also in Hundeform dieser Roboter, wie er träufig in allen möglichen Stellen nimmt, auch schon eingesetzt zur Objektüberwachung, er kann halt überall da hinlaufen, ist ziehtürt aus, sieht nicht unbedingt mächtig gefährlich aus, gibt auch immer irgendwelche Bilder von dem mitau und das vertracht das.

00:11:32: Genau, geht auch so Bilder mit so einer MG auf dem Rücken und sowas, dann im Internet manchmal von solchen Roboter ähnlichen Hunden, weil die Chinesen haben, das war wie ich sehr, sehr ähnlich nachgebaut, das Boston Dynamics Modell, das sieht sehr, sehr gleich aus, aber in diesem Artikel ging es eigentlich um einen Spot, der bei Boston Dynamics eingesetzt wird, als fremden Führer, Gastführer wie auch immer, also der sollte im Prinzip da in dem Bürogebäude, im Empfangsbereich eben Leute aufnehmen und durch die Gegend führen.

00:12:02: Und was sie dann gemacht haben ist, weil Chatchapiti mittlerweile da war, mal zu überlegen, kann ich den nicht auch mit Sprache und einem LMM ausstatten, dass er eben auf die Leute auch besser reagieren kann und was erzählen kann.

00:12:13: Und dann haben sie es noch so weit getrieben, dass sie gesagt haben und er spricht dann jetzt auch in so britischen Akzent, kann er eben auch sprechen.

00:12:18: So, jetzt mal ganz platt, für mich war das dann, als ich dieses Video gesehen habe, ein Störgefühl, weil ein Roboter Hund sollte nicht im britischen Akzent mit mir reden, weißt du, das ist so komisch, aber es ist so ein Uncanny Valley Thema, weißt du, das sagt so, irgendwie ist da so ein Ding, wo wir sagen, irgendwie, das passt nicht so richtig in unsere Vorstellungskraft.

00:12:44: Also ich könnte mir auch davor stellen, dass so ein bestätigendes Bell oder im Prinzip der Roboter, wenn er eine Richtung anzeigen will, dann wackelt er eher in diese Richtung.

00:12:51: Oder auch, wie er zwar das gemacht hat, er zeigt mir dann im Notfall die textlichen Informationen für irgendetwas mal per Laser an die Wand gemalt oder sowas an.

00:13:01: Aber er sollte nicht unbedingt mit mir reden, das finde ich dann irgendwie schwierig.

00:13:05: Ja, das fand ich aber, wenn du es gerade sagst, stell dir um, es wäre getreten. Ich habe vorhin auch die Namen verwechselt, erst vor dem C3PO, stell dir vor, es wäre andersrum.

00:13:15: Nur von der Stimmvergabe her, das hätte, jetzt wo du sagst, glaube ich, wäre da auch tatsächlich dieses Störgefühl, dass ein humanoidwirkendes elektrisches Wesengerät, Roboter, wie auch immer wir es nennen wollen,

00:13:29: anfängt rum zu piepen, während so eine fahrende Blechbüchse dann auf einmal anfängt und sagt, haha, das halte ich aber für eine sehr schlechte Idee.

00:13:37: Aber wenn du willst, den Kurs auf Dago Bar habe ich gesetzt.

00:13:40: Genau, und genau der Punkt, den ich meinte, mit Joshua Stuckes, das haben die geschickt gemacht.

00:13:45: Also selbst irgendwie, ich weiß nicht mehr ganz genau, dieser Media, dieser Medibot, der auch irgendwie Luke dann wieder die Hand repariert und die zusammenflickt.

00:13:52: Genau, in dem Tank sage ich mal zwischendurch, der redet jetzt in meiner Erinnerung auch, der kann dann auch was dazu sagen, weil es ja auch wertvoll ist, dass ich dann im Prinzip in der, ich glaube der Piep ist nicht herum, der redet.

00:14:02: Aber das müssen wir noch mal nachgucken.

00:14:04: Sonst haben wir was für den Fusselcheck beim nächsten?

00:14:06: Ja, mal zum Fusselcheck oder auch gerne kommentieren falls wir daneben liegen haben, aber ich meine, meine Erinnerung redet er tatsächlich mit Luke und das ist ja auch sinnvoll.

00:14:12: Also wenn ich einen Humaninodium Roboter habe, A) wenn ich jemand habe in einer medizinischen Situation, wo es wirklich auf die Präzision dann aber auch ebenfalls ankommt,

00:14:21: dann ist natürlich Sprache sinnvoll. In anderen Situationen und ich glaube das ist so ein bisschen das Thema, was wir darstellen wollten, kann man glaube ich das anders machen.

00:14:28: Side Notiz zu dem Thema des Boston Dynamics, Beispiels wieder. Auch da ist wieder was ganz aus so einer LNM, KI Perspektive, was ganz Interessantes passiert, was wieder nicht vorher ein Programmiert war.

00:14:40: Als dann der Roboterhand-Spot in diesem Fall ausgestattet mit dem LNM von Chechepiti eine Frage gar nicht beantworten konnte von einem Besucher, hat er dann gesagt, okay, dann lassen sie auch einfach zum IT Support Deck gehen.

00:14:56: Und hat das dann ein Desk gehen? Hat das dann tatsächlich gemacht? Er ist dann im Prinzip gehundes, dann hingelaufen und hat dann den Mitarbeiter am Service Desk gefragt, um eben diese Information einzubinden, auf die er nicht gekommen ist.

00:15:08: Das war nie so ein Programmiert. Aber dadurch, dass da im Prinzip dann ein Roboter auch mit so einem LNM ausgestattet wird, wieder, dass eine generelle Vorstellungskraft davon hat, wie gewisse Sachen funktionieren in unserer Welt, weil es aus den Trainingsdaten hat, kann es natürlich in so einer unvorwährenden Situation, ich habe das nicht gelernt, ich weiß das gerade nicht, aber ich weiß, dass man aber andere Leute fragen kann, wenn man das nicht weiß und dass er dann da selber hinläuft.

00:15:33: Das ist ein abgefahren cooles Verhältnis, das hat wieder gezeigt worden. Irgendwo im Datensatz, weil die ist am Straßen, wer nicht fragt bleibt dumm.

00:15:41: Vielleicht ist das das gewesen. Aber ich meine auch die Art und Weise, wie die Roboter, wie du gesagt hast, in Form, Farbe, Erscheinungsbild, so ein bisschen zu dem Paarsten, wofür sie verantwortlich sind, was ihre Aufgabe war, fällt vielmehr gerade noch was anderes ein.

00:15:58: Auch wie das Thema Film, das Thema vielleicht Science Fiction, vielleicht nicht, du kennst doch, Pixar, und Pixar hatte doch, und da hat doch beim Intro, wenn der Pixar Schrift sucht, diese kleine Lampe, die er springt und das "i" oder was es da war, zusammen kloppt und dann so ein Lichtkegel macht.

00:16:16: Und es ist noch gar nicht so lange her. Da gab es ein Bericht, ein paar Papiere und Videos von Apple, dass sie genau so eine Lampe quasi im Labor gebaut haben und gucken wollten, wie diese Lampe quasi wie so eine Robotik auf dem Tisch, nicht laufend und humanoids, sondern wirklich so ein Roboter auf dem Tisch, die helfen kann und haben dann diese Lampe sinngemäß menschliche Züge, menschliche Reaktionen beigebracht.

00:16:45: Das heißt, die Lampe hat so eine Art niedliches Aussehen gehabt, die hat dann, wenn du was trinken sollst, sie das trinken so ein bisschen zugeschoben, sie hat, wenn du auf einer Aufmerksamkeit irgendwo hin werden solltest, dahin geguckt mit ihrem Lampenschirm, sie hatte in da, wo die Glühbirne, da war wahrscheinlich keine Glühbirne, war wahrscheinlich LED, hatte sie eine Beamerprojektion drin.

00:17:04: Das heißt, sie konnte zur Wand gucken, konnte da hinprojektieren und sie konnte auch, wenn du was Feines arbeitest, immer das Licht so machen, dass du nicht geblendet wirst.

00:17:14: Und dass sie quasi dir hilft.

00:17:16: Das ist ein so, also wenn man sich das anschaut, habe ich auch gedacht, ja, shut up and take my money, das ist, das ist, das ist so ein cooles Ding.

00:17:26: Einfach nur ein Lampenschirm mit so einem Fuß sieht wirklich aus wie die Pixar Lampe und wer das noch nicht gesehen hat, ich haue die Lampe vielleicht mal in die Show-Nords, so ein Link zu dem Video, das ist echt herzerfrischend.

00:17:39: Und du hast das Gefühl, dass dieses, Sie haben in dem Video auch verglichen, wie ist das, wenn du dieselbe Funktionalität ohne menschliche, ja, ich werde jetzt mal menschliche, eine Lampe kann ja nicht menschlich sein, aber ohne diese Aktionen, die mitfühlen wirken, die Zuwendungen wirken, die unterstützen wirken, wenn du das mit ganz plumpen Bewegungen machst.

00:18:03: Und das ist so anders.

00:18:05: Du willst dieses Ding vielleicht benutzen, aber es ist einfach, ja gut, es ist halt eine Lampe, die schaut irgendwo hin.

00:18:12: Und wenn du dir das anschaust, dieses Ding, wie gesagt, wie ist dir das Trinken zuschiebt, wie ist dir dann zeigt, ich suche meinen Schlüssel und die zeigt dann auf dem Schreibtisch, wo dein Schlüssel liegt.

00:18:21: Das ist so ein Moment, wo du dir denkst, verdammter Arsch, da ist doch so viel möglich an.

00:18:26: Wie interagiere ich mit Technik, ja?

00:18:29: Ja, jetzt haben wir beide ja mit, ich sag mal, IT, das eine oder andere.

00:18:33: Gut, wir sind vielleicht mit Tastatur, Maus, keine Ahnung, war es groß geworden, haben Handys mitbekommen, haben keine Ahnung, was mitgekriegt.

00:18:41: Aber wenn ich jetzt überlege, jetzt wieder das Thema Schwiegereltern, Großeltern, man selbst wird älter oder Menschen, die vielleicht nicht so den Bezug zu Technik haben, die allein durch so etwas auch eine viel geringere Hürde kriegen,

00:18:52: weil sie etwas haben, das muss mich nicht volllabern, da sind wir wieder, ich weiß gar nicht, ob die auch ein Lautsprecher oder sonst was hat, müsste ich das Filmchen auch noch mal schauen.

00:19:00: Aber wie du mit gestikverhaltensweisen Umgangsformen, Erscheinungsbildern, mit welchen Formen arbeite ich und auch wieder der Thematik entsprechend.

00:19:13: Die hätten ja auch hingehen können, hätten sagen können, keine Ahnung.

00:19:16: Es ist ein Forschungslabor, da tut es auch irgendwie ein steifer Stock, mit irgendwas anderem drauf.

00:19:21: Aber nein, sie haben sich wirklich an dieser Lampe orientiert, weil das kennen Menschen und hast nicht gesehen.

00:19:27: Also das ist vielleicht auch noch, wenn du ganz alte Apple Werbung kennst, kennst du vielleicht noch den alten iMac, der hatte unten eine Kugel, dann dahinter ein Gewinde und da vorne ein Monitor dran.

00:19:38: Das ist ein alten Werbespot, da siehst du, wie dieser Mac hinter einer Glarscheibe steht und mit dem Menschen, der vor der Glarscheibe steht, so ein bisschen rumschickert und rumflörtet.

00:19:47: Das ist so süß und das macht so eine starke Bindung, finde ich.

00:19:52: Also wie gesagt, wenn die Lampe rauskommt, also falls bei einer Frau das hört, wäre ein schönes Weihnachtsgeschenk oder sonst was, wenn es rauskommt.

00:19:58: Ja, ich nehme sie gerne, freue mich da.

00:20:00: Und da müsste man jetzt gerade sagen, ich erinnere mich an den Apple-Spot, da könnte man wirklich auch nochmal recherchieren, ob die nicht inspiriert waren sogar von der Pixel-Lampe.

00:20:08: Ich weiß gar nicht, ob das jetzt vorher oder nachher war.

00:20:10: Man müsste ja auch nochmal gucken, weiß ich ja auch nicht mehr.

00:20:12: Ich weiß nicht, ich glaube ja, der hat dieser Monitor so ein bisschen nachgeguckt und so was.

00:20:16: Ja, genau.

00:20:17: Ja, ich erinnere mich an den.

00:20:18: Und der andere Aspekt ist natürlich tatsächlich, dass man sagt, da ist aus einer Designperspektive, also wie diese Interaktion gestaltet wird in dieser realen Welt noch so viel zu kommen.

00:20:29: Noch so viel zu tun, weil wir sind glaube ich auch so, jetzt mal so in Richtung der UX-Branche, also Menschen, die sich heutzutage um solche User-Experience, digital Experiences krimmern.

00:20:38: Da ist ein riesiges Feld, was noch dazu kommt in dieser digitalen Interaktion zwischen Mensch, Maschine, Maschine zu Maschine, die vorkommen noch unklar ist, was wir da alles ausgestalten können.

00:20:50: Und mit all den Gefahren und Risiken natürlich auch, emotionale Bindung, die sich aufbauen kann und solche Themen oder auch bewusst gesetzt werden kann.

00:20:58: Das ist ja zum Beispiel, ich habe immer schon dieses Thema, ich kann auch natürlich designen, wenn ich etwas gestaltet, kann ich natürlich auch etwas auslösen.

00:21:05: Das heißt, das, was du gerade beschreibst, ich kann so eine emotionale Bindung tatsächlich provozieren, indem ich einem Gerät traurige oder nice, guppende Augen eben vergeben.

00:21:15: Indem ich sage, stell dir den Mülleimer vor, der eben automatisch erkennt, dass im Prinzip ich jetzt den Papiermüll in den Album mein Müll geworfen habe und dann mit dem traurigen Auri reagiert.

00:21:26: Ich werde jetzt nicht unbedingt mit reden, dass ich es falsch gemacht habe.

00:21:29: Vielleicht durch so eine Gestaltung kann ich das viel schneller lernen.

00:21:32: Da gibt es ja schon sehr, sehr viele Experimente aus dem Designbereich, jetzt gar nichts mit KI und so was zu tun haben.

00:21:36: Wo dann Mülleimer zum Beispiel in einem fortfangen Phantasialand Vergnügungspark so gestaltet sind, dass es im Prinzip so große Tiere sind, die in den offenen Mund haben.

00:21:45: Wo im Kinder sehr frühzeitig dann Spaß dran haben, den Müll reinzuwerfen in diese großen Mäuler, wo man da hinten lernen kann.

00:21:51: Ich glaube, wenn wir auch in den Hinblick auf, wie sich KI-Interaktion ausgestalten wird, wie wir für Vertrauen sorgen oder im Backway erkennbar machen, dass es hier eine Gefahrensituation besteht.

00:22:02: Da ist noch so viel Design nötig, Designwissen nötig und auch überhaupt noch die Card wieder wie das auszusehen hat, dass wir total spannend werden.

00:22:12: NIO, oder wie heißt sie, N-I-O, diese Automobilis-Auto, da gibt es ja auch in der Mitte, in der Mittelkonsole auch so ein kleines Ringkreis,

00:22:21: Disney-Lave wie auch immer, aber auch so ein kleines Gesicht und dein Assistent quasi so eine gewisse Niedlichkeit bekommt und dein Co-Pilot sinngemäß ist.

00:22:30: Da machen diese Gesichter auch Sinn.

00:22:32: Zuerst, als ich das als Schluss für den Satz, das dachte ich an ein anderes Thema meiner Jugend, Tamagotschis, die haben mich auch im Pausch und intelligent angeschaut, aber außer Piepen.

00:22:41: Wir haben wieder beim Thema Piepen und sehr darauf durchgucken, wenn du vergessen hast,

00:22:46: hier zu füttern und du musst das Ries herdrücken.

00:22:48: Da war da halt wenig Sinnstiften, das per se drin.

00:22:51: Aber jetzt heute, wenn du überlegst, du kriegst, ich meine, wir sind ja gefühlt nicht so weit

00:22:57: weg davon, dass die Robotik in die Haushalte kommt.

00:23:02: Man sieht die verschiedensten, wie heißt die Firma hier, Unitri oder irgendwas, die jetzt

00:23:08: wirken, die dann anfangen jetzt auch kleine Humanoid-Roboter, dass du sie wirklich kaufen

00:23:13: kannst.

00:23:14: Tesla ist dran.

00:23:15: Irgendeine deutsche Firma ist ja auch irgendwie daran, dass sie, wenn ich das so nicht verstanden

00:23:19: habe, dieses Jahr noch was anbieten wollen, das hier dann hilft, hier Wäsche aus einer

00:23:23: Waschmaschine rauszuholen und Wäsche zusammenzulegen.

00:23:25: Da stehe ich dann da so, Alter Falter, wir werden das gar nicht mehr erleben.

00:23:30: Das ist Wahnsinn.

00:23:32: Ich freue mich auf den Moment, ich weiß noch, dass meine Mutter auch schon etwas älteres

00:23:37: kann, lieber, Entschuldigung Mutter, falls ihr zuhörst, aber sie war quasi der Hingucker

00:23:42: in ihrem Ort, als sie Apple Watch rauskamen und sie mit Apple Pay in Deutschland bezahlen

00:23:46: konnten.

00:23:47: Und sie stand an der Kasse und hat mit der Uhr bezahlt und die Kassierin so, was wollen

00:23:51: sie jetzt in der Uhr dagegen halten, es macht eine Binge und sie hat bezahlt.

00:23:54: Ich frag mich jetzt schon, schickt ihr jetzt vielleicht nächstes Jahr dann den Robbie

00:23:59: zum Einkaufen, so nach dem Motto, letztens haben sie doch komisch geguckt mit der Uhr,

00:24:04: jetzt auch schon ein paar Jahre her, jetzt habe ich hier den T-800, da gehst du mich

00:24:09: mal einkaufen.

00:24:10: Da würde ich dann auch durf'gucken, wenn ihr reinkommst, das ist dann auch mal so, welche

00:24:13: Fortschichte kennt man so, das ist auch noch mal spannend, also ich würde mich tatsächlich

00:24:16: mal sehr, also wenn so ein R2D2 irgendwann mal meinen Kaffee holt, das fände ich schon

00:24:21: ein bisschen geil.

00:24:22: Also da ist es tatsächlich, da ist es, und das ist alles nicht mehr, also wie du gerade

00:24:27: sagst, das ist keine Zukunftsmusik mehr, sondern wir werden das sehen.

00:24:30: Es bringt mich auch so ein bisschen, wo du Tamar Bocci gerade gesagt hast, auch so in den

00:24:33: zweiten Teil unserer heutigen Folge, wo wir so ein bisschen mehr von Star Wars weggehen

00:24:37: und das mal gucken, was passiert denn da im Toy Wars, also wenn ich mein R2D2 vielleicht

00:24:41: zu Hause habe, ganz aktuelle Frau auch ein paar Wochen erst, announced Mattel arbeitet

00:24:47: wohl mit Open AI zusammen und das heißt, wir werden über kurz oder lang die ersten Barbies

00:24:54: haben, die intelligenter sind als manch andere Kollegen und Leute, die ich schon mal hatte,

00:25:00: übergehoffen habe, was ein spannender Aspekt ist, was natürlich wieder total faszinierend

00:25:05: ist, weil das schlägt natürlich genau in dieses Thema, was wir jetzt gerade besprochen

00:25:08: haben, dass du sagst, Droiden sind vielleicht auch zu Hause im Haushalt, aber natürlich

00:25:12: ist es, wenn wir Roboter Barbies mit einem LMM ausstatten, das vielleicht lokal drauf

00:25:20: läuft, in der Cloud läuft, I don't know, ja, ist auch egal.

00:25:23: Also in der Barbie lokal, das möcht ihr sehen.

00:25:26: Ja, Barbie lokal.

00:25:27: Guckt ihr das Open AI, das sind ja 20 Gigabyte, ich meine die Computing Power wird nicht unbedingt

00:25:34: ausweichen, die da jetzt in so eine Barbie reinpacken kann, selbst das ist ja alles nur noch ein

00:25:38: zeitiges Thema.

00:25:39: Also Chips werden immer schneller, also das ist ja, wenn du überlegst, was in so einem

00:25:44: Handy an Technologie drin ist mittlerweile, warum sollte das nicht eben auch noch verkleinert

00:25:47: in so einer Barbie-Puppe dann jedenfalls drin sein?

00:25:50: Aber der gefährliche Aspekt ist natürlich, wenn wir da mit überrehen, die Interaktion

00:25:55: findet damit Kinder anstatt, dann ist natürlich beim Spielzeug wirklich schwierig zu beurteilen,

00:25:59: was macht das denn mit den Kindern?

00:26:01: Weil die haben natürlich nochmals mehr als wir, und das hat man in der letzten Folge

00:26:05: her, als wir über die KI als Arbeitskollege und hat ja eigentlich Urlaub geredet haben,

00:26:10: wir tendieren ja schon dazu einen simplen Chat-Fenster, seit Elisa damals, also ein simpeliges Chat-Fenster

00:26:15: quasi zu emotionalisieren und zu sagen, das ist irgendwie menschlich, was damit passiert,

00:26:20: und dem erzähle ich das dem Chat-Fenster und anderen nicht.

00:26:22: Das heißt, wenn ich jetzt meine lieb gewonnene Puppe oder den kleinen R2-D2 habe, der dann

00:26:27: wirklich dann hier durch die Gegend rollen kann, sich mit mir unterhalten kann, indem

00:26:31: ich meine engste Träumewünsche offenbarer kann, immer ein offenes Ohr, der dir immer

00:26:38: gefallen will, der dich immer bestätigt, ich mein, das ist aber eine fantastische Idee,

00:26:43: das hat ja noch keiner, also so eine geile Idee, vielleicht ein bisschen, kann man ja sein,

00:26:47: drückt dich aus wie für eine 5-Jährige und so, das ist ja prompting technisch, überhaupt

00:26:51: nicht schwer.

00:26:52: Aber ich glaube, dass das tatsächlich nicht nur Kinder betrifft, ich meine Kinder, logisch,

00:26:57: ja, also ich meine allein von der Tatsache, was haben sie von der Welt gesehen und wo

00:27:01: ahnen sie Böses oder denken weiter, es ist zum nächsten Morgen, also nix gegen Kinder,

00:27:06: aber selbst bei, aber das braucht ja auch so seine Zeit, zu verstehen.

00:27:11: Genau, also das habe ich bei dir, es kann auch ja selbst, und wenn es jetzt beim Golfer,

00:27:16: der, wie heißt der Wagen da, der Wolf Wagen, der Kenea, dieses Ding, wo die Golfschläger

00:27:21: reinkommen.

00:27:22: Alle, die Golf spielen, werden jetzt wieder schimpfen und schreien, ja, im Prinzip dann

00:27:26: für den Kenea ersetzen, der dann immer mit dir redet, oi, toller Schlag und so was, weißt

00:27:30: du so, solche Sachen auf kannst.

00:27:32: Mr. President, der beste Schlag, den ich je gesehen habe.

00:27:36: Spielzeuge der ja, der Greatest Schlag, aber natürlich, also Spielzeuge für Alte auch,

00:27:40: für Erwachsen auch, ich glaube aber da ist so, da habe ich jetzt nicht so das Ding, da

00:27:44: ist dann glaube ich eher das Kinderzimmer, das wird so oder so kommen, aber das Kinderzimmer

00:27:48: als Battlefield der Zukunft, natürlich, wo ich sage, wenn da so eine KI drin ist, das

00:27:53: wird ein spannendes Ding sein, das kann positiv sein, als Lern-Tutor, als Lernassistent in

00:27:58: manchens Situationen, kann aber eben auch die ganzen Negativespekte haben, weil natürlich,

00:28:03: es wird kommen, weil natürlich ist das geil, stell dir vor, du könntest mit deinen Spielzeugen,

00:28:09: die wir früher hatten, reden, die können die Geräusche nachmachen, ja, um was anderes,

00:28:13: ja, ich habe eine schöne, ich muss da unbedingt mal den Link wieder ausgesucht, eine schöne

00:28:18: Arbeit gesehen, wo es darum ging, das war so ein Holzschnittding mit so Figürchen, die

00:28:22: dann aber mit RWD ausgestattet sind, Piraten, Schiff und Drache oder sowas, du kannst es

00:28:27: dann, je nachdem wann du die Figuren auf dieses Brett stellst, fängt dann die Maschine im

00:28:32: Hintergrund über den Lautsprecher an, eine Geschichte zu erzählen, nimmst den Piraten

00:28:37: weg, dann ist er halt noch nicht da, oder geht wieder raus, die KI erkennt aufgrund, wie

00:28:41: du dann das Spielfeld da aufbaust, wie dieses kleine Setting, dieses Diorama aufbaust, er

00:28:45: kennt, wie sie dann die gute Nachtgeschichte erzählen sollen, da sind da die tolle Sachen

00:28:50: drin, die geil sind, die ich selbst als Kind geniebt hätte, wenn das so wäre, wenn das

00:28:53: Tamagotchi, was du gerade beschreibst, imt vielleicht, das coole R2-D-Zero, und Tamagotchi ist es nur

00:28:58: Pieps und das viel besser, diese Piepsgeräusche aber auch so machen kann, weil sie intelligent

00:29:01: macht und nicht nur die 20 Töne, die eingespeichert sind, sondern sie wirklich dann in Prozikt

00:29:05: auf dich reagieren, geil, wenn der kleine, schlaue, keine Ahnung, Gehirnroboter von Captain

00:29:12: Future, der irgendwie rumfliegt mir alle möglichen mathematischen Anforderungen.

00:29:15: Seimen das Gehirn.

00:29:16: Genau, mathematischen Antworten oder so was, liefern kann, super, keine Frage, bitte das

00:29:21: kommen.

00:29:22: Aber wenn du überlegst, ja, ich meine, du hast gerade gesagt, hier Vertrag oder Verhandlung

00:29:27: oder wie auch immer mit OpenAI, die haben jetzt ja auch gerade das neue Modell, ja, TVT5

00:29:34: rausgebracht, und auf einmal gibt es Kritik von Menschen, die sagen, ihr habt mir meinen

00:29:39: Freund weggenommen, weil TVT5 anders reagiert als 4O und die Leute eh nie die Modelle umgeschaltet

00:29:46: haben und sich 4O mit allem anvertraut haben und die Antworten, die 4O gibt, nach dem Motto

00:29:51: du kannst aber toll singen, das erklärt mir manchmal das super Talent, aber auch ein

00:29:55: anderes Thema.

00:29:56: Ja, aber das ist gar kein anderes Thema, ehrlicherweise, also stell dir das jetzt nur in der Kinderzimmer-Situation

00:30:02: vor.

00:30:03: Du bist Monchi-Chi, die Mattel-Barbie-Puppe, den was, also echt kleinen Roboterhund von

00:30:07: irgendeinem, ja, und du musst dann als Elternteil gegebenenfalls abends entscheiden, dass das

00:30:13: Ding jetzt doch mal still sein soll oder raus muss, ne, damit das Kind endlich schlafen

00:30:18: geht.

00:30:19: Diese emotionale Bindung, die dann vielleicht aufgebaut ist oder auf die Gespräche, die

00:30:25: dann der Roboterhund, die Barbie dann später mit dem Kind drüber führt, dass die Eltern

00:30:30: vielleicht gut sind oder auch böse Sachen gemacht haben, dass er ja die ganze Nacht

00:30:35: in so einer schwarzen Kiste lag, ja, ich möchte gar nichts im Listen machen.

00:30:38: So wie der Roboterhund wegläuft, um die Frage zu klären, könnte die Barbie sich Gedanken

00:30:43: machen, wie sie in dieser Kiste entkommt.

00:30:45: Genau, und dann bist du dann schuld, weil so dieser Arno-Barbie eigentlich spät ist und

00:30:49: die Barbie erzählt dann, weinend, weinend deinem Kind, dass es die ganze Nacht im kalten Keller

00:30:55: in so einer Kiste liegen musste, ja, das ist ja, das sind ja Dimensionen, über die ich noch

00:30:58: gar nicht über nachgedacht habe, aber das ist da noch an emotionalen Verwerfungen auf

00:31:03: uns Familien.

00:31:04: Ja, ne?

00:31:05: Ja.

00:31:06: Einerseits wird das spannend, andererseits, wenn das dann so in drei, vier, keine Ahnung,

00:31:11: wann das kommt, ne, ja, und wie auch immer, oder wie schnell das kommt, früher, später,

00:31:14: egal.

00:31:15: Vielleicht können wir dann sagen, wir haben es in Folge vier auch gewusst.

00:31:20: Ja, ob das dann hilft, das ist die andere Frage, weil ähnereweise habe ich keine Antwort

00:31:23: darüber, ne.

00:31:24: Ich glaube, Regulatorik ist immer so ein Thema, was bei KI dann immer schnell gezogen wird,

00:31:29: weil wir dann hoffentlich durch Regulatorik viele Sachen machen zu können.

00:31:32: Aber diese Spielzeuge, woher dann, glaube ich, so heiß werden, dass man sagt, ey, ich will

00:31:37: so ein Ding haben, dass das einfach machen kann.

00:31:39: Du siehst ja immer, wie Spielzeugtrends, die immer über die Welt stracken, wo man allatend

00:31:42: Tamabotchi, allatend Gameboy, allatend jemals anderes, das werden dann auch Sachen einfach

00:31:46: schnell kommen, weil sie auch einfach cool sind.

00:31:49: Und ich glaube nicht, dass Regulatorik, also sehr schön, wenn wir dann was machen können,

00:31:51: dass man die um mich vorgaben machen kann, weil das wird eine interessante bis mittlere

00:31:56: Katastrophe werden, was dann in den Kindernzimmer abgeht, allein in dieser Beziehung zwischen

00:32:00: einem von den Geräten und uns Menschen.

00:32:03: Und vor allen Dingen, überleg mal, es ist ja nicht nur, dass das Ding mit dir spricht

00:32:08: und dir traurige Geschichten, ja.

00:32:09: Und wieder eine traurige Geschichte aus dem Keller, aus der Box, da ist ein Mikrofon drin,

00:32:16: wo findet denn die Auftragsdatenverarbeitung statt, um mal mit den ganzen schönen Begrifflichkeiten

00:32:20: zu kommen.

00:32:21: Was hat das denn?

00:32:22: Also ich weiß ja nicht, wie das bei anderen Familien so ist, aber manchmal wird es freundlich,

00:32:27: manchmal ist man vielleicht leicht angespannt in der Stimme, nehmen wir es mal so, ja.

00:32:32: Das wird ja dann genauso mitgenommen, allein wenn du überlegst, das Fernseher nach dem

00:32:36: Motto mit der Kamera gucken, wie aufmerksam guckst du Werbung, könnte man daraus ja auch,

00:32:40: oh, keine Ahnung, wir schalten Werbung, wir machen keine Ahnung, wir machen einen Profiling

00:32:44: der Familie und dann hat das Ding vielleicht nicht nur Mikro, sondern keine Ahnung, gibt

00:32:48: wir noch Styling-Tipps mit Kamera.

00:32:50: Und deshalb wird es krass.

00:32:52: Und deshalb wird es ja kommen, das ist ja das Ding, weil natürlich, wenn die Firmen Interesse

00:32:55: haben an diese Daten, das Thema der Roboterstaubsauger im Prinzip, also der Aufschrei, dass der Roboterstaubsauger

00:33:03: im Prinzip mit seinem Niederscanner die ganze Wohnung schon scannen kann und dann jedenfalls

00:33:08: mich mit gescannt hat, während ich gerade aus der Dusche rauskomme, was mir dann egal

00:33:10: wäre, aber weißt du, das sind ja so Sachen, die jetzt schon immer an der häufigen Aufschrei

00:33:16: auslösen.

00:33:17: Aber das wird natürlich passieren, weil genauso Firmen wollen auch Geld verdienen und werden

00:33:21: dann solche Sachen russiert sein und wir auf der anderen Seite werden diese Sachen cool

00:33:24: finden und damit rumspielen und das gut finden, das es so ist, weil natürlich ist es toll,

00:33:28: wenn ihr jetzt vorstellt, dann sind dann hinterher vielleicht auch in einem Spielzimmer mehrere

00:33:33: solcher Spielzeuge, die miteinander interaktieren, also das, was dabei Toy Story waren, dass

00:33:41: man da im Prinzip dann diese verschiedenen Spielzeuge über Weitening-Bassier oder wie

00:33:46: sie auch mal hießen und den Cowboy und hast nicht gesehen, dass die da miteinander spielen

00:33:50: können, Stories erzählen können, das ist natürlich auch irgendwie cool, was in dieser

00:33:52: haptischen Welt ist, endlich weg vom Computer.

00:33:55: Die Kinder sitzen nicht mehr nur noch vom Computerbildschirm, sondern sie können die

00:33:59: Welt, die sie aus dem Computerbildschirm kennen, aus den Büchern kennen natürlich dann in

00:34:03: der Zimmerverlagern, total geil.

00:34:05: Was ich mich immer nur frage, oder machen wir erstmal?

00:34:09: Ich wollte gerade denken nach dem Motto, wenn alle diese Spielzeuge alles hören, alles

00:34:13: mitkriegen, dann kommt Klingel über in der Postbote und sagt hier, gerade du fängst

00:34:17: für den Herrn Papar, viele Grüße von der Barbie.

00:34:19: Ja, das kann natürlich passieren, das ist dann spannend, da muss man immer gucken, was

00:34:25: geht dann raus, was darf dann lokal sein, vielleicht sind das die regulatorischen Sachen, die da

00:34:29: hast, dann vielleicht kommt dann auch irgendwann das Thema, dass man wirklich sagt, solche

00:34:32: Sachen dürfen keine Verbindung zu der Flaut oder dem was anderes haben, wobei auch die Eltern

00:34:37: kommen werden.

00:34:38: Ja, heutzutage ja, jeder hat dann vielleicht doch irgendwie das, den AirTag seinem Kind

00:34:44: mitgegeben in den Schulranzen, um es zu kontrollieren, das gab es zu meiner Zeit alles gar nicht,

00:34:48: oder würde dann gerne doch irgendwie, wenn die Nennie da ist, dann vielleicht den Teddy

00:34:52: Bär mal durch die Augen des Teddy Bären mal mit der Videokamera gucken, was dann da so

00:34:56: im Haushalt passiert oder sowas, also auch da werden wieder Vorteile für die Eltern sein,

00:35:01: weil ich kann der Barbie natürlich sagen, ja dann spielt ein bisschen mit dem Kind, aber

00:35:07: sorgt dann bitte auch dafür, dass das Kind am Nachmittag seine Hause gar macht.

00:35:10: Weil du gerade eben mal Kinder und Eltern noch mal so erwähnt hast, ich meine, eine Haken,

00:35:17: das merken wir in der ITEE, das war mir als Vorwurf gemeint, jeder hat einen anderen

00:35:21: Schwerpunkt.

00:35:22: Eltern haben ja nicht per se eine Ahnung von dem, was ihre Kinder mit ITEE tun und ich

00:35:30: bin vor ein paar Monaten vom Glauben abgefallen, als der Trend scheint mittlerweile wieder abzuflachen,

00:35:38: es scheinbar üblich war, zum Glück, ich kann mit einer 99%igen Gewissheit sagen, dass

00:35:45: meine Kinder da mir nicht mitgemacht haben, 1% Restrisiko hast du immer, aber ich glaube

00:35:51: es nicht.

00:35:52: Es gibt eine App im Store, die sieht total unscheinbar aus, da stellen sich die Kids hin

00:35:56: in ihr Kinderzimmer und streamen, 7x24, also immer wenn sie nicht in der Schule sind, streamen

00:36:03: die, ihr Gegenüber ist immer nur Chat, sie streamen und machen alles für Herzchen und

00:36:10: keine Ahnung was und haben schon vorgeschriebene Zettel, wo sie wohnen, Kontaktdaten und dann

00:36:21: das geht total durch die Schule wie so ein Laubfeuer, als es dann hieß, nach dem Motto

00:36:25: ihr gucken sie bitte alle bei ihren Kindern nach, das ist gemeingefertig, es gibt dann

00:36:29: halt auch so, ich meine nicht jeder ist nett, der fragt wo wohnst du denn und so, wo dann

00:36:34: Kinder mit so einer Blauäugigkeit, Jugendlichen Blauäugigkeit, ich meine sie auch erwachsen

00:36:38: haben Blauäugigkeit, so ist es nicht, aber dann noch empfänglicher für so was sind,

00:36:42: alles tun für Herzchen und Likes und wir sind auch so cool und auch wir streamen, aber 7x24

00:36:49: aus dem Kinderzimmer, ich bin mir jetzt sehr unsicher, ob das eine gewünschte Verhaltensweise

00:36:53: ist und ob da die Eltern auch noch ansatzweise wissen, was da etwas der Phase ist und das

00:36:59: ist halt nur das Handy, das Handy kannst du dann zu Not sagen, kommt, da lässt das Zimmer,

00:37:02: kommt in die Box, so Barbie und in Zukunft hast du halt vielleicht das ganze Spielzeug,

00:37:09: dass du irgendwie mit zusammen damit mach, aber auf der anderen Seite natürlich auch

00:37:13: gute Sachen, das ist ja nicht alles nur zum Verteufeln, also komm weg vom Computer, kannst

00:37:18: das vielleicht mit Lernen in Verbindung bringen, musst nur mal daran denken, der neue Modus

00:37:23: von Open AI, wo du hier studieren und Lernen machen kannst, wo du ein Thema gibst und

00:37:28: er mit Fragen versucht rauszukriegen, wie Sattelfest bist du im Thema und geht es in

00:37:32: dem System.

00:37:33: Und wenn das eine süße Prof. Quax oder so was ist, der dann im Spielzimmer sitzt und

00:37:39: das im Frühteil ja schon machen kann, ohne dass ich einfach nur mit dem Display interlieren

00:37:42: muss, ist das ja auch cool, da gibt es cool Aspekte, ich hoffe mir, dass wir das sehen

00:37:47: werden, aber es ist nur, und deshalb das ist ja auch immer Teil und Teil unseres Podcastes,

00:37:51: wir wollen ja zum Denken am Reden, ich glaube, das sind viele Fragestellungen, ähnlich wie

00:37:54: die Designfravistellungen, die wir vorhin bei Star Wars hatten, sind auch da zu klären,

00:37:58: wie ist das denn eigentlich in dem Moment und wir kommen auch heute, glaube ich, gar nicht

00:38:02: mehr zu dem Aspekt, das müssen wir, glaube ich, in der späteren Folge nochmal nachholen,

00:38:05: was passiert denn eigentlich dann auch, wenn diese Spielzeuge damit interagieren, weil

00:38:10: wir haben das teilweise schon gesehen, es gibt im Prinzip Anwendungen in Richtung, was passiert

00:38:15: denn eigentlich, wenn ich in einer Minecraft-Welt mit LMMs arrigiere, das kann man mittlerweile

00:38:20: schon machen, da kann man sich KI-Bots, KI-Freunde zuholen und da gab es auch schon Experimente,

00:38:24: wo die auch dann angefangen haben, weißte soziales Verhalten zu zeigen, also wirklich

00:38:29: so emergentes Verhalten, das vorher nicht eingeplant war, wird dann gezeigt von denen,

00:38:32: denn bauen die eine eigene Währung auf, suchen ihren Vermissten, treiben Handel und solche

00:38:39: Sachen, also wir sehen quasi in solchen Multi-Agence, also sehr agente Netzwerken, dass da haltensweise

00:38:45: nicht ausbrechen, gewisse KI's übernehmen, dann obwohl das nicht geprompt ist, rollen

00:38:50: da drin und ich glaube, das ist ein Thema, da müssen wir noch mal tiefer in einer anderen

00:38:54: Folge legen, weil das wird spannend werden. Stell dir die Nummer vor und dann können wir

00:38:57: erstmal diese Toy Story, Toy-Bots vielleicht dann abrunden dieser Folge, dass wir sagen,

00:39:02: was passiert denn dann eigentlich, wenn ich jetzt Firma A bin und natürlich möchte,

00:39:08: dass das Spielzeug, das ich verkaufe, am beliebtesten ist und dann einfach auch mal meiner KI mit

00:39:15: meinem Spielzeug KI mitgebe, dass er natürlich schon dafür sorgen soll, die muss ja auch nicht

00:39:19: unbedingt nur das Kind davon überzeugen, das können die anderen ja auch, die anderen werden

00:39:22: auch versuchen, besonders Toy Story zu erzählen, besonders nett zu dem Kind zu sein. Meine KI

00:39:27: kann vielleicht einfach wusst oder unbewusst vielleicht dem anderen kleinen Roboterhunde

00:39:33: erzählen, dass der natürlich fliegen kann, wenn er aus dem Pänzer jetzt hüpfen würde, oder dass

00:39:39: unten in der Kellertreppe noch irgendwas unten schlummert, was er unbedingt dem Kind hochholen

00:39:44: soll. Das heißt, dann ist das Spielzeug einfach weg oder halt kaputt und dann bin ich das ein,

00:39:49: das Spielzeug, das heißt also, auf diese Art und Weise, auch das werden wir sehen. Wenn das Thema

00:39:55: kommt, werden wir solche Sachen sehen, ohne dass einer dran gedacht hat, dass das passiert und ohne,

00:40:00: dass irgendwelche Guardrails dafür schon im Play sind, die das verhindern würden. Das ist ein bisschen bei dem,

00:40:05: das funktioniert das, ne? Weil es hat einfach passiert. Natürlich, es passiert einfach und da

00:40:10: bin ich so ein bisschen und das sollten wir dann vielleicht auch tatsächlich nicht mal in so einer

00:40:13: Folge bewerten und auch noch mal tiefer gehen und vielleicht auch mehrere Folgen, da bin ich wieder

00:40:17: bei dem asymoffen Robotergesetzen, die auch damals da waren, die auch nie so in ihrer Einfacht

00:40:22: hätten klar halt natürlich da sind. Das kann ich, die noch alle auswendig. Das war ja diese drei

00:40:28: Gesetze, die es haben gehabt, der einen Roboter darf keine Menschen verletzen, die ist natürlich jetzt

00:40:32: ab und durch Unfältigkeit zu Schaden kommen lassen. Zweitens, er muss den Befehlen des Menschen

00:40:38: geräuchten, solange sie nicht mit Gesetz eins kollidieren. Und drittens, aber er muss

00:40:42: eine Existenz schützen, solange das nicht mit eins oder zwei kollidiert. So, das ist jetzt schon

00:40:46: wieder spannend, wenn dann zwei Roboter miteinander interagieren. Also, wenn ihr die jetzt versuchen

00:40:51: würdest, diese Gesetze auf das Beispiel, was ich gerade mal gebracht habe, anzuwenden, dann verletzt

00:40:56: eigentlich keiner von den beiden Roboter in dem Fall, diese Gesetze, weil das einfach ja nur ein

00:41:02: Roboter ist. Also mit dem Gefühl könnte man sagen, okay, ja, das letzte Gefühl, weil das Kind

00:41:06: dann in diesen einen Roboter vermissen wird oder sowas. Aber das ist ganz spannend. Also, wie kriegen

00:41:10: wir das in den Griff? Das ohne Regulatorik in dem Sinne, wir eine gewisse Ethik dann in den

00:41:18: Maschinen haben, die in den Maschinen vielleicht auch selbstständig entstehen muss in der Interaktion

00:41:23: von agentischen Netzwerken, die dann dazu führen wird, dass wir, dass sie sich halt nicht gegenseitig

00:41:28: umbringen, die Treppe unterstürzen oder behaupten, dass man natürlich mit diesen Rädern auch fliegen

00:41:33: kann, die dann vielleicht das Auto, das Auto, Roboter-Auto hat oder so. Während du gerade

00:41:39: gesprochen hast, fiel mir noch ein anderer Case ein. Typisch für unsere folgende, wir hangen

00:41:44: uns natürlich komplett am roten Faden entlang, die Situation Home Office. Ich meine, mit welchen

00:41:51: Tools kannst du arbeiten, darfst du arbeiten, sei es, weil die Firmars freigegeben hat, sei es,

00:41:55: weil es allgemein dafür gemäßdings GVU-Gro-Einsatzerlaubnisse gibt und dann spielt neben dir,

00:42:02: wer du am Notebook sitzt und mit deinen Arbeitskollegen telefonierst oder Podcasts

00:42:07: aufzeichnest, Tochter oder Sohn mit der Barbie. Und dann ist das ganze Thema, welche Daten darfst

00:42:17: du wo wie verarbeiten, wieder von einem ganz neuen Herausforderung, weil dein Notebook auf dem du die

00:42:24: Daten verarbeitest, mit den Tools, die du dafür hast, ist das eine. Aber wenn du so eine coole

00:42:29: Schreibtischlampe hast, die mitliest, was auf deinem Bildschirm ist, eine Barbie neben dransitzen

00:42:32: hast, weil sie dann dein Kind weggenommen hast, weil sie erst eine Heavy-Dare mit spielen darf,

00:42:37: hast du auf einmal auch wieder KI um dich herum, die durchaus mit den Gesprächen, die du fürst,

00:42:43: mit den Dingen, die du auf deinem Bildschirm hast, dann auch wieder rein theoretisch Dinge

00:42:47: machen kann. Und das zeigt ja, wir brauchen in irgendeiner Art und Weise Regeln, bevor es passiert,

00:42:54: weil wenn es dann erst mal da ist und in Masse skaliert, dann wird es wirig.

00:42:59: Definitiv. Du hast natürlich die Sachen alleine, wenn jetzt, gibt ja KI-Assistenten, wenn ich

00:43:04: ja sofort oder ja auch andere Sachen nehme, die einfach ja auch schon mitschneiden können,

00:43:07: die Gespräche mitschneiden können, die du irgendwo quasi als kleines Device hast.

00:43:12: Die Desktop-Software für den Mac, da kannst du sagen aufzeichnen oder zeichne System-Audio auf.

00:43:20: Das heißt, den schallst du einfach an, der macht, egal was du kratust, FaceTime-Teams, Microsoft-Zoom,

00:43:26: keine Ahnung was, nimmt der auf und du kannst danach mit den ganzen Daten chatten wie nix.

00:43:31: Und da können wir jetzt mal ganz kreativ so lesst dann über Halizination von irgendwelchen KI's draußen.

00:43:37: Wir Menschen werden auf jeden Fall viel häufiger den Fehler machen, dass wir das versehentlich anlassen.

00:43:42: Das war da reingehen und sagen auch jetzt wollte ich eigentlich nur mit meiner KI gerade mal über

00:43:47: vielleicht irgendwie, keine Ahnung, den nächsten Urlaubstrip reden und dann kommt doch irgendein Beruf hier anruf

00:43:51: oder irgendwas anderes und dann denkst du jedes Mal daran, das ausgemacht zu haben, weiß ich nicht.

00:43:56: Ich bin definitiv nicht fehlerfrei, dementsprechend muss man da wirklich auch gucken.

00:44:00: Wie kann man das dann hinterher bereinigen? Wird es überhaupt bereinigt?

00:44:03: Kann das die einzelne KI machen? Brauchen wir da andere Oversea-KI für die dann im Prinzip auffassen,

00:44:09: die Datenschutz-KI, die ständig dabei ist und dann Rumpeeps, wenn es dann soweit ist oder

00:44:14: eben dafür sorgt, dass dann in der anderen aufzeichnen und die Sachen dann halt nicht mehr auslesen.

00:44:18: Wir brauchen ein Master-Control-Programm.

00:44:23: Also Agentik wird auf jeden Fall ein Thema bleiben. Ich bin so ein bisschen,

00:44:27: guck mal auf die Uhr und versuche an unsere eigen festgelegte 40 Minuten ist eine gute Zeit

00:44:32: für so ein Podcast. Jetzt sind wir schon wieder ein bisschen drüber.

00:44:35: Hatten auch Audio-Samples.

00:44:37: Wir hatten auch Audio-Samples dabei, das erste Mal auch tatsächlich, ich hoffe, das hat das geklappt.

00:44:42: Ich glaube, wir haben wieder ein paar interessante Themen angerissen und hoffentlich wieder zum Denken angericht.

00:44:50: Wenn euch das gefällt, was ihr hier hört, dann liked us gerne, abonniert es, teilt es mit euren Freunden

00:44:56: und denkt vielleicht so ein bisschen dran. Das ist im Prinzip das nächste, was der nächste

00:45:03: Toy Wars findet vielleicht bei euch im Kinderzimmer statt und nicht in irgendeiner weit weit entfernten Galaxie.

00:45:11: Das sind schöne Schlussworte. Jens, war schön mit dir.

00:45:16: Danke, Marc.

00:45:16: Bis zum nächsten Mal.

00:45:18: Ich verabschiede mich.

00:45:20: Bis dann, ciao.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.