2025 Wrapped
Shownotes
Wir werfen gemeinsam einen kritischen Blick auf die KI-Toollandschaft 2025: Was hat sich wirklich bewährt, und wo sind wir noch weit entfernt vom großen Versprechen? In dieser Folge diskutieren wir, welche KI-Anwendungen uns begeistert, welche Trends uns überrascht und wie sich unser Workflow im Laufe des Jahres verändert hat. Wir sprechen offen über Google, OpenAI, Apple, Amazon und all die kleinen und großen Player, die den Markt aufmischen – oder eben nicht. Dabei teilen wir unsere persönlichen Erfahrungen, Aha-Momente und auch die Stolpersteine, die uns begegnet sind. Wer wissen will, wie KI im Alltag wirklich funktioniert und wohin die Reise geht, ist hier genau richtig.
Google Gemini
https://deepmind.google/technologies/gemini/
OpenAI ChatGPT
Perplexity AI
Anthropic Claude
https://www.anthropic.com/claude
Mistral AI
Google NotebookLM
Gamma App
Nanonets Banana (Nano-Banana)
Manus
n8n
Riverside.fm
Podigee
ElevenLabs
Replit
Bubble
Apple Siri
https://www.apple.com/de/siri/
Amazon Alexa
Transkript anzeigen
00:00:01: Hallo zusammen zu einer neuen, schönen Folge von uns.
00:00:05: Ich darf an meiner Seite, ich bin Jens, an meiner Seite heute wieder den Markt begrüßen.
00:00:10: Wir freuen uns, eine Art Recap mit euch heute zu machen, was alles Bildes im KI-Bereich, zwanzig, fünfundzwanzig, passiert ist.
00:00:20: Vor allem
00:00:20: aber mit einem scharfen Blick auf die Toollandschaft.
00:00:24: Und ich glaube, da gehen wir von... Bildgenerierung bis zum simplen Textspot doch glaube ich überall dann vorbei.
00:00:32: heute Marc, oder?
00:00:34: Ich fand es ja sehr schön, dass du gesagt hast, das ist eine schöne Folge.
00:00:37: Und ich habe mir ganz kurz überlegt, ist das unsere erste Folge mit Video um Gottes Willen?
00:00:41: Bist du ja gar nicht hergerichtet?
00:00:43: Nein, nein, nein.
00:00:44: Ja, aber ich glaube, heute ist so eine Folge, heute ist ein Anbetracht der Zeit, ne?
00:00:49: Wir sind kurz vor Jahresende zum Zeitpunkt der Aufnahme und da lohnt sich ja durchaus auch mal, einen Blick darauf zu werfen, wo sich eventuell auch mal ein Workflow geändert hat, ein Tool geändert hat und Dinge, die wir vielleicht am Jahresanfang für den Geilen heißen Entschuldigung, scheiß, ist man da nicht jetzt schon explizit, weiß ich nicht.
00:01:06: Ich weiß es nicht.
00:01:07: Gehalten hat, dass das auf einmal, naja, wenn irgendein großer Konzern hustet, altbacken ist und man mit ganz neuen Sachen arbeiten kann.
00:01:17: Sowas habe ich mir vorgestellt.
00:01:18: Okay,
00:01:18: das hört sich gut an.
00:01:19: Sollen wir mal mit dem einfachen Sachen anfangen.
00:01:22: Was das wahrscheinlich auch so das Landläufigste ist, wenn Menschen draußen mit KI-Tools interagieren.
00:01:31: Ich glaube, da gibt es momentan immer, wahrscheinlich, ich würde so zweieinhalb Anwendungsfälle bei der Algemeinheit.
00:01:37: Ich würde sagen, es ist einmal dieses reine Promten, da nach Sachen suchen, sich irgendwelche Sachen erstellen lassen, da können wir gleich mal ein bisschen reingucken.
00:01:43: Das andere ist, glaube ich, Bildbearbeitung oder Bilderzeugung vor allem, nicht Bildbearbeitung, Erzeugung, glaube ich.
00:01:49: Und das zweieinhalbste, wollte ich sagen, weil gerade die Weihnachtszeit ist, Liedergenerieren mit irgendwelchen Video, Katschmusik, KI ist die draußen rumfläuchten.
00:02:01: Was ist denn so beim Teil eins?
00:02:03: War jetzt auf das... Welche KI hat dich am meisten mitgenommen, wenn das um das Reine?
00:02:09: Ich chatte mit dem Ding, ich prompte, ich suche irgendwas, was war so dein Highlight dieses Jahr?
00:02:15: Also ich bin ja ganz froh, dass mein Suchen... Hauptsächlich in Google geblieben ist.
00:02:20: Und wenn ich mal einen LRM benutzt habe, dann doch Perplexity.
00:02:25: Perplexity ist ja doch ziemlich zuverlässig, was das Thema Quellen aus dem Internet angeht, mit den verschiedensten Tiefen einstellen.
00:02:35: Die es dort entsprechend gibt.
00:02:38: Das fand ich soweit ganz nett, was ich bei diesen ganzen Text-Promptgeschichten ganz lustig fand, das ja war.
00:02:44: kaum hat ein Herrscher was rausgebracht, kam der Nächste, so dieser Kreislauf von, okay, Mistral wollte ich ja schon gerade sagen, aber irgendwie, sagen wir mal, Krug und dann kommt Ausropik und dann kommt Open May Eye und dann kommt Gemini und dann kommt Krug und dann kommt Ausropik und dann kommt Google und dann kommt Gemini oder bediebig an dieser Stelle Abkürzungen wählen, aber dieses ständige Karussell und weil du vom Promfen gesprochen hast, finde ich es natürlich... auch doppelt und dreifach strange, wie sich auch etablierte Prompts über das Jahr hinweg geändert haben.
00:03:18: Also Prompts, die ich benutzt habe, vielleicht kommen wir dann auch immer so aus VN nach N und so, weil das hat mich auch dieses Jahr doch ziemlich geregt.
00:03:27: Was ich so in verschiedensten Prozessschritten so benutze beim Sprung zu die schön etabliert waren, weil sie mit GPT hier oder was auch immer gut liefen.
00:03:37: und dann kam GPT fünf raus und dann ging das irgendwie noch und dann kam fünf eins raus.
00:03:41: Und auf einmal war das Ding der Meinung, mir noch Bonusinformationen zu geben.
00:03:46: Und auf einmal hatte ich Komponenten in meinen Texten und meinen Inhalten drin, wo ich dachte, wo kommt denn das jetzt her?
00:03:52: Dann trainiert ihm das aus und ist mit fünf zwei merkste.
00:03:56: Kann man ja vor kurzem jetzt auch gerade raus das neue Modell von Open AI.
00:04:01: dass man das schon wieder gar nicht mehr hätte machen müssen, dass man die Prompt wieder zurück rudern kann.
00:04:05: Also das ist schon mal ganz lustig und auch, wenn du zwischen den Modellen wechselst.
00:04:09: Also wenn ich einen Prompt an Gemini gebe, dann habe ich manchmal das Gefühl, es ist geprompt, da ist er auf einmal schneller als Obmei, dafür auch oberflächlicher.
00:04:20: Und das zeigt halt auch wieder, wir sind halt nicht in so einer Null- und Eins-Maschinerie.
00:04:26: Na ja, das ist spannend.
00:04:27: Wenn wir auf der Suche noch mal gehen, weil du das gerade mit google sagst, also ich habe ja tatsächlich so im lauf des jahres.
00:04:36: Ich weiß gar nicht wann es genau war hat ja google nach und nach im prinzip auch seine eigene google k i gemine im hintergrund dann freigeschaltet dir auch suche ergebnis zu liefern wenn du.
00:04:47: Eigentlich das ganz normale suchfeld nutz.
00:04:49: also ein ganz geschickter move von google natürlich auch so ein bisschen abwehrhaltung weil.
00:04:53: Immer mehr Nutzer auch gewechselt sind zu Open AI, zu Pepsi-Plexity, um so da bessere Suchergebnisse auch zu bekommen.
00:05:00: Die haben sehr erwartet.
00:05:02: Ich kann viel natürlicher mit so einem Chatboard, mit einem LMM über Sachen reden, als sich das früher in dem klassischen Suchfeld bei der Google angefühlt hat.
00:05:09: Da gab es gute Ergebnisse, aber die waren nicht immer so kontextbezogen.
00:05:13: Und so ein LMM, das mich ein bisschen versteht, das ist natürlich stärker kontextbezogen und das ist natürlich eine... Wahnsinniger Wettbewerb gewesen, den Google sich da ausgesetzt gefühlt hat und sie haben das gut gemacht.
00:05:25: Am Anfang fühlte es sich die ersten Tage Wochen noch so ein bisschen behebig an und es war nicht so ganz klar, woher denn jetzt auch dann diese Google KI Suchergebnisse eigentlich kommen.
00:05:37: Da wurden ganz schräge Webseiten als Referenzen genommen und die Ergebnisse waren so mau.
00:05:43: Ich habe seit ungelogen jetzt, Dezember, im Jahr immer mehr das Gefühl, Das ist ein richtig gutes Ergebnis da.
00:05:50: Wenn ich da jetzt eine Anfrage stelle, wenn ich wirklich suchen möchte und die KI zum Suchen benutzen würde, nehme ich jetzt doch wieder Google interessanterweise.
00:06:01: Weil so einfache Anfragen.
00:06:02: Weißt du so, wenn mir was in den Sinn kommt und ich nicht erst so, ach jetzt öffne ich erst chatchipti, wir hatten auch gerade diesen Modellwechsel geredet, jetzt öffne ich meine Perplexity App oder sowas, nee, dann habe ich wieder diesen... Auch ein ganz normal, ich bin jetzt hier iPhone Nutzer, diesen ganz normalen Weg, dass ich über die Suche einfach gehe, diese Suche ruft mir dann im Prinzip die Google Suche mit runter und auf, weil das meine Standard Suchmaschine nicht mehr eingestellt habe.
00:06:22: und dann kommt das Google Suche Ergebnis, das KUE Suche Ergebnis oder das passt in sehr, sehr vielen Fällen einfach sehr, sehr gut.
00:06:30: Wenn man überlegt, jetzt bist du klassischer Webseitenbetreiber, freust du dich natürlich ungemein, dass die Informationen jetzt noch besser für den Kunden aufbereitet sind, dass du gar nichts mehr davor mitkriegst, dass es da mal einen Kunden gab, der sich dafür interessiert, weil Google das jetzt noch viel besser bedient als vielleicht in der kleinen Forschau.
00:06:49: Also mir ist natürlich auch aufgefallen, dass das in Google drin ist, man hat das so als Beifang quasi, glaube ich, unterschwellig mitgenommen.
00:06:57: Aber dennoch ist die die Häufigkeit mit der ich sage jetzt mal keine Ahnung, zwanzig, drehen zwanzig.
00:07:03: Vierundzwanzig auf google.com war sehr viel weniger geworden als mittlerweile.
00:07:12: Bei mir dreht sich das gerade ein bisschen, weil ich finde es auch so eine so eine auch usability und navigationsperspektive machen das ganz geschickt, wenn du das rückens rein haus na dann.
00:07:23: Ist es nicht sofort so ein langer Rattenschwanz an Promtergebnis, das auch manchmal woanders gewohnt ist, dann das hat eine gute Länge, fühlt sich auch in so einer guten Geschwindigkande an, so dass ich fast mit dem Auge das mitlesen kann, während sich das Ergebnis aufbaut, das ist ein gutes Timing, dann ist es so kleine Disability Tricks, die sie da machen, die dir helfen quasi an diesem Ergebnis länger zu werden.
00:07:46: Ich habe das häufig immer noch, wenn ich irgendwie ein anderes Element ganz normal in Chatmodus benutze, dann hast du einfach... Und haut es mit den prompt raus und mich erschlägt das dann manchmal scheint dass ich erst wieder hoch scrollen muss bis zum anfangen.
00:07:56: Ganz viel zeug was ich alles lesen muss lassen wir noch mal wieder zu passen von der Maschine weil mir das schon wieder zu lang ist.
00:08:03: aber das hat google jetzt momentan.
00:08:06: Gut gelöst.
00:08:07: ich hab jetzt erwischt mich dann auch immer mehr dass ich dann gibt es diesen bunten schönen button der den erlaubt mit k i jetzt weiter suchen.
00:08:14: das ist dann etwas was ich.
00:08:16: Jetzt schon mehr benutze, als dann weiter runter zu scrollen in den ursprünglichen Google-Such-Ergebnis-Teil, wo ich dann auf andere Sachen gucke.
00:08:24: Das heißt, glaube nach und nach wird es wirklich die normale Google-Suchseite ersetzen.
00:08:30: Und weil du da natürlich sagst, der Webseitenbetreiber, ich meine dazu haben, dass auch der Werbung eingearbeitet wird.
00:08:39: Also Google wird da auch wieder die Möglichkeiten geben, dass sie sich das für sich monetarisieren können.
00:08:44: Unter Unternehmen, die Möglichkeiten bieten, quasi in diese Suchergebnisse mit reinzukommen.
00:08:51: Ich bin mal gespannt, wie das genau aussieht, wie die Qualität ist, wie sie das anfühlt.
00:08:55: Aber wenn sie ihnen das so gut gelingt, wie sie es jetzt gemacht haben mit der Ergebnisdarstellung, mit dem Flow des Ergebnisdarstellungen, dann darf man, das durfte man so oder so.
00:09:05: nie, darf man Google da nicht abschreiben als großen Player, der immer noch quasi an der an dieser Schnittstelle zwischen uns und dem Netz dastehen wird.
00:09:15: Das mit dem Abschreiben.
00:09:16: Du hast jetzt ja ein paar Brücken geschlagen zu etwas, was Sie auch schon vergangene Folgen mal angedeutet haben.
00:09:22: Google hatte man ja, als das mit Open AI-Fahrtaufnahmen, so ein bisschen abgesangen geleistet gegenüber.
00:09:28: Ja, dann kam Baht, dann kam ganz komische Versuche.
00:09:32: Und jetzt muss man Gefühl sagen, dass was Google in zwanzig, fünfundzwanzig gezeigt hat, die Integration, wir kommen auch gleich noch auf Bild.
00:09:42: Video notebook lm.
00:09:45: die ganzen auch die ganzen tool sind google labs.
00:09:48: ja lerne in deinem stil dieses ding womit du aktuell glaube ich nur außerhalb europa.
00:09:54: ich muss immer überlegen weil manchmal muss ich mir extra pn machen.
00:09:57: da kannst du zum beispiel lernmaterialien generieren lassen für ein thema und diese lernmaterialien werden so aufbereitet dass sie zu deinem hobby zum beispiel passen oder zu deinen am liebsten gesehenen Filmen oder irgendwas, damit du es halt leichter, verständlich erklärt kriegst.
00:10:14: Und das sind so mächtige Dinge, die Google so breitseits abfeuert, in den Markt hineinpresst.
00:10:23: Da merkt man schon, dass Google erstens mal großer Player ist, der sich quasi wieder aufgerappelt hat, nachdem es mal kurz zum Einbruch kam, der mit seiner eigenen Hardware.
00:10:36: Die KI Chips, die sie bauen, ihre eigenen Software, die Plattformen, sei es in ihrer Google Cloud, sei es auf den, auf den Handys auch, wo sie dann die Modelle ausführen, wo sie ja jetzt auch scheinbar an Apple ein Modell verkaufen aus Gemini, damit die ihre Serie endlich mal schlau kriegen.
00:10:54: Schlau kriegen.
00:10:55: Entschuldigung, alle, die von Apple hier zuhören.
00:10:58: Grüße gehen raus.
00:11:01: Das ist schon Wahnsinn, wie Google quasi den Markt aufmischt.
00:11:06: Und es wird einem halt auch irgendwie klar, dass das Geld, dass die anderen Player irgendwie mühsam nicht zusammensammeln müssen.
00:11:13: Dass Google sowas mit dem Quartalsergebnis sich reinholt.
00:11:16: Ja,
00:11:16: ja, definitiv.
00:11:17: Also da ist, glaube ich, die Macht.
00:11:19: Ich weiß gar nicht, ob so wirklich so... Also die Frage ist immer, was haben wir gesehen, was die Spitze des Eisbergs, die gescheiterten Versuche.
00:11:25: Google war ja auch immer dafür bekannt.
00:11:27: auch aufgrund seiner mark macht viele sachen zu probieren.
00:11:30: Und dann vieles auf den friedhof zu werden.
00:11:35: Aber ich glaube das ist ja auch mal nicht richtig.
00:11:37: Wenn du da in so einer schnell drehenden welt unterwegs sein musst du halt auch mehrere sachen.
00:11:42: Und wenn du die.
00:11:43: Die das nötige kleingeld und das hat google einfach dann zur verfügung hast um solche sachen zu machen warum auch nicht.
00:11:48: Ich glaube sie waren da.
00:11:49: Vielleicht ein bisschen überrascht, haben aber Phenomala gut reagiert, meine Meinung nach.
00:11:54: Und wo du Apple gerade ansprichst, lass mich da auch noch ein Wort verlieren.
00:11:57: Das ist ein ganz spannendes Thema auch wieder aus so einer Nutzerperspektive.
00:12:00: Ich finde es echt noch schräg grad, wie die Anbindung ist.
00:12:03: Ich hab in meiner Serie, hab ich dann halt die ChatGPT Pro Version dahinter gepackt.
00:12:08: Wenn du da eine Anfrage stellst, da ist es mir zu lang in der Antwortzeit.
00:12:13: Das ist komisch, ne?
00:12:13: Das ist wahrscheinlich gar nicht so viel länger, als wenn ich dann irgendwie ... Vielleicht manchmal direkt in den Chat-Prom bei ChatGPT oder so rein gepackt hätte, aber es dauert halt in so einem Moment.
00:12:21: Du merkst halt, das ist einmal eine Verbindung.
00:12:23: Siri, Prozessmoment für die Sprachearbeitung.
00:12:25: Du musst es dann übergeben.
00:12:26: Das dauert einen Moment, das merkst du alles.
00:12:28: Das fühlt sich alles noch nicht so wirklich einen guten Nutzerflau an.
00:12:31: Das dauert mir den Tacken zu lange.
00:12:33: Und dann kriegst du immer noch am Ende jedes Mal diesen Hinweis, dass ChatGPT sich geben, falls irren kann.
00:12:40: Also, dass man diese Information
00:12:41: und das Wichtige in den Nesterigen
00:12:43: und dem Wirkungen.
00:12:45: Ja, das kannst du mir einmal irgendwie am Anfang sagen, du musst es aber nicht immer wiederholen.
00:12:50: Das dadurch bricht das total.
00:12:52: Weißt du, das macht null, null Spaß.
00:12:56: Wo ich auch sage, ja, da ist immer noch so ... ... Voice-Eingabe, K.E.
00:12:59: ist ... ... manchmal gut, manchmal immer noch so ein bisschen holprig.
00:13:05: Selbst wenn ich die Pro-Version Project GPD benutze, da mit der Sprach-Reihe-Rentur bespiele, manchmal fühlt sich schon ganz gut an, manchmal ist es ein bisschen holprig.
00:13:13: Ich weiß nicht, wie das bei dir so ist.
00:13:15: Amper.
00:13:17: Die Integration in Siri ist gefühlt das holprigste, dass man sich in dem Umfeld vorstellen kann.
00:13:24: Von der Seite ist ja auch völlig in Ordnung, wenn sie sich jetzt Gemini eingekauft haben als eigenes Modell, wenn sie das auf ihren Büchsen laufen lassen, sei es im Rechenzentrum, sei es auf den Endgeräten.
00:13:35: Das kann dem Ganzen nur gut tun.
00:13:38: und ob Apple irgendwann mal was eigenes rausbringt oder nicht.
00:13:41: Ich meine, wir haben das ja auch schon ein paar mal gesehen.
00:13:44: Äppelkarten, weil am Anfang auch, wie war das, Straßen, die mitten durch den Flughafen führen.
00:13:50: Und mittlerweile ist es ja doch wirklich auch besser geworden.
00:13:55: Man muss einfach abwarten, wie sich das entwickelt.
00:13:57: Ich bin erst mal froh, wenn Siri ein bisschen schlauer wird, weil das fällt auch auf.
00:14:02: Auch wenn Siri die ganze Zeit, und ich hab echt Angst, dass er jetzt in meinem Umfeld gerade Siri angeht und die Befehle ausführt.
00:14:08: darum, muss ich mal ein bisschen Pause danach lassen.
00:14:12: dass das Ding auf einmal anfängt und du hast es halt genommen für Haussteuerung.
00:14:17: Okay, das macht es halt immer noch.
00:14:19: Ja, bei mir, ich kann Heizkörper und Licht und Tür und Fernseher und keine Ahnung, was damit steuern.
00:14:24: Aber es ist halt trotzdem total lame, wenn du überlegst, was mit Sprachinteraktion, Chatinteraktion mit anderen Herstellern möglich ist.
00:14:35: Das stimmt, das stimmt.
00:14:36: Wenn wir jetzt mal die, aber auch da lassen wir mal nicht abschreiben, also auch die haben die.
00:14:40: Nein.
00:14:42: Die eine oder andere Geldspeicher, wie Dago Bertak, irgendwo stehen.
00:14:46: Ja, ich glaube, wenn wir auf einen anderen großen Player mal gucken, der ... ... der vielleicht auch noch nicht so performt hat, wie man das vielleicht, oder aufgeholt hat, sagen wir mal so, der sich noch ein bisschen beteckt hält und von dem ich auch schon lange nichts von gehört habe, eigentlich muss man mal recherchieren.
00:15:01: Ich habe gar nicht da recherchiert, aber nur aus dem Bauch ausgespeichert.
00:15:05: Amazon.
00:15:05: Nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein,
00:15:13: nein, nein, nein, nein, nein, nein, nein, nein, nein, nein,
00:15:18: nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein, nein.
00:15:34: Weil ich würde jetzt sagen, aus meiner Perspektive habe ich bestimmt zehn bis fünfzehn Interaktionen am Tag, die ich durchfühle.
00:15:41: Also das sind so einfache Sachen, wie spielen wir, keine Ahnung, Deutschland, Knober
00:15:44: oder
00:15:45: wie wird das Wetter oder solche Sachen.
00:15:47: Also diese einfach Proms per Voice, einfach in den Raum reingerufen.
00:15:51: Einer in der Dusche hängen, aber da ist ein Badezimmer hängen, der andere in der Küche, zwei unterschiedliche Namen.
00:15:55: Da muss man immer dran denken, wie man gerade redet, damit die anderen nicht loslegen.
00:15:59: Aber das geht, mehr geht da auch nicht.
00:16:03: Aber immer noch nicht gut.
00:16:04: im Verständnis kann man sagen okay welche Musikrichtung willst du denn?
00:16:07: so das geht auch noch alles.
00:16:08: okay ist aber es ist halt auch noch mein weiter von entfernt eine echte.
00:16:24: Okay, meine Sprache wird in Text übersetzt und dann wird das dieser Maschine gegeben.
00:16:29: und dann führt diese Maschine versucht, irgendeine Intenterkennung einigermaßen gut hinzubekommen, um in ihrem engen Spielraum, den sie gegeben hat, quasi ein Realsystem auszuführen und irgendwie zu erkennen, was will denn diese Anwender von mir?
00:16:41: Das ist also, null, zero, diese KI-Interaktion, über die wir beide ja die ganze Zeit reden, die wir jetzt halt, dem Chechepity-Moment vor zweieinhalb Jahren quasi gewohnt sind als Mensch.
00:16:51: Da hat Amazon ... Die Lücke noch nicht geschlossen.
00:16:56: Und ich weiß noch nicht, ob sie das machen.
00:16:57: Also ich hab da noch nichts gehört.
00:16:59: Also gehört da mich auch nichts und ich kann dazu nicht sagen, weil wen hat's jetzt gewundert?
00:17:04: Zumindest mal die, die mich kennenwundern sich wahrscheinlich darüber nicht.
00:17:08: Ich habe keinen Amazon-Lautsprecher bei mir zu Hause.
00:17:11: Auch wenn die Lautsprecher teilweise bei Amazon gekauft wurden, heißen sie trotzdem HomePod.
00:17:17: Ja, also von der Seite in jedem Raum mindestens einer, meistens zwei.
00:17:23: ist das hausgute ausgestattet.
00:17:25: Und der seite wird es schon völlig reichen wenn es bei den homepods dann mal irgendwann besser wird.
00:17:30: Aber du kannst ja dann berichten wenn in deiner alexa.
00:17:33: Ja das entsprechend.
00:17:37: Wundermänner nicht was kommt.
00:17:41: Du hast den marktzugang.
00:17:42: Ich meine das ist ja das was wir jetzt gerade bei google gesehen haben.
00:17:44: Also ja die sehen dann da ist ein signifikanter anteil von suchanfragen der von meiner.
00:17:52: Suchmaske weg geht, der in eine andere Richtung von KI geht und sie holen dann relativ zügig auf.
00:17:58: Nutzen natürlich jetzt ihre Marktmacht noch aus.
00:18:01: Also wenn das Thema weiter so mit dieser Geschwindigkeit vorantreiben, dann wird das echt schwer für die anderen.
00:18:06: Also jetzt nicht in allen Ländern der Welt ist Google die beliebteste Suchmaschine, aber in vielen Stellen der Welt.
00:18:12: Also das wird dann gar nicht so einfach werden.
00:18:15: Diesen Player dann auch in diesem Umfeld wieder Paori zu bieten, wenn er einmal wirklich richtig ins Rollen gekommen ist.
00:18:20: und das Sieht gerade so aus.
00:18:24: Wenn man aber auf der anderen Seite mal überlegt, es bilden sich ja auch gerade entsprechende Standards für Connectivity.
00:18:31: Also dieser ganze Kram mit MCP und A to A, der ganze Kram mit, wie sehen diese agentischen Workflows aus, was ich immer mit N nach N bei mir gerne baue.
00:18:42: Da kann ich mir schon vorstellen, dass es zu spät für die Party noch nicht gibt.
00:18:48: weil die Systeme, ich sag mal, die Intelligenz, das Hören, das LLM-Modell, das können die sich zur Not irgendwo her shoppen, während um alle herum das ganze Thema mit MCP und Co am entstehen ist, am lernen ist, ja MCP hat was, die vierte Version des Protokolls jetzt bekommen von Ozropic, das heißt, da ist ja auch noch sehr viel Musik drin, das ist ja alles noch nicht alt.
00:19:13: Von der Seite kann ich mir auch sehr gut vorstellen, dass diese Magie Wenn ein Sprachinteraktion funktioniert mit deinen Lautsprechern, weil die Büchsen auf einmal mehr RAM haben, mehr CPU haben, lokale Modelle haben und dann die Standards da sind und man es dann schafft ja, lauter wenn, wenn, wenn Situationen, dass du Automatisierung im Internet bei dir selbst damit verbinden kannst, dann glaube ich schon, dass dieser magische Moment von den Herstellern, die die Geräte schon bei den Leuten zu Hause haben, dass dann deren großen, deren große Renaissance kommt.
00:19:51: Ja, ja, maybe, maybe.
00:19:53: Lass uns nochmal ein anderes Thema aus diesem Gebieten ein bisschen beleuchten, was ich noch beobacht habe als ein Versuch, der dann auch wieder zurückgefahren worden ist, wo anders versucht worden ist und wo die unterschiedlich großen LNM-Bieter noch ein bisschen anders agieren ist, das Thema.
00:20:11: Es kam ja irgendwann in... Vorletzten ja das klima reasoning zum beispiel aufnah war so dass wir beteiligt waren.
00:20:19: ob das jetzt bei der diebzig damals war Dann auch bei namanos kam das bei der jazipi die kam das auf dass die modelle quasi ihr reasoning angezeigt haben also ihre Nicht nur einfach auf mein prompt reagiert haben sondern sich erst gedanken drüber gemacht haben.
00:20:32: was meint denn der nutzer damit diese gedanken machen auch angezeigt haben?
00:20:37: das tauchte dann natürlich auf.
00:20:39: dann wurde das auch mal wieder so versteckt angezeigt.
00:20:41: dann gibt es auch immer wieder so kleine testen wie das besser von der usability anscheinend auch.
00:20:45: Für den anwender sich darstellen das dass man aufklappen kann oder wegklappen kann.
00:20:49: Dann ist es jetzt geendet in so einer jpd fünf einser version meinig, wo das dann automatisch waren.
00:20:57: Jetzt kann ich es wieder auswählen.
00:20:58: Jetzt kann ich wieder auswählen.
00:21:01: Ich möchte das Instant-Finking-Modell haben oder ich möchte das Modell das erst mal über nachdenken.
00:21:05: Es gibt immer so einen Standywechsel.
00:21:06: Jetzt nagelt mich nicht fest, ob ich mich mit den Versionsnummern vertan habe.
00:21:11: Aber es war dieses Jahr so ein Rumtesten.
00:21:15: Was machen wir denn am besten mit dem Anwender?
00:21:17: Soll ich als Modell quasi selbstständig entscheiden, ob ich jetzt eine Deep-Research-Analyse fahre?
00:21:25: Ob ich ganz schnell antworte oder gebe ich das dem Anwender doch wieder in die Hand, weil er im Zweifel ist doch besser wissen möchte oder das Gefühl haben möchte darüber entscheiden zu können, ob jetzt Millionen von Tokens im Hintergrund verbrannt werden oder ob einfach nur eine schnelle Antwort aus dem Modell herauskommt.
00:21:43: Also das ist so ein Ding, was ich irgendwie noch dieses Jahr beobachtet habe, wo auch glaube ich noch nicht die finale Antwort ist.
00:21:48: Aus meiner usability Perspektive würde ich immer sagen, ja lass den Anwender das nicht entscheiden.
00:21:54: Das soll so funktionieren, dass die Modelle in Zukunft dann die richtige Wahl treffen, wenn sie es dann machen.
00:22:00: Es ist natürlich doof, wenn sie dann irgendwie, wenn ihr mit, wie heißt das, deutscher Spruch heute, mit Kanonen auf Spatzens schießt, das muss halt auch nicht immer sein.
00:22:09: Was du gesagt hast mit Biosubility, ich weiß nicht, ob du es gesehen hast, wahrscheinlich, ich erzähle es trotzdem mal.
00:22:16: Ich weiß nicht wann, dass man Google das eingeführt hat.
00:22:18: Ja, auf jeden Fall nach der Einführung vom letzten Gemini-Modell, dass wenn du eine Antwort bekommen hast, dass du dann nach der Antwort unter der Antwort sagen kannst, überprüft deine Antwort nochmal.
00:22:31: Also es gibt teilweise Knöpfe, die in Kontext-Menus versteckt sind, wo man sich dann fragt, wollt ihr nicht, dass die Anwender das benutzen?
00:22:40: oder war da wieder der Nerd der Meinung, ah ja, ich brauch noch drei Knöpfe, das ist doch an der Stelle total selbstverständlich.
00:22:47: Nix gegen Nerds gehört selbst zur Fraktion.
00:22:50: Da ist auch noch sehr viel im wanden wird auch unterschiedlich kannte.
00:22:54: Also wie ein demine bedienen kann heißt nicht automatisch, dass er eine obmei bedienen kann.
00:23:00: Du machst hier custom gpt's oder dams, dann macht manus macht irgendwie irgendwelche wissenspeicher aus.
00:23:07: frappi kommt mit skills jetzt kommt irgendwie bei obmei auch irgendwas mit skills und dann stehst du da und denkst du alter falter.
00:23:14: Kannste eins, kannste alle, kannste eigentlich nicht sagen.
00:23:17: Du musst die Spezialitäten herauslesen.
00:23:20: Genau,
00:23:20: du musst ein bisschen gucken, aber das ist ja auch so.
00:23:22: Ich meine, wenn du jetzt mal außen guckst, dann heißt es mal, dann ist Cloud mal besser fürs Koden, dann ist es wieder Open AI, dann soll sie das noch das nehmen, dann soll sie die lokale Version nehmen.
00:23:32: Wie auch immer, man ist gerade so ein bisschen als Anwender, als Nutzer, immer noch so ein bisschen... in der Hohlschuld auch, dass ich sage, ich muss mich auch selber ein bisschen drum kümmern, was jetzt am besten funktionieren könnte.
00:23:44: Es hat sich noch nicht so richtig rausgestellt.
00:23:45: Deshalb ist der Move von Google gerade spannend.
00:23:47: Es ist ein spezieller Inwendungsfall.
00:23:49: Ich würde jetzt noch nicht in dem Google Suchfenster überlegen, mir jetzt eine Anwendung programmieren zu lassen, aber versuchen, das funktioniert da jetzt wieder.
00:23:56: Das nutzen Sie einfach aus, dass wir das gewohnt sind und liefern auch wieder da exzellente Ergebnisse ab.
00:24:02: Das ist ein sehr kleiner, in Anführungsstöchen klein, sehr kleiner Anwendungsfall, wo ein klares Ergebnis aufgrund einer klaren, einfachen Anfrage, wo ich nicht darüber nachdenken muss.
00:24:15: Soll das ein Liebrecher sein?
00:24:17: Soll er dann auch irgendwie was rumprogrammieren?
00:24:18: Soll er mir das als Tabellenform auswerfen?
00:24:20: Muss ich ihm erst ein Format vorgeben in der Weltstruktur, damit das Suchergebnis besonders gut wird?
00:24:26: Deshalb ist es, glaube ich, gerade ein ganz spannendes Ding, was dabei Google passiert.
00:24:29: Bei den anderen Themen, ja, da testet man noch so ein bisschen aus, was der richtige was die richtigen Interaktionspatterns sind.
00:24:37: Ich finde auch nochmal dieses, ich hab das glaube ich bei JCPT häufiger gehabt, dass du dann auch mal zwei Ergebnisse nebeneinander begestellt bekommst.
00:24:46: Wo du dann sagst, okay, welches gefällt
00:24:47: dir besser?
00:24:48: Was gefällt dir besser?
00:24:49: Wo ich auch sage, da kommt wieder dieses Ding rein.
00:24:52: Dann hast du jetzt auf einem Screen, auf dem Mobile-Gerät ist ein Katastrophe, aber wenn du jetzt mal auf selbst auf den Desktop-Screen mal guckst, hast du trotzdem das Ding, dass ich sage, dann habe ich so eine arschlange Latte an Texte, zweimal nebeneinander.
00:25:05: Du musst dann irgendwie so diese beiden irgendwie lesen und vergleichen
00:25:10: und klicken.
00:25:10: Ich wollte auch eine Antwort verdammt haben.
00:25:12: Ich wollte auch
00:25:12: eine Antwort einfach nur haben.
00:25:13: Und dann fühlt man sich auch immer, weißt du, mein größtes Problem dabei ist immer, ich finde dann immer von beiden etwas gut, weißt du?
00:25:21: Und dann bin ich die ganze Zeit immer überlegen, was mache ich denn jetzt eigentlich?
00:25:23: Ich finde ja diesen Einfall
00:25:25: gut,
00:25:25: muss ich jetzt, ne genau, kopiere ich jetzt diesen Einfall doch raus und sage so, dieser erste Teil, den fand ich gut, aber ansonsten hätte ich die andere Variante gut gefunden.
00:25:34: Und dann klick ich halt auf eine und bin mir dann mehr sicher, ob das insgesamt die bessere war, dann ist es eher so ein Frustklick bei mir, weil ich dann durch diese, dann mal mal durch diese zu viel an Feedback geben, fast dann überfordert bin in dem Moment.
00:25:48: Wir hatten ja bei der Einleitung unserer Folge auch so ein bisschen darauf Einfluss genommen, darauf hinzusteuern zu sagen, na ja, was hat sich denn vielleicht damals als geiler heißer Scheiß angefühlt?
00:25:59: Was hat sich jetzt mittlerweile... Vielleicht auch im Umgang geändert.
00:26:02: Ich weiß noch, wie ich mich gefreut habe über Gamma.
00:26:06: Gamma war ja oder ist ja die Möglichkeit zu sagen, Macher aus Texten, aus vorhandenen Präsentationen, aus irgendwelchen Ideen, neue Folien.
00:26:15: Man konnte in Gamma Folien erstellen, in der Webseite von Gamma sie bearbeiten.
00:26:21: Man konnte sie als PowerPoint runterladen.
00:26:24: Und irgendwie hat es dann über Nacht sich bei mir total geändert, weil, Nano-Banana.
00:26:31: Alle, die denken, jetzt kommen hier die Minions um die Ecke.
00:26:35: Banana!
00:26:36: Ja, ich kann das nicht so richtig von der Seite.
00:26:39: Möges man mir das bitte verzeihen, ist der Jugendliche Schelm in mir.
00:26:42: Na war super.
00:26:44: Danke, danke.
00:26:45: Ich mach morgen mit Warner Bros.
00:26:47: oder keine Ahnung wem.
00:26:49: Ist auch egal.
00:26:52: Und dann kam Nano-Banana um die Ecke und hat dir auf einmal nicht nur schöne Bilder gemalt, sondern jetzt auch gerade mit Gemini.
00:26:59: hat ja Nanobanana gefüllt überall einzugehalten.
00:27:02: Du kannst Folien machen, du kannst Infografiken machen, du kannst, wenn du dir über Google Studio gehst, sogar vier K Auflösungen Infografiken machen, mit hohem Detail treue, mit dann auch scharfen Text und richtig geschiedenen Text, Bildgenerierung mit Text war ja auch immer so ein Thema bis dato.
00:27:23: Und du kannst richtig coole Sachen machen.
00:27:25: ja also mein sohn der spielt ja wolle ball.
00:27:27: dann habe ich mir geguckt.
00:27:28: okay wir sehen das foto aus.
00:27:29: und das foto.
00:27:30: Dass ich von meinem sohn gemacht habe beim wolle ball spiel.
00:27:33: banana gibt und sagt mach man drohnenaufnahme oder du nimmst ein.
00:27:37: Grundriss vom haus und sagst wie sieht man das als redemodell aus?
00:27:40: oder du nimmst keine ahnung ein komplexes thema und sagst mit mir eine infografik draus.
00:27:46: Und dann kriegst du tatsächlich eine klare infografik.
00:27:50: und.
00:27:50: Bevor ich jetzt noch ein paar Google Tools eingehe, vielleicht ein kleiner Tipp für alle, die sagen, ja, der Zimmermann, jetzt erzählt er hier was über Nano-Banana und man kann damit Folien machen.
00:28:02: Das geht zwar alles, aber dann landen die auch nur bei Google Sheets und ich habe keine, auch PowerPoint und keine Ahnung was.
00:28:10: An der Stelle ein kleiner Tipp am Rande.
00:28:11: Nano-Banana ist auch in Manus drin und da kann man dann Folien mit als PowerPoint sich generieren lassen.
00:28:18: Gut, aber wir waren ja bei Google.
00:28:20: Ich bin zum Retefluss.
00:28:21: Ich liebe das Nanobanana-Zeug, weil ich muss dir unbedingt von einem hypothetischen, wer das Video sehen würde, dass wir ja nicht aufnehmen, würde sehen, dass ich in der Luftanführungszeichen mache, einen hypothetischen Case, den ich im schulischen Kontext mal erlebt habe oder nicht.
00:28:38: Sag mal, man hat mir zugetragen, hat das anonym genug, man hat mir das zugetragen, machen wir es mal so.
00:28:44: Da hast du dann irgendwie Mitschriften für irgendwie ein Fach wie Geschichte, ja, handschriftliche Mitschriften im Heft, du hast.
00:28:50: Ein Buch, du fotografierst den ganzen Kram in einer Runde weg, schmeißt das in notebook lm, sagst dem, mach mir für die prüfungsrelevanten Themen Infografik, mach mir für jedes prüfungsrelevante Thema ein Video mit Erklärung und.
00:29:09: Du kommst so schnell in diesen Lernstoff.
00:29:12: Du kannst Quiz-Fragen kriegen.
00:29:13: Du kannst Lernmatikarten kriegen.
00:29:16: Du kannst, wie gesagt, Erklärfilme kriegen.
00:29:18: Und wenn du über ein Thema berichten musst, kannst du auch sagen, erzeugen wir doch einfach mal ein paar Slides.
00:29:23: Dann kriegst du Slides.
00:29:24: Dann schmeißt du die Slides wieder in Nordburg.
00:29:26: Dann sagst du, machen wir aus den Slides ein Video.
00:29:28: Dann kriegst du die Tonsport, die du vorlesen kannst oder dann natürlich freizitieren.
00:29:32: Du kriegst so mächtige Werkzeug.
00:29:34: Also ich wäre, glaube ich, froh gewesen, das als Schüler gehabt zu haben.
00:29:39: Das wäre nicht,
00:29:40: wäre nicht.
00:29:41: Und ich glaube, ich nehme kurz was vorne weg.
00:29:48: Werden ja auch in kürzer Normale Folge machen, wo wir ein bisschen ins Jahr zwanzig zwanzig schon reingucken werden.
00:29:56: Weil du das gerade sagtest.
00:29:58: Und ich habe dir zugehört und ich finde, das ist natürlich erstaunlich und gut.
00:30:01: Und du hast vorkommen recht.
00:30:02: Das ist wirklich richtig gut geworden, was Google da anbietet, was die Bildgenregen und und und Co.
00:30:07: betrifft.
00:30:08: Lass mich nur kurz diesen Aufblick nach vorne wagen.
00:30:11: Aber natürlich ist es immer noch doof, das zu sagen muss, machen wir aus den Slides das und das, machen aus dem Video das und das.
00:30:18: Wir sind immer noch in so einer prompt engineering Phase, wo man sich schon so ein bisschen vorstellen muss, was brauche ich denn eigentlich?
00:30:28: Deshalb muss ich das dann so gut prompten.
00:30:30: Und wir sind noch nicht so in dieser optimale Output quasi nur noch delegieren, dass ich sage, Ich möchte schlauer werden und dann passiert alles.
00:30:39: Weißt du, so in dem Sinne, da fehlt noch so ein Tag.
00:30:41: Da wird das Jahr werden, wo solche Sachen langsam schiften werden, wo wir immer weniger über das optimale Promten im normalen Anwendungsfall reden werden, also für den privaten Hausgebrauch und wir heute eher hingehen werden und sagen, okay, ich möchte ein gewisses Ziel haben und dieses Ziel delegiere ich.
00:31:03: Also ich gebe dir komplett recht, so wie sich das eben auch angehört hat, mit von Gamma zu Nano Banana, von Nano Banana zu Manus, damit man PowerPoints kriegt.
00:31:13: Das ist ja schon so ein bisschen Herrschaftswissen.
00:31:15: Herrschaftswissen, Interesse, Neugierde, auch die richtigen Abos zur richtigen Zeit.
00:31:22: Also welches Abo habe ich abgeschlossen, damit ich welche Funktion zur Verfügung habe.
00:31:26: Da trennt sich auch viel Spreu vom Weizen.
00:31:29: Und an der Stelle, glaube ich, sind wir wirklich noch in so einer Sturm- und Drangphase, was diese ganzen Tools angeht und was natürlich auch unseren persönlichen Splien angeht, das auch entsprechend zu finden.
00:31:40: Ja, das stimmt.
00:31:41: Und das ist halt so ein bisschen immer noch, das ist noch nicht das, was ich mir von zwanzig, fünfundzwanzig erwartet hätte.
00:31:48: Na, ehrlicherweise, weil wir tatsächlich, glaube ich, Da sind wir so ein bisschen wieder rein verfallen in die alte IT ansicht weiß man muss so ein bisschen herrschaftswissen haben.
00:32:00: Man muss guter drin sein man muss wissen welches tool da ist man muss tools verknüpfen können.
00:32:05: du bist ja auch groß aufhennen und ich auch aber du nutzt es mehr als ich von n achten wo ich workflows aufsetzen kann indem ich mehrere tools miteinander verknüpfen kann.
00:32:15: Da kann ich zwar mittlerweile auch das auch eine riesen Errungenschaft ja auch.
00:32:19: direkt schon workflows prompten wenn ich möchte das ist dann teilweise schon fast selbstständig geht ich gar nicht mehr die die einzelnen klotenpunkte zusammenziehen muss.
00:32:28: Aber es ist natürlich trotzdem immer noch etwas wo ich sage.
00:32:32: Ist dann jetzt auch nicht für den alltäglichen gebrauch wenn ich mal kurz was haben möchte sondern ich muss mich dann schon mit dem thema beschäftigen.
00:32:41: Aber auch da als wir angefangen mit unserem podcast hatte ich ja einmal die ehe.
00:32:46: vorzustellen, mit welchen Tools wir arbeiten, damit wir den Ton haben, damit das Deployt wird, damit da auch entsprechende Meldungen z.B.
00:32:56: mir erflingt in Erscheinen, wenn es eine neue Folge gibt.
00:33:00: Da hat sich ja auch mittlerweile so viel getan.
00:33:03: Also für die, die es nicht wissen, Jens und ich, nehmen wir hier bei Riverside auf.
00:33:07: Riverside hat Eine Api kann ich mit er nach der End anbinden.
00:33:11: Das heißt, ich kann mir mit dem Workflow unsere Tonspuren holen.
00:33:15: Ich habe in der Folge erzählt, dass ich mit Othropic anfange und die Tonspuren immer noch ein bisschen nachveräde.
00:33:22: Also dieses schwere Schnaufen herausholen, die vielleicht künstlerischen Pausen, weil uns beiden nichts einfällt, was sehr selten vorkommt, rausholen.
00:33:33: und das danach dann zu Potigy schiebt.
00:33:35: Und es war früher alles von Hand, aber dadurch, dass ich jetzt nicht nur in der Riffer-Seite eine App gehabt habe, sondern auch in Osropic und in Potigy, bekomme ich im Grunde mit meinem End nach End Workflow, wenn wir die Aufnahme beendet haben, alles auf Knopfdruck generiert und jetzt vielleicht auch bald dann noch das ganze Thema der Cover.
00:33:53: Das ist noch so ein bisschen in der Sturm- und Drangphase, sodass man im Grunde sagt, okay, wir haben es den Kasten, ich drücke auf den Knopf und los geht's.
00:34:03: Und in Polygy selbst ist dem einen vielleicht aufgefallen, dass wir jetzt Kapitelmarken haben oder dass wir ausführlichere Shownotes haben.
00:34:12: Und auch all das passiert, weil Polygy eine entsprechende KI-Unterschützung hat zu sagen, wo reden denn die alten weißen Männer hier, welche Kapitelmarken machen denn da unter Umständensinn und trägt die ein?
00:34:25: Und das ist schon erstaunlich, wie man Ich würde sagen, qualitativ guten Content machen kann für so zwei Menschen wie wir, die dann trotzdem sich immer nur an einem Tag, also meistens treffen wir uns auch an dem Tag, an dem wir es veröffentlichen.
00:34:42: Da ist nicht so viel Zeit zwischen Aufnahme und Release, dass dann halt in neunzig Prozent der Fette, sage ich jetzt mal, automatisiert kriegen.
00:34:51: Warum neunzig Prozent, ganz ehrlich, Wir hatten ja auch das eine andere mal Gäste zu Besuch.
00:34:56: Da guck ich dann schon nochmal drauf, wie das so ist.
00:34:59: Wenn's uns beide verhagelt jetzt, nimm's mir nicht krumm, aber wir sind großen, alt genug, wir können damit leben.
00:35:04: Und das ist schon fasziniert.
00:35:05: und vor ich dir gleich wieder das Wort zurückgehe, wollte ich auch nochmal, ich kann ja keinen Kapitel sagen, ohne Manus zu erwähnen.
00:35:11: Selbst Manus hat mittlerweile eine API rausgebracht, dass du quasi, nicht quasi, dass du... in deinen Workflows in NRDN sagen kannst du.
00:35:21: Und jetzt starte bitte zwei Notagenten auf Manus, bediene damit was, was ich, Webseiten, Suche, Schreibe, Generiere, keine Ahnung war's.
00:35:30: Und bringen wir dann das Ergebnis zurück in meinen Workflow.
00:35:33: Das ist schon richtig, richtig, richtig krank, aber auch teilweise haereraufend.
00:35:39: Wenn man was nicht geht, dann stehst du da vor deinem NRDN Workflow und denkst dir, die Welt könnte so einfach sein.
00:35:47: Und dann ist es meistens nur ein ganz kleines Ding, das sich da irgendwie geändert hat, aber es ist trotzdem extrem mächtig, was wir heutzutage automatisieren können.
00:35:54: Das stimmt.
00:35:55: Das stimmt.
00:35:55: Ich wollte auch nur ganz kurz einen Link mal zu sagtes.
00:36:00: braucht er nicht viel zeit und wir beide die dann so podcast aufnehmen und das geht dann so einfach.
00:36:05: das liegt natürlich auch daran dass wir beide so voll profi so naturtalente anscheinend sind.
00:36:09: na und dementsprechend ist natürlich auch die kei super einfach ist die ganzen erstes und er ist rauszunehmen und uns schnell schön zu rennen und eine tolle podcast folge aus und zu machen weil ansonsten würde das wahrscheinlich viel viel länger dauern.
00:36:21: also da.
00:36:22: Ja, natürlich.
00:36:23: Wir machen das klar.
00:36:24: Wir könnten eigentlich auch einfach treten, ehrlicherweise, wenn ich so bin.
00:36:26: Haben wir auch schon gemacht.
00:36:27: Also falls
00:36:28: jemand deine Bühne kennt, wo wir uns mal vorstellen sollten, machen wir mal eine Live-Folge.
00:36:32: Jetzt vielleicht mal mal da.
00:36:33: Nächstes ist ja einfach mal eine Live-Folge mit echtem Publikum.
00:36:35: Das ist das,
00:36:35: was wir mal im Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr.
00:36:37: Wir machen eine Live-Folge mit echtem Publikum mal wieder.
00:36:39: Aber mit fremden Publikum vielleicht
00:36:40: auch.
00:36:40: Hier wird dann auch ausstrahlen, weil wir hatten ja schon mal eine mit echtem Publikum, aber die war halt hinter verschlossenen Türen.
00:36:46: Genau, die war interner, konnten wir das nicht machen.
00:36:48: Aber das war auch sehr viel Spaß gemacht, fand ich.
00:36:50: Das würde ich gerne wiederholen.
00:36:52: Manus, apropos Manus.
00:36:55: Also wir haben ja auch mal über Tools geredet.
00:36:59: Im letzten Jahr, da geht es um Webseiten-Genergierung, andere Sachen.
00:37:05: Loveable und wie sie alle heißen.
00:37:06: Da gibt es Replit und haste nicht gesehen, an Tools, die dir möglichen ganze Webseiten, Applikationen, immer was anderes zu bauen.
00:37:15: Das hat mich eine Zeit lang fasziniert.
00:37:18: Ich habe mir die Sachen auch angeguckt.
00:37:20: Das hat natürlich auch so ein bisschen aus Mangel, weil ich jetzt gerade wirklich nicht für meine Anwendungsfälle wirklich brauche.
00:37:25: Habe ich so ein bisschen Adapter gelegt, aber
00:37:29: auch,
00:37:30: weil ich mit so ein, zwei Proms bei Manus voll funktionsfähig schlaufende Applikationen gebaut habe, die gewisse Anwendungsfälle von mir abgedeckt haben, dass ich dachte so, alter Schwede, ich will mich überhaupt nicht mehr mit dem Thema beschäftigen.
00:37:48: welche Art von Dateien, in welcher Struktur so eine Webseite abgelegt sein muss, irgendwas anderes, wenn die KI das schon wirklich, wirklich fast in der Anführungsstriche alleine machen kann.
00:38:02: Ich habe natürlich das Ding nicht Security geprüft und nicht und alles andere.
00:38:05: Ich weiß, die ganze WIP-Coding-Community draußen und die Feinde der WIP-Coding-Community draußen und die die AI-Coding ganz scheiße finden.
00:38:14: Alle werden sagen, ja, das dauert alles noch bis das so richtig kommt und ist funktioniert und da kann man überall einbrechen und hasse nicht gesehen und die security ist nicht gut und der kot ist nicht sauber.
00:38:22: und wenn man was ändern will dann schreiben die dinger den kot immer von null ganz neue und hast nicht gesehen.
00:38:29: aber wenn ich als anwender eine gewisse idee äußern kann und keine drei minuten später einen funktionsfähigen prototypen hatte der wunderbar funktioniert mit anmelde maske über mein google count mit einer Datenbank im Hintergrund, mit dem Bild Upload, der dann funktioniert hat, mit einer weiteren KI, die dann angefragt worden ist, dann ist das schon einfach sehr, sehr stark.
00:38:55: Also das heißt, ich würde sagen, im Jahr im Jahr ist es nicht dran geglaubt, dass man in eine Zukunft reingehen kann, wo man bediebig Anwendung dann wirklich mit simple und prompt machen kann.
00:39:09: Da war im Jahr im Jahr im Jahr im Jahr schon soweit, dass der Rügel gestraft hat und gezeigt hat, dass es geht.
00:39:14: Wir konnten im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr Echt kleine gute Anwendung bauen die.
00:39:19: Vorher nicht so.
00:39:20: da waren die dann kleine Lösungen geliefert haben.
00:39:22: also das ist schon ein bisschen cool gewesen.
00:39:25: Also würde ich ja tatsächlich auch mal was ganz Pragmatisches in den Ringen werfen damit wir mal konkret werden was man da sich beispielsweise bauen kann.
00:39:33: Und damit, wie gesagt, ist man nichts mit diesen Workflows, sondern wirklich, man sitzt da, sei es jetzt in Gemini, mit Canvas oder in Manus und sagt, ich brauch mal was.
00:39:42: Und die zwei Anwendungen hab ich mir gebaut und die verwende ich immer noch sehr regelmäßig weiter.
00:39:48: Das eine ist... In meinem normalen beruflichen Leben mache ich ja ganz viel mit dem ganzen Thema mobilebentwicklung und beschäftige mich auch mit gerätem Management.
00:39:57: Das mag sich jetzt vielleicht ein bisschen trocken anhören, wenn man jetzt mal einen Blick auf Apple wirft, da gibt es ganz viele Dokumente, die werden aber irgendwie relativ spät gepflegt, Beta Software ist da nie drin, aber es gibt ein Gitarreprojekt von Apple, da sind auch immer auch schon die neuen Möglichkeiten im Geräte-Management enthalten für Beta-Version.
00:40:16: Und das ist so ein Github-Projekt, das ist immer so, ja, das sind sogenannte Jammel-Dateien, ich will niemanden langweilen.
00:40:22: Für die verschiedenste, das steht dann quasi drinnen, was kann ich konfigurieren, was bedeutet das, auf welchen Betriebssystem, auf welchen Geräten geht das?
00:40:29: Und jetzt kann man sich die Dateien nehmen und runterladen und machen und tun.
00:40:32: oder man geht hin und sagt, du pass mal auf, das Github, das ist freizugänglich.
00:40:37: Man beschreibt ganz kurz, was wie das aufgebaut ist, damit er sich die Welt nicht komplett neu erfinden muss.
00:40:41: Man sagt, was man vorhat.
00:40:43: Und jetzt habe ich eine interaktive Anwendung, die mir quasi immer zeigt, was das Neues passiert.
00:40:48: Ich kann Betriebssysteme miteinander vergleichen, ich kann Geräte miteinander vergleichen, ich kann beliebige Dinge quasi miteinander vergleichen und kann sogar die entsprechenden Konfigurationen als erteil exportieren lassen, sodass ich in der Lage bin zu sagen, so, jetzt probiere ich das mal auf einem Beta-Geräte aus.
00:41:04: Das fand ich total knuffig, das sieht gut aus, das ist leicht bedienbar.
00:41:08: Da war es vielleicht die ein oder andere Minute reinversenkt worden, was das Thema Prompting für diese Anbindung angeht.
00:41:14: Aber es war da.
00:41:15: Und das Zweite, wir haben es ja schon gesagt, wer es noch nicht mitbekommen hat, ich mag NRDN.
00:41:21: Und bei NRDN stehst du vor dem Thema, wie ich es ja eben sagte, du hast jetzt die tollen Apis von Othropic, von Riverside, von Manos, von haste nicht gesehen.
00:41:29: Eleven Labs mag ich auch, ne?
00:41:30: Eleven Labs.
00:41:31: Und dann stehst du da und denkst, okay, da sind schöner Apis, aber ... Oh, ich habe es auch manchmal entweder keine Lust, mich da durch die AP-Dokumentation zu fräsen.
00:41:42: Da habe ich mir ein kleines, eine kleine Vibegecode der App zusammengetackert und gesagt, du passt mal oberhaft.
00:41:49: Entweder habe ich die AP-Dokumentation als Link als Datei und ich habe keine Ahnung.
00:41:54: Ich möchte, dass du mir meine Aufgabe entgegennimmst, dann wie gesagt entweder die AP-Dokumentation nimmst als Link als Datei oder als Rechercheauftrag und du baust mir dann den entsprechenden JSON-Eintrag, den ich dann in nacht-n kopieren kann.
00:42:09: Und so habe ich dann mir ein Ding gebastelt, da schmeißt du halt dann rein, ich möchte hier PolyG und dies das jenes und dann baut ihr dir quasi Notes, die du dann in nacht-n kopieren kannst.
00:42:19: Ist es perfekt?
00:42:20: Nein!
00:42:21: Aber es hilft mir schon mal ungemein einen ersten Schuss zu wagen, um dann etwas zu haben, an dem ich weiterarbeiten kann, ohne dass ich mir das dann selbst suchen muss, überlegen muss, machen, tun, keine Ahnung was.
00:42:34: Das ist das sind so zwei Dinge, die bei mir tatsächlich nicht mehr zu denken sind.
00:42:39: Ja, und das sind sehr gute Beispiele.
00:42:41: Ich glaube, das ist ja auch noch ein bisschen nochmal Vibe-Coding, vielleicht für die Hörer, die das nicht kennen.
00:42:45: Da geht es wirklich darum, dass ich sage, nur durch ein reines Prompting, programmiere ich irgendetwas, ob das eine App ist oder eine Webseite ist, eine Anwendung ist, das ist mit dem Thema Vibe-Coding.
00:42:56: Also ich muss nicht unbedingt Probleme gemerkt haben, ich muss nicht wissen, was der Markt gerade gesagt hat, dass es irgendwie GitHub irgendwo gibt wo ich Sachen deployen kann, veröffentlichen kann, dass es gewisse Dateistrukturen, dass es unterschiedliche Dateiformate gibt, Konfigationsdateien gibt, Programmiersprachen überhaupt gibt in unterschiedlichster Formen.
00:43:16: Das muss ich da alles nicht wissen, weil das übernimmt dann die Maschine komplett.
00:43:20: Das LMM nimmt einfach meinen Wunsch auf, übersetzt es in Code und versucht eine funktionsfähige App zu bauen.
00:43:28: Und wenn ich dann so ein ganz hardcore WhiteCoder bin, dann würde ich auch die ganze Zeit immer nur weiter Texten und Prompten mit dieser Maschine, um den Code dann hinterher so hinzubekommen, dass ich dann die laufigere Variante von dem auch habe, was ich haben möchte.
00:43:40: Aber, wie Markler beschrieben hat, man kann das natürlich auch super so als Zwischending nehmen, um dann gegebenenfalls erste Schritte dazu mitzumachen oder eben auch der LMM zu sagen, gewisse Teile quasi nur zu Prompten oder bei es gerade wirklich Promptene Teile und das LMM-Code dann gewisse Teile, gewisse Konferenz-Dateien in der Struktur, die ich eben schon vorgegeben habe.
00:44:00: Aber wie gesagt, da hat sich auch echt viel getan.
00:44:02: Da gibt es dann diese Editor-Anbieter draußen, die natürlich so ein bisschen darauf abzielen, das genauso einfach zu machen wie so diese Wik-Editoren, die wir früher mal kannten in der Entwicklung, wo ich dann eben auch Petrack & Drop mir in mich UIs zusammengezogen habe.
00:44:15: In diese Nische gehen dann eher so Anbieter wie Levelbone Co.
00:44:17: eben auch rein.
00:44:18: Die versuchen so ein bisschen sich ganz, ganz speziell als Webseiten-Anbieter, als App-Anbieter darzustellen.
00:44:24: Auch mit Ihren Modellen, die sie dann nutzen, dem Anwender ein bisschen zu helfen, sehr, sehr schnell gute Ergebnisse zu kriegen, die dann auch laufig sind, sicher sind, die man nicht ausräumen kann.
00:44:36: Also da in dem Markt ist auch noch viel möglich, was ich nur kurz sagen wollte, war, mich hat da schon wirklich überrascht, wie weit es doch schon geht mit einem simplen Prompt.
00:44:47: Ich wollte nur eine einfache Anwendung haben und die ist daraus gekommen.
00:44:51: Äh, ich guck mal, dass ich demnächst ja auch mal dann der Öffentlichkeit zeige.
00:44:54: Da muss ich noch ein bisschen herumschrauben.
00:44:55: Wenn ich mal wieder sage, dann über Weihnachten, wenn ich dann mal herumschrauben.
00:44:58: An der App des nicht cool war.
00:45:00: Äh, ja genau.
00:45:00: Wir gehen nächstes Jahr also auf eine Bühne öffentlich und du released ein Stück Software.
00:45:05: Das ist total toll.
00:45:06: Jens, wir hoffen noch mehr über twenty sechs und zwanzig reden.
00:45:09: Du hast es schon angekündigt.
00:45:10: Es wird eine Folge geben, wo wir über zwanzig sechs und zwanzig reden wollen.
00:45:14: Ich würde sagen, wir machen heute mal jetzt einen.
00:45:17: Ja, ein schönes Geschenkpand und ein schönes Geschenkpapier um unsere Folge herum.
00:45:22: Der eine oder andere, der von euch jetzt hier zuhört und denkt verdammte Axt, das ist ja so toll.
00:45:28: Die Tipps, die wir hier hören, die Gespräche, die wir hier lauschen dürfen, das möchten wir auch anderen zur Verfügung stellen.
00:45:35: Dann erzählt ihnen doch gerne, dass es unseren Podcast gibt.
00:45:37: Hinterlasst uns ein Like, hinterlasst uns einen Kommentar, abonniert uns In einem Podcast.
00:45:44: player eurer Wahl.
00:45:45: und damit würde ich sagen Jens auf auf ich höre den Nikolaus.
00:45:48: ja es könnte sein dass wir alle noch in weihnachtlicher Vorstimmung noch irgendwelche Dinge zu erledigen haben und ich würde sagen wir machen heute den
00:45:56: Sack
00:45:57: zu.
00:45:58: In diesem Sinne.
00:46:02: Und am Schluss noch vermerkt, stop, eine Frage war ich noch offen, die sage ich noch ganz am Schluss.
00:46:06: Du hast mich gefragt, welchen Songgenerator wir nehmen.
00:46:09: Da möchte ich den Werdenzuhörerenden empfehlen, die letzte Folge sich noch mal anzuhören, weil da haben wir am Schluss ein paar Bonus Tracks gemacht, die von MusicGPT, Sonos oder Eleven Labs als Musikgenerator mit dem Titel, macht mir weihnachtliche Musik.
00:46:27: zu E-Item präsentiert haben.
00:46:30: Und damit du beim nächsten Mal nicht fuzzeln musst, ist es so noch, so noch ist, glaube ich, der Lautsprechendherrsteller.
00:46:38: Aber das ist ja nicht
00:46:39: so.
00:46:39: Du hast mir meinen Fuzzel geklaut.
00:46:43: Aber du hast
00:46:43: recht.
00:46:44: Ja, ich habe das recht.
00:46:45: Also ich werde dir nicht fuzzeln.
00:46:46: In diesem Sinne.
00:46:47: Jetzt mal wirklich einen Haken dran.
00:46:49: In diesem Sinne.
00:46:49: Schönen Abend.
00:46:50: Schönen Tag.
00:46:51: Wo auch immer, wann auch immer uns hört.
00:46:53: Ciao.
Neuer Kommentar