US Regierung vs. Anthropic // Nano Banana 2 // GPT 4.5 // Autoresearch
- // Podcast
- // News AI 11/26
Shownotes
Wir suchen euch als Speaker:innen für die programmier.con 2026! Wenn ihr einen Vortrag halten möchtet, meldet euch hier: cfp.programmier.bar
Außerdem findet am 9. April unser nächstes programmier.bar Meetup in Bad Nauheim statt. Meldet euch jetzt kostenfrei an.
In der Zwischenzeit trefft ihr die programmier.bar-Crew auch auf der DecompileD- und der DevLand-Konferenz.
Habt ihr außerdem schon unsere Videopodcasts gesehen? Ab sofort könnt ihr die News-Folgen auf YouTube und Spotify als Video ansehen.
Themen dieser Folge im Schnelldurchlauf:
- GPT 5.4 & Computer Use
- Nano Banana 2 (Gemini 3.1 Flash)
- US-Regierung vs. Anthropic
- OpenAI & Department of War
- AutoResearch von Andrej Karpathy
Mehr dazu:
In dieser Folge der programmier.bar AI News werfen wir einen Blick auf die rasanten Entwicklungen der letzten Tage. Während wir uns im Studio fragen, wie lange wir eigentlich noch selbst in die Tasten hauen dürfen, liefert OpenAI mit GPT 5.4 bereits das nächste Schwergewicht ab. Das Modell verspricht nicht nur einen massiven Kontext von einer Million Tokens, sondern bringt mit „native Computer Use“ und einer verbesserten Tool-Search Features mit, die das Zusammenspiel zwischen KI und Betriebssystem auf ein neues Level heben. Wir schauen uns an, was der OS World Benchmark über die Fähigkeiten verrät und wie die Integration in Excel und Google Spreadsheets euren Arbeitsalltag verändern könnte.
Google schläft natürlich nicht und schickt Nano Banana 2 (alias Gemini 3.1 Flash) ins Rennen. Das Modell bietet die Qualität der Pro-Variante zum schmalen Flash-Preis und punktet vor allem durch eine beeindruckende Bildkonsistenz sowie die Integration der Google Bildersuche direkt im Prompt-Flow. Ob für schmale Banner im extremen 1:8-Format oder komplexe Bildbearbeitungen: Die Performance pro Credit wurde hier ordentlich nach oben geschraubt. Fabi teilt seine ersten Erfahrungen aus der Spieleentwicklung mit dem neuen Modell.
Politisch wird es brisant: Die Auseinandersetzung zwischen der US-Regierung und Anthropic spitzt sich zu. Nachdem sich Anthropic-CEO Dario Amodei weigerte, ethische rote Linien bei autonomen Waffen und Massenüberwachung aufzugeben, stufte das Pentagon das Unternehmen kurzerhand als „Supply Chain Risk“ ein. Dass OpenAI in dieser Situation medienwirksam einsprang, sorgte nicht nur für eine Welle von Kündigungen der Pro-Abos, sondern auch für eine hitzige Debatte über die Verantwortung von KI-Labs gegenüber staatlichen Forderungen. Wir rekonstruieren die Chronologie der Ereignisse und diskutieren die Auswirkungen auf die Branche.
Zum Abschluss schauen wir auf Andrej Karpathys neuestes Open-Source-Projekt: AutoResearch. Die Idee, KI-Agenten autonom Experimente durchführen und Trainingsskripte optimieren zu lassen, zeigt beeindruckende Ergebnisse. Innerhalb einer Nacht erzielten die Agenten Performance-Steigerungen, für die menschliche Researcher Monate bräuchten. Ein spannender Vorgeschmack darauf, wie die KI-Entwicklung durch Selbstoptimierung bald exponentiell an Fahrt aufnehmen könnte.
Ressourcen:
- Dennis
- Hallo und herzlich willkommen zu 1 neuen programmier.bar AI News Folge. Kalender noch Kalenderwoche 11. Ja. Grade davor gesagt. Schwerste ist, die Kalenderwoche rauszufinden. Wenn man sie jetzt
- Philipp
- Länder noch
- Fabi
- mal zu sagen.
- Dennis
- Hat man schon gewonnen. Und zwar sind wir in die Kalenderwoche 11 im Jahr 2026. Wir reden heute über 5 Punkt 4, Nanopanana 2 und auch über den die Auseinandersetzungen, die es in den USA gibt mit Entropic und wo mittlerweile auch 'n paar andere involviert sind. Und dann geht es noch OTTOesearch von Andrew Caparthy. Ich bin Dennis Becker, zusammen mit
- Philipp
- mir in der
- Fabi
- in der Studio. Der Fabi Finckerlow und auch der
- Philipp
- Philipp Zajos.
- Dennis
- Moin. Schön, dass ihr wieder dabei seid und 'n bisschen demotivierend im Vorgespräch eben. Solang wir noch arbeiten dürfen, machen wir das gerne. Wer weiß, wie lang das noch der der Fall ist? Aber bevor wir so tief einsteigen und direkt über die Zukunft reden, Lass uns mal ein bisschen leichter einsteigen. GPT 5 Punkt 4 ersetzt uns vermutlich noch nicht komplett.
- Fabi
- Na ja, aber es probiert es zumindest in mehr Disziplin, würde ich sagen. Also es arbeitet stark daran, uns uns zu ersetzen. Genau, also neues Modell von OpenAI, GPT 5 Punkt 4. Zuletzt haben wir GPT 5 Punkt 3 Codex Anfang Februar bekommen. Jetzt einen Monat später sind wir bei GPT 5 Punkt 4. Grundsätzlich kann man sagen, es gibt ein neues bestes Modell an the Block, was die irgendwie angeht. Also eigentlich kann man sagen 5 Punkt 3 Codex, außer dass es jetzt, was die Input Tokens angeht, zumindest noch eine einen Ticken günstiger ist, ist eigentlich GPT 5 Punkt 4 in allen Bereichen besser. Grundsätzlich, wenn man mal drüber schaut, okay, was sind denn die was sind denn die Verbesserungen so, die GPT 5 Punkt 4 mit sich bringt? Das ist eine verbesserte Websearch. Es gibt nativen Computer Use, was das das können wir uns gleich mal drüber unterhalten. Es gibt Tools Search, das Steering hat sich verbessert, also wie man mit dem Modell während dem Chat interagieren kann. Es gibt einen Fast Mode und das Token Kontext Window hat sich auf 1000000 erweitert, was natürlich grade, was Coding Capabilities und zusammen vielleicht auch mit Tools Search wirklich noch mal sehr interessante Veränderungen sind. Vielleicht fangen wir mal kurz an mit diesem, das war für mich irgendwie neu und dann musst Du hier erst mal reinlesen, was genau Sie mit dem Begriff mein so native Computer Use. Im Grunde genommen ist das Modell jetzt darauf trainiert, also vorher konnte ja auch schon im Grunde genommen die Modelle irgendwie Computer bedienen, ne. Wir kennen das wir kennen das Ganze jetzt irgendwie über Playwriter, dass der Browser irgendwie mit Screenshots bedient wird, aber ist nicht so so explizit darauf trainiert worden. Jetzt ist explizit auf eben diese Computer Use trainiert worden. Dafür gibt's auch einen Benchmark, der dafür herangezogen wird, OS World. Also da ist im Endeffekt wird sich angeschaut, wie wie gut können multimodale Agents mit an realen Computer arbeiten, also im Endeffekt das, was wir Menschen machen, Drag and drop klicken. Und da ist es jetzt so, dass die PP 5 Punkt 4 besser ist als der durchschnittliche Mensch, also irgendwie bei paar 70 Prozent und der Unterschied, es ist 'n paar Prozentpunkte, aber ist minimal besser auf diesem Benchmark als der durchschnittliche Mensch. Und im Grunde genommen ändert sich jetzt an sich erst mal nicht so viel, außer dass dass Also sagen wir's mal so, wenn man zum Beispiel schreibt, wenn man sich die Dokumentation von OpenA Air anschaut, okay, sie sagen, was gibt's für verschiedene Integrationen von dieser Computeruser? Wenn ich jetzt 'n Agenten bauen will, ist zum Beispiel ein typischer Use Case wirklich dieses so screenshotbasierte Arbeiten. Also man gibt 'n Screenshot als Input, dann lässt man den dann lässt man das Modell über Tools mit dem mit dem OS interagieren, macht danach wieder 'n Screenshot und diese Evaluierung von Screenshots ist sehr viel besser geworden. Sie haben auch viel zu ihrer Skills Bibliothek, die sie die OpenAI pflegt, jetzt eine Experimental Playright Integration mit hinzugefügt. Also Playright ist auch eine Art, sozusagen die Integration mit Playright beziehungsweise mit dem Browser ist eben auch verbessert. Dafür haben Sie eben diesen Playright Skill auch geschrieben und genau, also so soll es sozusagen grundsätzlich daran besser werden, den den Computer zu bedienen. Mal schauen, was das dann in der Realität in der Realität bedeutet. Ich denk, grade so im Development Kontext ist dieser Playright Skill von Open Air natürlich superinteressant. Und wenn da einfach noch mal die Integration, die Steuerung vom Browser und am Ende auch des OSes besser funktioniert, da haben Sie auch 'n Beispiel dafür, wie man dann Browser oder OS anbietet, OS dann doker basiert, gibt's noch mal in der Dokumentation. Ein Beispiel dazu. Auf jeden Fall sehr coole coole Veränderungen. Mal schauen, wird wahrscheinlich in den nächsten Modellen von allen anderen Anbietern auch nachziehen in diesem Space.
- Dennis
- Kann ich ganz kurz nachfragen, die, war dieses 5 3 nur eine Kodexvariante oder gab's 5 3 praktisch auch für den User im im Chat?
- Philipp
- Es gibt auch eine 5 3 Variante für den User im Chat und zwar GPT 5 Punkt 3 Instant, welche ich glaub vor jetzt 4 Wochen oder so kam. Das hab ich grad noch mal nachgeschaut, weil mich ja Okay. Ich hab mich gefragt, haben die jetzt 5 Punkt 4 Also die haben ja das, sieht ja wieder so aus, als ob die die Capabilities wieder vereinigt haben, sag ich mal 'n bisschen. Also alles, was Codexplicer gemacht hat im Coding Bereich zurück in das die Main Line Modelinie gepackt. Es gibt auch GPT 5 Punkt 4 in ChatGPT, aber die Auto- und Variante in ChatGPT nutzt 5 Punkt 3. Ist dann 5 Punkt 4 und ist dann 5 Punkt 4 pro, welches sieße. Superteure extra Variante von 5 Punkt 4 ist.
- Fabi
- Und ich glaube, dieses g t 5 Punkt 3 Instant powered auch 'n Großteil des von
- Philipp
- Ja, genau. 10 Messages alle 5 Stunden für 5 Punkt 3 für free und plus und Go sind 160 Messages 5 Punkt 3. Und dann bei plus hat man schon die ersten Modelle, aber dann umso mehr Du halt bezahlt, umso mehr bekommst Du dann.
- Dennis
- Ist das jetzt 'n relativ großer BAM oder war das veraltet, dass man da irgendwie noch, wenn man jetzt standardmäßig unpaid GPT genutzt hat, dass dann das noch irgendwie 'n ziemlich altes Modell war mit 4 Punkt 5 oder so? Oder galt das schon nicht mehr in den letzten Wochen?
- Philipp
- Ich glaub, Du hattest 5. Okay. Vor 5 Punkt 3. Okay.
- Fabi
- Vielleicht lieber zu 5 Punkt 4 noch mal allgemein dazu zurückkommen und zu den weiteren. Ich glaub, ein Part ist auf jeden Fall Toolsarch, wo man vorher natürlich gesagt hat, irgendwie 'n Großteil Teil des Kontext wurden irgendwie von Tool Tool Definitionen irgendwie aufgebraucht. Und jetzt mit dem Tool Search gibt's im Endeffekt eine sehr grobe Definition von den möglichen Tools innerhalb des Kontext. Dann gibt's eben dieses Tool search Feature grade auch in der API, dann zu entscheiden, welches Tool für den jeweiligen Kontext eben benötigt wird und sie auf jeden Fall, wenn man jetzt die Beispiele sich anschaut, so im Durchschnitt sehr viel geringere Tokenusage damit haben im Kontext, was natürlich gepaart wird, wir haben jetzt 'n 1000000 Kontext plus die Tools Search erst mal sehr viel effizienter, die überhaupt dieses große Kontext nur genutzt werden kann, aber auch natürlich einen Einfluss auf die Kosten dann dementsprechend hat. Das heißt, da lohnt sich GPT 5 Punkt 4 auf jeden Fall noch mal mehr durch diese durch dieses Tools Search Feature.
- Philipp
- Aber es ist genau, das Gleiche, wie ein auch schon hat. Also dieses Tool Tool, das Ja. Funktioniert genau gleich. Du hast auch, wenn Du deine Tools definierst, hast Du dieses kannst Du auf setzen. Wenn das auf gesetzt ist, dann ist es sozusagen nicht in den Kontext geladen Und dann kann dieses oder kann ChatGPT oder Germani, sorry, GPT dieses Tool nutzen. Und dann bekommt es als Output die Tooldefinition, die zu dem Tool passt. Und dann kann es sozusagen im nächsten Call die neue Tooldefinition geben. Gibt's auch eine ganz gute Dokumentation dazu.
- Dennis
- Und ist das ähnlich der Skills von der Funktionalität? Also die ja auch irgendwie so komprimiert praktisch neue Informationen haben und dann aufgerufen werden. Aber die unterscheiden sich, dass Tools noch mehr eigenen Code erhalten, oder?
- Philipp
- Nee, ich glaub, das ist einfach für die Darstellungsvariante. Also Skills, wenn die, also was ja, den Namen und die Beschreibung hast Du ja immer dabei. In dem Tool Search Tool hast Du nicht immer den Namen und eine Beschreibung, sondern das Modell kann aktiv dieses Tool Search Tool mit 'nem Suchstream, sag ich jetzt einfach mal. Und dann bekommt's eine Antwort, die antwortet ist dann das JSON Schema von dieser von diesem Tool. Also es hat 'n Name, eine Beschreibung und die Funktionsparameter, die es aufrufen kann. Und dann kann das Modell im Folgecall das nutzen oder nicht.
- Dennis
- Okay. Alles klar. Und noch eine Frage, gibt's irgendwie unterschiedliches Pricing, was die Kontextgröße angeht? Oder ist das gleich, weil irgendwie bei bei Cloud oder ist ja so, dass irgendwie bis zu 200000 ist es praktisch ein Pricing und dadrüber dann ein anderes.
- Philipp
- Ist das, weißt Du, ob
- Dennis
- das bei GPD aus ist?
- Philipp
- Ich hab nachgeschaut am Release, der wird's mich auch interessiert hat. Damals hab ich nichts gefunden. Also ich hab einfach nur Pricing drin für das Ganze.
- Fabi
- Ja, ich hab in 'nem anderen Beitrag dazu, also in in 'nem
- Dennis
- Ah, Ah, jetzt hast Du gesagt,
- Philipp
- auch gerade gesagt.
- Fabi
- Hab ich gesehen, bei 400000 mein ich soll, ist die Grenze, aber ich hab sie jetzt auch. Hast Du sie, weil ich hab bei den Compar Models ist es bei mir nicht drin.
- Philipp
- Ich hab einfach angegeben und ab 272000 Kontext hast Du, also wenn Du da runter bist, hast Du 2 Dollar Input, 15 Dollar Output. Das ist das, was wir, sag ich mal, bisher schon kennen von der Vorgängerversion auch, glaub ich, ungefähr. Wenn Du über diesen 272000 Token Input bist, bist Du bei 5 Dollar Input und 22.5 Dollar Output. Also Input ist 2 x, Output ist 1.5 x.
- Fabi
- Das ist, glaub ich, 'n bisschen anders auch bei OpenAI als bei 'ner modernen Bildern, weil da ist, glaub ich, dann typischerweise alles two x, ne. Ich glaub, OpenAI hat dann Output nicht ganz so stark
- Philipp
- Ja. Erhöht
- Fabi
- wie wie Input an der Stelle.
- Philipp
- Und bei dem bei der Pro Version bewegen wir uns dann bei mehr Quanttext bei 60 Dollar Input und bei 270 Dollar Output.
- Fabi
- Nicht gleich. Das macht Spaß.
- Dennis
- Aber es ist halt sowieso die Frage, ne, wie relevant, also keine Ahnung, bei Claude zahlen ja die wenigsten jetzt irgendwie die tatsächlichen Tokenpreise, ja oder bei den anderen. Ah, genau.
- Philipp
- Ich glaub, ich will das nicht unterschätzen, wenn Du im
- Dennis
- Okay.
- Philipp
- Enterprise Bereich bist, wo Du dann wahrscheinlich nicht so einfach eine hast oder wenn Du die Modelle Also ich mein, Cloud gibt's ja jetzt mittlerweile auf Azure, auf Google Cloud und auf Amazon. Da gibt's ja keinen Max Plan, sag ich mal. Ja, okay. Gibt's ja bei Azure jetzt ja auch. Da hast Du ja nicht diese Subscription oder ich glaub Developer, die halt irgendwie Codecs oder Cloud Code nutzen, nutzen viel diese Subscription.
- Dennis
- Aber ich hab, also ich
- Fabi
- ich hab ja auch meinen Cloud Code. Ich hab mir keinen Max Subscription kurz, sondern ich mach's auch über Open Router, weil ich's bei mir ist so, ich hab, wenn ich's mal nutze, nutze ich's intensiv und dann bin ich immer an die Grenze vom anderen Plan gestoßen. Aber insgesamt komm ich eigentlich nicht über die 200 Dollar, weil ich eben nicht jeden Tag nutze. Also ich bin Ja, ich
- Philipp
- glaub, Du musst dann 'n bisschen an deiner Produktivität arbeiten.
- Fabi
- Ja, das muss ja nicht jeder
- Dennis
- Code entwickeln. Ich lasse ihn entwickeln.
- Fabi
- Ich bin ich bin mal in der Linie, der man seinen Job verlieren wird.
- Philipp
- Ja, ich mein, mit der Einstellung definitiv.
- Dennis
- Ja, manchmal, also ich, nun uns Kontakte und da kann man sich auch anzeigen lassen, was es halt sonst kosten würde, als obwohl's eine ist. Und teilweise letztens hab ich 'n Feature gemacht, da war ich bei 580 Dollar. Das fand ich dann schon viel so Und war ganz happy, dass man das nicht so abrechnen muss und nicht drum
- Philipp
- Wie, weißt Du, wie lang Du ungefähr für das Feature gebraucht hättest, hättest Du selber entwickelt?
- Dennis
- Ja, also ich sag nicht, dass das dass das unwirtschaftlich ist und falsch. Aber also bei mir vielleicht schon, weil ich jetzt nicht an unsere Produkten an unseren Hauptprodukten arbeite, sondern eher irgendwelche Side Projects mache, die jetzt nicht die die große Relevanz haben. Da wär's noch mal härter, diese Entscheidung zu treffen für für unsere Hauptprodukte, würd ich sagen, ja, es ist wahrscheinlich rentiert sich trotzdem. Aber das
- Fabi
- heißt dann, bist Du häufiger dann in das Limit dann gekommen, selbst trotz Max Plan oder wie kommen die 580 Dollar zustande, wenn Du nicht denkst?
- Dennis
- Nee, das ist praktisch nur die Anzeige, was es über die API kosten würde. Also es sind einfach nur die Token mal die die Kosten.
- Fabi
- Genau. Aber ich Ja, trotzdem ist es anders, dass Du da nicht an die Grenze kommst.
- Philipp
- Ja, es gibt drüber Abonnenten, dass Du zwischen zwei- und 5000 Dollar pro Monat bekommst bei Cloud Max. Also für den 200 Dollar Plan, je nachdem, wann Du's nutzt und so und wie viel Dollar
- Fabi
- da ist, aber Vielleicht lassen wir noch ein paar zu Ende mal bei 5 Punkt 4, die ich noch nicht genannt habe so. Also ich hab mir auch schon in sonem Recap und Ausblick für dieses Jahr gesagt, es soll sehr viel mehr in Business Use Case gehen, unter anderem ist ja alles, was jetzt irgendwie Productivity im Bereich mit Spreadsheets, Präsentationen und so was geht. Und im
- Dennis
- Endeffekt
- Fabi
- hat OpenAI jetzt noch mal ChatGPT 4 Excel auch announct und grundsätzlich den Support, also das Modell ist grundsätzlich besser mit Spreadsheet Präsentationen und generell Dokumenten. Dafür haben Sie einerseits ChatGPT4xcel als die Native Integration released. Sie haben aber auch Skills rausgebracht. Also es gibt den Spreadsheet Skill, den man jetzt nutzen kann, mit Excel Dateien zu interagieren, wenn man nicht dieses ChatGPT vor Excel nimmt. Und Sie haben auch, das Ganze wird's auch für Google Spreadsheets geben. Also Chat GPT vor Google Spreadsheets, aber das haben Sie jetzt bisschen und ist noch nicht ist noch nicht rausgekommen. Genau, aber dafür kann man ja vielleicht, haben wir jetzt heut gar nicht als Thema, aber die Google Workspace CIA ja vielleicht auch ein ganz gutes, ganz gutes Tool noch, dann mit Spreadsheets und so weiter zu interagieren. Aber ich find auch grade dieser Part mit die Integration, mit Präsentationen und so, dass Sie da so viel besser drin geboren sind. Das wird, glaub ich, sehr, sehr interessant. Würd ich gern mal würd ich gern mal ausprobieren, hab ich da nicht geschafft.
- Philipp
- Knowledge Work. Knowledge Work, genau. Was Knowledge Work ist.
- Dennis
- Ja, und dann ist es wahrscheinlich auch so, dass die Spreadsheets vernünftig eingelegt, nicht die Spreadsheets, die präsentations vernünftig eingelegt werden, oder? Weil im Moment ist es ja noch so, also diese diese, zumindest bei bei Google Slides, wenn Du da 1 generierst, ist ja immer noch bildbasiert. Also Du meinst Du
- Philipp
- dann an 'nem Banane? Ja. Nee, aber sowohl, als auch ich mein, German Eye kann das auch mit Skills, on Chat GPT. Die nutzen dann Interfaces, wo Warum
- Dennis
- anders Interface?
- Philipp
- Elemente sozusagen drauf machen kann. Okay.
- Dennis
- Fabi, warst Du fertig? Mich.
- Fabi
- Ja, ich war fertig. Vielen Dank.
- Dennis
- Speaking of Banana, da gab's auch eine neue Version.
- Philipp
- Genau, und zwar gab's Banano Banana 2 beziehungsweise Gemini 3 Punkt 1 Flash Image Preview. Also die Banano Banano Banano Modelle sind ja eigentlich nur Gemini und das ist der Marketingame, der sich da durchgesetzt hat. Genau, es gibt 'n neues Modell, 3 Punkt 1 Flash, das ist sozusagen der Nachfolger von dem ersten Nanobanana Modell. Ich glaub, die einfachste Beschreibung ist, man hat ungefähr die Qualität von dem Pro Modell zu 'nem Flash Preis. Also man hat die Kosten einiges reduziert. Im Bild kostet jetzt 500 mal 500 Pixel 4 Cent. 1000 mal 1000 Pixel sind 6 Cent. Es gibt verbesserte Bildqualität, also wenn ich Bilder generier mit Menschen drin oder 'n Bild als Input hab und dann soll der irgendwann, also dass halt einfach die Konsistenz bleibt. Und I 18 n Text Rendering, also gerade wenn ich, sag ich mal, in den asiatischen oder kyrillischen Raum schau, da ist halt einfach das Rendering von Text auf Bildern auf irgendwelchen anderen Dingen viel, viel besser ist. Supporter die gleichen, sag ich mal, Formate als alle anderen Bananobananamodelle. Also ich kann Bilder und Text hinzufügen. Es wird auch gesagt, Moment, lass mich nachschauen, es man kann 5 Charaktere und 14 Objekte als Einzelprompt mehr oder weniger bereitstellen, die man dann kombinieren kann oder bearbeiten kann. Es gibt eine neue Auflösung mit 2840 und 4096. Und was ganz, ganz cool ist, find ich, für mich zumindest, das hab ich's auch am meisten bisher genutzt. Man hatte bisher bei 'ner und 'ner ja die Möglichkeit, Google Suche zu nutzen. Das heißt, wenn ich irgend einen Prompt gemacht hab, hat das Modell im Hintergrund irgendwie Google Suche gemacht, einfach 'n besseren Kontext zu bekommen. Jetzt gibt's aber auch Bildersuche. Das heißt, wenn ich irgendwie sag, hey, bitte, ich erstelle 'n neues programmier.bar Logo und da setze das Grün durch Blau, kann das Modell im Hintergrund auf Google Suche, das programmier.bare Logo raussuchen, hat dann dieses Bild in seinem Kontext und kann dann dieses Bild nutzen, es zu bearbeiten, dann wirklich die Genauigkeit zu bekommen. Was schon ein sehr cooles Feature ist, wenn ich, also einfach für alltägliche Dinge, dass ich nicht immer erst das Bild zu selber suchen muss und hochladen, sondern einfach halt viel mehr in diesen natürlichen Flow reinkommen. Es gibt unendlich viele verschiedene Aspekt Ratios. Also ich hab jetzt 1 zu 1, 1 zu 4, 4 zu 1, 3 zu 2, 2 zu 3, 3 zu 4, 4 zu 3, 4 zu 3, 4 zu 5, 5 zu 4, 9 zu 6, 16 zu 9
- Fabi
- Bitte alle vorlesen, bitte.
- Philipp
- 21 zu 9. Aspect ratios. 1 zu 8 Jetzt wiederholen's nur 1.
- Fabi
- Noch mal Du, noch mal Du im Kanon und danach steig ich 1. Zu
- Philipp
- Das, ich glaub, das die die die neueste ist 1 zu 8 und 8 zu 1. Das ist dieses ganz schmale Vertikale.
- Dennis
- Neue bei Google Form son Header bauen können. Ist wahrscheinlich der Use Case gewesen.
- Philipp
- Ich weiß es nicht. Also ich find's auf jeden Fall cool. Ja. Genau.
- Dennis
- Du hast jetzt die ganze Zeit immer im Vergleich gesagt, was mir noch 'n bisschen schwerfällt, ist das im Vergleich zu Nano Banane oder zu Nano Banane Pro? Gibt's noch irgendein oder eine einfache Frage vielleicht, gibt es irgendeinen Grund, Nano Banane Pro zu nutzen?
- Philipp
- Also von dem, was ich selber gesehen hab und selber getestet hab und wie ich's versteh, nicht wirklich. Weil einfach, wir kennen oftmals ist das erste Bild vielleicht nicht das, was ich möchte und ich brauch 10 Generationen oder 2 Edits oder so was. Und dadurch, dass das Modell halt, ich glaub, es ist die Hälfte, aber ich kann noch mal kurz nachschauen. Ja, es ist also, wenn
- Fabi
- wenn vergleichen, da hab ich 30, was 18 Credits, also bisschen mehr, minimal mehr als die Hälfte, was Preis angeht.
- Philipp
- Genau. Das heißt, ich kann einfach doppelt viele Generationen machen für das, was ich vorher konnte. Ja, aber vielleicht als
- Fabi
- Beispiel dazu, Dennis, weil wir sind ja grade bei unseren GM 9 Games, die wir entwickeln, sehr stark AR Imagegetrieben unterwegs und wir haben sehr viele Flows, wo wir ein Bild über mehrere Stages iterieren wollen, also sozusagen die Konsistenz 1 Bildes gleich behalten wollen, nur bestimmte Bereiche 1 Bildes editieren wollen. Und da merk ich auf jeden Fall, dass Nano Banana 2 dafür nicht brauchbar ist im Vergleich zu Nano Banana Pro, dass es sehr gut macht, wo am Ende dann doch über mehrere Generierungen bestimmter Abweichungen in dem Bild entstehen. So, also ich find die Output alle, wenn ich sie so bewerte, ohne dass ich sie in unserem Flow bewerte, find ich Nano Banana 2 wirklich supergut, was Qualität und so angeht. Aber da merk ich, also wie gesagt, wir haben so Flows, wo dann ändern nur diesen einen Bereich in dem Bild. Das das geht dann über mehrere Schritte und da schafft Nano Banana 2 nicht eine ausreichende Konsistenst, die zu haben. Also auf dem Niveau, wo ich sagen würde, wär das der aktuelle Stand, könnten diese Flows gar nicht machen. So, also Nano Banana Pro, Nur jetzt nach den Erfahrungen, die wir jetzt damit haben, auf jeden Fall dann noch mal eine Ecke besser, was jetzt diese Konsistenz angeht, einfach nur dieselbe Bild Konsistenz zu halten.
- Philipp
- Und API Pricing ist genau die Hälfte. Also
- Fabi
- Okay. Drauf.
- Dennis
- Ja. Okay, spannend. Das war jetzt, glaub ich, das erste Mal, dass ich son Thema recherchiert hab für die News und irgendwie meine Wow. Das erste Mal 'n Thema hatte sonst was. Auf der Stelle solltest Du noch nicht unterbrechen. Und also erstens ist auch richtig in dieser, oh Gott, in dieser Fülle ist ist jetzt Erwartung auch auch nicht. Also ich hab jetzt, ich wollte eigentlich sagen, was mich irgendwo, wo ich nicht danach Hype war, sondern was mir tatsächlich 'n bisschen Sorgen gemacht hat. Und eigentlich bin ich ja eher derjenige, der sagt, ach komm, Jolo, lass alles machen und es ist richtig geil, was da alles kommt und versuche die ganzen Sorgen, die die Leute haben, irgendwie zu argumentieren, dass alles keine Sorgen sind. Aber hier ist jetzt son bisschen dann auch meine Grenze, wo ich sage, na ja, ist schon irgendwie bisschen weird, wenn man das alles liest, wie da die Strukturen sind und wer da mit wem redet. Grundsätzlich wollten wir hier mal 'n bisschen aufarbeiten, was in den Nachrichten war zu Pentagon beziehungsweise US Regierung versus Anthropic, was da passiert ist. Ich hab das mal versucht, 'n bisschen noch mal in der Zeit in der Timeline zu bringen. Am am Ende kann man eigentlich sagen, also schon seit vielen Monaten arbeiten die großen AI Anbieter in den USA eben auch mit der Regierung zusammen. Und ich glaube, da der der Sonder Case ist sozusagen noch mal, dass man da unterscheiden muss, dass es so und, also Bereiche gibt, ja, also in der Regierung einfach so, hey, wir können AI nutzen, irgendwelche Dinge zu tun. Das ist dann das. Und sobald es halt irgendwie in militärische Zwecke et cetera gibt, gibt's da komplett eigene Systeme, die von allem anderen getrennt sind und die classified sind und wo son Modell natürlich dann auch irgendwo besonders ausgerollt werden muss, weil's halt in 'ner komplett eigenen Umgebung läuft und und praktisch nicht mehr mit der mit der Außenwelt kommuniziert. Das tun die eigentlich alle, also haben da unterschiedliche Verträge. Anthropic war mit Cloud relativ groß eben auch dabei. Und irgendwie sind die dann son bisschen eskaliert die Gespräche beziehungsweise der CEO von Anthropic, Dario Amoday, hat gesagt, so ist es irgendwie für ihn sind eine Grenze, da sind 2 konkrete Sachen genannt worden. Einmal, dass vollautonome Waffen da AI für genutzt wird und dass Massenüberwachung der eigenen Bürger, dass das etwas ist, das gegen ihre ethischen Regeln verstößt. Und die Regierung hat praktisch gefordert, dass sie die AI so freischalten soll, dass praktisch kein, dass es da keine, also keine keine Guardrails gibt praktisch und die AI einfach alles macht. Und da Vielleicht
- Fabi
- nur kurz dazu, weil es grad so klang, als als wären das jetzt neue Redlines, die sozusagen von den Tropic da kamen, sondern das das sind ja die, die ursprünglich, als sie dann als die Verträge ausgenommen wurden, diese beiden Redlines gab's. Die gab's ja schon in der Biden Administration und eben jetzt auch unter Trump. Also mit die, dass man ja die, die bisher immer Bestand hatten, keine autonomen Waffen und keine Massenüberwachung der eigenen Bürger. Also jetzt nicht was Neues, was er sich jetzt ausgedacht hat, Daria Monday.
- Dennis
- Ja, okay. Aber also er hat darauf bestanden, dass diese, bereit, dass sie bleiben und das wollte das das wollte das Department of Defense oder Department of War, je nachdem, welche Welle man liest, wollte das eben öffnen. Genau. Genau. Und wie die Trump Regierung das anscheinend gerne mal macht, ist es eben versuchen, Druck aufzubauen und den eigenen Willen trotzdem umzusetzen. Und deswegen am siebenundzwanzigsten Februar hat dann PTACSF gesagt, hey, passt auf, wenn ihr das nicht anpasst, dann werden wir euch einordnen in der Kategorie. Und das ist eigentlich etwas, was gesetzlich irgendwo verankert ist, aber dafür gedacht ist, dass ausländische Unternehmen eben nicht aus Cypersecurity Richtlinien irgendwo in diese ganzen Systeme integriert werden dürfen, weil es eine Gefahr darstellt für für die USA. Das ist natürlich schon mal jetzt fraglich, okay, ist das das Richtige, ne? Weil das ist jetzt nicht das Herrn Thurbric gesagt hat, wir würden jetzt gern irgendwas Böses machen oder irgendwas in unserer Meinung machen, sondern einfach nur, wir machen nicht das, was ihr einfach sagt, was wir machen sollen. Und genau, dann am dritten März wurde es dann tatsächlich vom Pentagon bestätigt und die haben einen Brief rausgeschickt. Dann hab ich gesagt, hey, pass mal auf, ihr seid jetzt darunter klassifiziert, immerhin in Anführungsstrichen, nur in dem Rahmen, dass es dort in diesem Bereich nicht eingesetzt werden darf. Also das heißt, normale Kunden sozusagen von Anthropic durften weiter oder dürfen weiter AI nutzen. Trump hat dann auf Social Media noch hinterher geschossen und hat seine Regierungsmitarbeitenden aufgefordert, Claude nicht mehr zu nutzen. Und ja, also das war praktisch ein offener Streit und dann kam OpenAI die Ecke, die natürlich irgendwie auch schon, wie gesagt, alle dort irgendwo auch involviert sind und dort die zur Verfügung stellen und haben gesagt, Open AI kann das machen. Wir springen da rein und wenn ihr jemanden braucht, dann macht ihr's gerne. Und das wiederum gab dann auch wieder 'n riesen öffentlichen Ärger, weil dann alle gesagt haben, hey, wie kann denn, wie könnt ihr euch denn da so verkaufen und nicht an diesen Grundlinien irgendwo bereithalten. Und Sam Oldman, also erst mal vielleicht von der Größe noch so in den 48 Stunden danach sind ungefähr 1500000.0 Subscribers, die dann Open AI gecancelt haben, weil die ja gesagt haben, okay, das wollen wir nicht unterstützen. Gab auch intern, also es Name grade vergessen, aber der Head of Robotics, den Open Air beschäftigt. Sie hat gesagt, so, da geh ich auch nicht mit und hat dann gekündigt. Also hat relativ große Wellen geschlagen. Und immerhin dann auch dazu führt, dass Sam Oldman auf auf Ex geschrieben hat, so, hey, ich glaube, das war ein Fehler, da so überschnell zu reagieren und einfach zu sagen, ja komm, wir machen das alles und das dann noch an da irgendwie einem Tag alles abzuschließen, hätten wir nicht machen sollen. Und wir sind jetzt in Gesprächen, das Ganze noch mal ein bisschen klarer zu formulieren. Also er wollte praktisch so im Nachhinein, nachdem sie gesagt haben, ja hier, nutzt unsere AI und Go, jetzt doch noch mal sagen, ja, ganz so einfach ist es nicht und ihr müsst euch ja schon an ein paar Regeln halten, die's so die's so insgesamt gibt. Es sind super, also ist nicht so richtig klar. Die Aussagen, die's dazu gibt, ist son bisschen bisschen weird. Also das hat er irgendwie montags, letzte Woche Montag auf auf Ex gepostet. Am Dienstag gab's dann son All Hands Meeting, was sie was sie bei OpenAI hatten. Teilweise hörte sich's da dann schon wieder 'n bisschen anders an, so von wegen, okay, also eine Aussage war unter anderem, ne, also wir helfen mit unseren Modellen und vielleicht nerven die Sicherheitsmodelle son bisschen die Regierung, aber das wird irgendwie 'n 'n Teil sein. Und wenn wir's nicht tun, dann wird es, und dann hat er auch sogar genannt, vermutlich XAI geben, die einfach Sachen, die sagen, ja komplett egal, ihr könnt alles machen, was ihr wollt mit dem Modell. Und von daher son bisschen dargestellt, dass irgendwie alternativlos wäre, da kompletten Zugang zu geben. Und ja, auch wenn es für mich immer noch schwer so zu greifen ist, zu welchem Part, ne, also weil beispielsweise auch der der Übergriff der Venezuela eben jetzt klar gesagt wurde, okay, da wurde Anthropic AI genutzt, ne, das zu planen und zu machen, kann ich mir immer noch nicht genau, also welche Prozesse jetzt davon dann, ne, von von Modellen übernommen werden und und dabei helfen, welche Parts das irgendwie letztendlich sind, ist ist noch 'n bisschen schwer rauszulesen und und kriegt man wahrscheinlich auch nicht so genau. Ja, trotzdem krass, dass es halt diese diese Verknüpfung damit hat und auch son anderer Kommentar dann irgendwie macht. Er hat sich in die Situation versetzt, so gedacht, ja, was wär denn jetzt irgendwie, wenn die USA angegriffen worden wären oder wenn irgendwelche biochemischen Attacken gewesen wäre und sie hätten halt nicht die Modelle zur Verfügung gestellt, ne, sich verteidigen zu können, dass das son bisschen eine Motivation war auch, dort zu sagen, hey, wir wir müssen uns unterstützen.
- Fabi
- Ja, Verteidigungsfall und die Redlines haben ja erst mal
- Philipp
- Ja, ja, ja,
- Fabi
- sie verraten Dinge so.
- Philipp
- Ich glaub, was man vielleicht noch dazu sagen kann, ist, dass zwischen Antropic wurde als supply Chain risk eingestuft und Open Air hat 'n Vertrag gemacht, waren's ja irgendwie 24 Stunden. Und innerhalb der 24 Stunden hatte ja auch Sam Oldman gesagt, so von wegen, er steht hinter Dario oder hinter Antropik und in den den Grenzen, die die da gezogen haben. Und dann haben sie ja sozusagen den Vertrag gemacht und seitdem ist es ja komplett, nicht komplett, aber sehr, sehr intransparent, was dann wirklich in diesem Vertrag drinsteht, weil es gibt widersprüchige Aussagen und ich mein, jeder kennt's 'n bisschen alles, was son bisschen mit Verträgen und anwaltlichen Dingen zu tun hat, da kommt es sehr genau darauf an, wie man Dinge formuliert hat. Und die Formulation, die man halt mitbekommen hat, ist halt nicht dieselbe wie Bayern Troppic.
- Dennis
- Sonst hätte ja auch wahrscheinlich nicht die US Regierung Genau. Ja genau, das machen wir. Also da wird ja was anderes dringestanden haben und er hat ja auch irgendwo zugegeben so, ja scheiße, wir hätten vielleicht mal mehr als 'n paar Stunden darüber nachdenken sollen, was wir da reinschreiben, aber wir versuchen's jetzt im Nachhinein noch zu drehen und das reinzumachen. Richtig. Vielleicht bevor wir die Meinung gleich, also interessant, was ihr dazu sagt, noch ganz kurz zum restlichen Timeline, weil noch 'n paar Sachen kamen. Also am fünften Dritten, nachdem sie dann dieses supply Chain Risk war, sind sie dann eben auf sone Blacklist auch gekommen von dem die Parpenofle Defense, dass es halt nicht mehr genau nicht mehr eingesetzt werden kann. Und am sechsten Dritten, also haben zumindest Google und Microsoft erklärt so, sie arbeiten weiter mit Cloud zusammen, also dass sie jetzt nicht irgendwo diese Dienste rausnehmen und Cloud nicht mehr anbieten, sondern weiter hinter ihnen stehen. Und trotzdem hat auch Herrn Trumpbre gesagt so, ne, dass das natürlich 'n Riesenschaden, auch für sie jetzt schon war. Also irgendwo ein Großkunde, der über eine 100 100000000 Dollar Auftrag ging es da, sei im im Zuge dessen abgesprungen, dass sie also schon konkret beziffern können, dass mehrere 100000000 sind, die die sie dadurch nicht mehr als Aufträge haben, unabhängig von dem Auftrag der US Regierung. Und am neunten Dritten hat Ant Thurpic jetzt auch noch geklagt gegen dieses gegen dieses Blacklisting von sich selbst. Und genau, er ist jetzt in in California in in ja in Kalifornien mit 2 Klagen dagegen vorgegangen und hat auch von, ich hatte kein Latein, aber ein, vielleicht. Das ist ein, irgendwann son rechtlicher Begriff, der so angehängt zu einem Rechtsfall, wo man eigentlich nichts mit dazu tun hat, können Parteien eine Meinung dazusteuern. Und einen solchen Brief gab es jetzt von einigen Forschern aus dem AI Umfeld, auch von Leuten von Google und ich glaub auch von Microsoft, die halt gesagt haben, hey, da müssen wir wirklich aufpassen, weil es halt so die Gefahr hat, dass eine AI Labs, die da draußen sind und in Sachen arbeiten, dann halt sehr vorsichtig restriktiver werden, wenn sie halt davor Angst haben müssen, irgendwie von dem von der Regierung dann unterdrückt zu werden oder ausgebutet zu werden, wenn sie halt nicht das machen, was was Trump und seine Leute gerne von ihnen hätten.
- Fabi
- Und vielleicht vielleicht vielleicht noch als Kontext son bisschen zu diesem Supply Chain Risk. Du hast gesagt, ja eigentlich eher für ausländische, vielleicht nur noch klar, zumal, das gab's ja noch nie gegen ein US Unternehmen, ne. Also ein Tropic ist erste US amerikanische Unternehmen, für die dieses supply Chain Risk überhaupt genutzt worden ist, so also einfach nur
- Dennis
- Also ich glaub, da ist die Einschätzung relativ klar, dass das also einfach nur irgendeinen Legal Tool halt genutzt, was ihnen grade eingefallen ist, wo sie irgendwo das mit hätten haben wollten können.
- Fabi
- Genau. Also erst mal 'n Weilchen geht, bis Sie halt erfolgreich dagegen klagen. Also ich glaub, das wär ja sehr komisch, wenn Sie da nicht durchkommen mit dieser Klage. Ja.
- Philipp
- Ja, Borten. Auf jeden Fall 'n schwieriges Thema. Ich find's, ja, ich bin froh, dass wir dann in der EU manchmal langsamer sind, manchmal aber auch nicht, aber ja.
- Fabi
- Ich mein, und es ist ja so interessant, ne. Ich glaube wahrscheinlich, mich würde wundern, wenn's überhaupt jemanden gibt, der sagt, dass diese beiden Redline Cidario Amodeyda aufgezogen hat beim ursprünglichen Vertrag mit dem Department of Defense, dass da irgendjemand sagen würde, die machen keinen Sinn. Also zu sagen so völlig autonome Waffen so, es muss mindestens in den Human in the Loop geben und keine Master Valence. Das ist ja, würde ich mal sagen, Common Sense, wenn man sagt, das macht Sinn so und ist schon ist es schon verwunderlich, dass Sam Ortman da so reinrushen. Wir hatten's ja wieder mal, ich mein, wir haben's doch vor 3 Wochen auch diskutiert son bisschen, ne, wie trete ich öffentlich auf? Was hat es für eine Wirkung? Ist doch wieder son Fall, wo man nicht sagen kann, ja, sorry, tut mir leid, Fehler gemacht so. Bin vielleicht manchmal nicht gut darin zu wissen, wie man, wie wie die öffentliche Wahrnehmung davon ist so. Also ich bin ganz ehrlich, hab die Entscheidung nicht getroffen, aber eigentlich, ich wollt mir jetzt die Woche darum noch mal Gedanken machen, bin ich eigentlich auch so, dass ich sag so, ich glaub, ich werd ehrlicherweise mit ChatGPT Lizenz auch kündigen. Also ich find den Move, der ist schon echt irgendwie eine Grenze, wo ich denk Und ist halt so schade, dass man nicht genau was drüber weißt, so, ne. Aber das spricht ja auch nicht für Open AI, dass Du nicht so ganz genau weißt. Ich mein, sie haben natürlich auch, es gab trotzdem diesen Artikel da am achtzehnten Februar, wo Sie, ja, es schon sehr verklausuliert sagen, dass Sie grundsätzlich ja auch mit den Guidelines, die irgendwie entropic da aufgemacht hat, beiseitestehen und so, aber so richtig ist es ja trotzdem nicht klar, was wurd jetzt ausgemacht. Man kann
- Dennis
- sich ja gar
- Fabi
- nicht vorstellen, dass innerhalb von 24 Stunden Sie den Vertrag bekommen mit denselben Grundregeln. Also irgendwas muss ja anders sein. Irgendwo müssen Sie ja eingelenkt haben. Warum sind Sie's sonst und dann eben nicht XAI? Ja.
- Dennis
- Ja, diesmal bin ich dabei. Ich glaub, das letzte Mal wollt ich ihn noch 'n bisschen mehr verteidigen und sagen, ey, dreh mal nicht jedes jedes Wort im Mund wenn Du da auf irgend 'ner Bühne sitzt.
- Philipp
- Glaube aber, dass das ganz schnell in Vergessenheit geraten wird, wenn da nicht mehr drüber gesprochen wird und die Menschen vergessen das. Und in 2 Monaten reden weniger Leute darüber und dann wird wahrscheinlich auch von den, sag ich mal, verschiedenen verschiedenen Departments oder Open Air eventuell weniger geteilt. Und dann werden wir vielleicht irgendwann in der Zukunft mitbekommen, was das bedeutet.
- Dennis
- Ja. Ja.
- Fabi
- Es könnte
- Philipp
- aber hart
- Fabi
- sein, weil deswegen ist ja der, was genau, was kann man was kann man groß dagegen tun, außer sich individuell dagegenzustellen? Das ist natürlich die Frage. Aber ich sag mal so, dass Du möglicherweise recht hast, ja, vielleicht ist das gut. Nee, natürlich nicht so. Aber es ist ja 'n bisschen son bisschen, das ist aber interessanter bei allem, was halt so öffentlich in der Öffentlichkeit ausgetragen wird an solchen an solchen Dingen so, ne. Früher, ich mein, früher hast Du davon irgendwie nicht sonderlich mitbekommen so als damals irgendwie, keine Ahnung, wie wär's gewesen, wenn in der heutigen Zeit, wenn irgendwie die Atombombe irgendwie mit dem Manhattan Project in in der jetzigen Zeit mit Social Media und TikTok und was auch immer irgendwie entwickelt worden wäre, wie viel hat man davon irgendwie mitbekommen und wie wär der Dialog in der in der in der Gesellschaft darüber gewesen so? Und ich mein, das kann theoretisch einen ähnlichen Impact haben wie wie das und ja, mal schauen. Muss jeder für sich selbst entscheiden. Ich mein, wir können jetzt erst mal nur einen Teil dazu beitragen, dass wir's einfach nur mal aufarbeiten und teilen, was genau da vor sich geht. Was man daraus macht, wird man sehen, ob es der richtige Move für OpenAIs. Ich mein, OpenAI wird's oder so einige, glaub ich, die nächsten Jahre vor 'n paar Challenges stehen, so was Finanzierung und alles Mögliche angeht. Wahrscheinlich Wir werden sehen.
- Dennis
- Das werd ich auch sagen. Das ist zumindest so ein Gefühl, was man dann natürlich hat, wenn man jetzt sagen würde, okay, die stehen irgendwie über solchen Sachen und sind groß genug, ne. Das wär vielleicht vor 'nem Jahr noch gewesen so, ne, dass sie da irgendwie so die Stellung gehabt hätten, dass sie denken, hey, sie sind der Vorreiter und das wird alles gut. Da hätten sie vielleicht auch 'n bisschen selbstbewusster in solche Sachen reagieren können. Ist für mich natürlich auch auch 'n Grundzeichen, dass also grade mit der Geschwindigkeit dann so was anzugehen, dass halt nicht 'n anderer dann irgendwie die Deal bekommt und das Geld bekommt. Ja. Ja, keinen
- Philipp
- Ich mein, es
- Fabi
- geht natürlich nur andere Inhalte, ne. Ich mein, Daria Moday ist ja auch aufm Kunden da irgendwie Demokrat so. Und ich mein, Open Air, ich mein auch Greg Brockman war ja auch großer Sponsor irgendwie auch von Trump Administration und so. Also da sind ja auch schon einige Gelder geflossen, wo ich sagen würde, Open Air ist grundsätzlich auf jeden Fall der Job Administration auch näher als das Ganze jetzt ein ist. Also vielleicht ist ja unter, kann's ja trotzdem sein, dass sie dieselben Grundlinien haben, aber aufgrund der Verbundenheit vielleicht eine Trump Administration noch gesagt hat, okay, wir müssen jetzt
- Philipp
- dazu es
- Fabi
- hinbekommen, dass OpenAI eher unser unser Partner
- Philipp
- da an der Stelle wird.
- Dennis
- Also Dann ja auch
- Fabi
- noch 'n paar Eindrücke. Nicht besser. Nö, macht's nicht besser.
- Dennis
- Nee, jeglicher
- Fabi
- Gründe. Aber dann werden vielleicht ja trotzdem die Redlines gehalten und das hat eher sozusagen politische Ach so, ja okay. Das ist die Freunde. Gründe.
- Dennis
- Ja. Dafür hat er sich irgendwie, Daria Amanda ja auch entschuldigt, hat er irgendwo gesagt so, wollen wir nicht son Diktator Style Trump anbeten machen? War dann auch 'n Kommentar, die ihm vielleicht im Nachhinein noch mal bisschen arg ja arg heftig war. Aber gut.
- Fabi
- Darreamander hat ja auch gesagt, alles was Sami Out mit deinem, sagt, ne, was Trade up leih, ist einfach ist einfach gelogen, was er erzählt zu dem Deal so. Und es stimmt, wird einfach nicht stimmen, weil es nicht sein kann. Wir werden sehen, also wirst Du nicht bestimmt das letzte Mal sein über dass wir uns darüber unterhalten. Genau, was man daraus zieht, kann sich jeder persönlich überlegen. So, ich mein, das Schöne ist und das wiederum, OpenA hat nicht mehr 'n Vorteil, das Schöne ist, man ist auch 'n, man hat aktuell keinen so großen Nachteil, aber zu sagen, gut, dann nutz ich halt OpenA eigentlich mehr. Da sind im Moment ist genug Alternativen da draußen, die mindestens genauso gut sind, auch wenn grade das per Benchmark de facto beste Modell vielleicht GPT 5 Punkt 4 ist. Aber ich glaub, man kann es verkraften, weil da ist man vielleicht 2 Wochen hinten dran. Das ist richtig. Weiß nicht, ob
- Dennis
- ich die Frage stellen will, aber habt ihr irgendwie eine Idee, also wenn jetzt so gesagt wird, jetzt auch im Iran Krieg wurde AI genutzt? Also ist das einfach nur eine pauschale Aussage so? Oder gibt es in eurer Vorstellungskraft irgendwas, mein, dafür hab ich überhaupt, ja, keine Ahnung, befras ich mich zu wenig mit Krieg allgemein, mir jetzt irgendwie genau sagen zu können, was es ist. Aber hättet ihr irgend eine Idee, was da AI jetzt Ja, ich
- Fabi
- mein, da ist multimodal, ist egal ein so, was wie Satellitenbilder auswerten, so. Also keine Analyse von Satellitenbildern kann ich mir vorstellen, also alles, was irgendwie Planungslaps irgendwie angeht, ne, aber
- Philipp
- ich mein, Bilderkennung gab's ja schon vor. Ich glaub, es ist schwierig zu wissen, weil wir ja gar nicht die Prozesse kennen, ja. Ich mein, wenn's in diesen Prozesse auch Formulare gibt, die man ausfüllen muss und Texte schreiben muss, dann ich mein, Ja, ja. Ist
- Fabi
- das So, ich weiß es nicht.
- Dennis
- Ja, aber ich ich kann gleich weiß ich ja irgendwie so, Trump sitzt da. Ja, ich glaub, so ist es nicht. Ich hoffe, wahrscheinlich. Ich frag irgendwie, was was die Ebene ist. Aber ich will mal, ich
- Fabi
- mein, grundsätzlich, dass Du da den Use Case hast, so Massenanalyse von Daten irgendwie und wenn's auch Textdateien oder so was sind so und
- Dennis
- ich
- Fabi
- mein, wenn's einfach nur ist, den den Arbeitsalltag da supporten, also dass es an irgendeiner Stelle eingesetzt wird, ja, das ist jetzt den Impact, also dass dieser, also dass dass im Endeffekt es überhaupt gemacht haben, bestimmt nicht, aber
- Philipp
- Mhm. Wo jetzt ich
- Fabi
- mein, dafür bin ich auch zu sehr zu wenig drin in, wo Du sagst, gerade Philipp Image m l und so, was sie was sie da jetzt schon vorher eingesetzt haben und Bilderkennung, was jetzt die die leading multimodalen LLMs da an der Stelle besser machen oder vielleicht auch nicht. Keine Ahnung, aber dass Sie's bestimmt auch als Tool im Toolset einsetzen werden, bestimmt. Wird es das einzige Tool sein ausm Machine Learning Bereich? Bestimmt auch nicht.
- Dennis
- Gut, ist Ort for Research 'n schöneres Thema, Philipp?
- Philipp
- Ist doch wieder anders eingesetzt. Es ist auf jeden Fall 'n sehr, sehr interessantes, kleines Thema, was uns 'n kleinen Funken gibt wahrscheinlich, wo die ganze, ich glaub, KI Forschung hingehen würde. Ich glaub, es geht auch mit in dieses, also ich glaub, alle von uns haben dieses Szenario auf Youtube gesehen, wie KI Entwicklung immer schneller wird und irgendwann exponential wird. Und in diesen Theorien kommt ja dieses Exponentiale von, die KI oder die LLMs entwickeln sich selber besser und trainieren sich ja dann selber ohne irgendwie 'n Human in der Loop oder 'n Mensch, der die ganzen Experimente ausführen muss. Und Andrew Capati hat vor 2 Tagen, einen Tag, ja, irgendwann in diesen letzten 48 Stunden, sag ich mal, auf Twitter 'n kleines Open Source Projekt vorgestellt, was sich nennt. Die Idee, sag ich mal, ist jetzt nicht komplett neu, aber es hat einfach für sich gemacht. Ist mehr oder weniger 'n Tool, wo 'n Agenten eine Art Instruktion oder 'n Programm hat. Es gibt 'n Trainingskript, das der Agenten ausführen kann und bearbeiten kann und dann gibt es 'n. Und der Gedanke hinter, sorry, ist, dass man per E Agenten nutzt, die dann selber Experimente durchlaufen lassen. Und mit Experimenten mein ich wirklich, das Training Skript verändern, die Hyperparameter verändern, andere Methoden benutzen, aber nicht die das Datensatz beziehungsweise die jeweils verändern und einfach so versuchen, 'n möglichst bestes Ergebnis zu erzielen. Und Otto Research ist auch wirklich relativ einfach in dem Open Source Repository. Es gibt ein, welches wirklich komplett flat File alles enthält, ein CT2 Modell trainieren zu können. Das heißt, die Modeldefinition, die wie die Learningrate zusammengesetzt wird und alle anderen Details und wie der Loop halt läuft. Es gibt ein Programm dot m d, das ist dieses diese Instruktion, die er selber geschrieben hat, die dann mehr oder weniger Agenten einfach sagt so, hey, Du machst selbstständig Experimente in hast Du, kannst Du halt das verändern. Du musst das und das machen, Du musst es durchführen. Wenn das Ergebnis gelaufen ist, kannst Du halt so das Ergebnis wieder rausziehen. Wenn es fehlschlägt, besuche es ein-, zweimal zu beheben und dann lass Du viele Experimente laufen wie möglich. Speicher die alle in 'nem tsv File, also nicht tsv, aber dasselbe nur mit Tabs getrennt, weil LLMs gerne Kommas generieren und dann deswegen CSVs kaputtgehen. Und die Idee dahinter ist, wenn 'n Experiment läuft und in dem Fall ist es einfach nur Pre Training von dem Modell, das heißt einfach den nach unten gehen. Wenn der kleiner ist als der vorherige, dann und fügt eine Beschreibung hinzu, was Du gemacht hast. Wenn der schlecht ist als der vorherige, dann desgarde den und denk an eine neue Idee. Und das wirklich Coole daran ist, find ich, er hätt das halt einfach über die Nacht gemacht und hat gesagt irgendwie, in den 2 Tagen hat er ungefähr 700 Change durchgeführt. Und das Modell hat einige Dinge gefunden, die halt wirklich die Performance gedrückt haben. Und im Groben ist es von, also er er hat ja dieses Experiment mit Nanochet, wo er versucht, möglichst schnell das GPT-to-Level zu erreichen. Und die Verbesserungen, die in Autoesearch jetzt gekommen sind, haben es von 2 Stunden und 2 Minuten auf beziehungsweise 2.02 Stunden auf 1.8 Stunden runtergedrückt, also 11 Prozent besser. Und einfach nur, weil es komplett autonom über 2 Tage einfach für sich selber versucht hat, eine bessere Trainingsmethode zu finden. Und was dann noch wirklich zusätzlich dazukommt, Tobi Lütge, also der ist Shopify CEO, ist ja auch relativ aktiv, was so das Ganze KI Hacken angeht mit so Open Source Projekten. Und er hat das gesehen, hat dann mehr oder weniger Stein Agenten gesagt so, hey, schau dir Open Research an und er stell mir 'n gleiches Konzept aber für mein Expansion Modell, also
- Fabi
- Auto Research meinst Du das gesagt?
- Philipp
- Ja, sorry, Auto Research. Ja. Er hat einfach gesagt, hey, hier ist Auto Research, macht dasselbe für mein Modell. Und 'n Modell kennen die meisten wahrscheinlich noch von Rug, dass ich halt irgendwie eine eine hab wie, wär die letzte Europameisterschaft geworden und das Query Expansionmodell nimmt dann DC Query und erstellt mehrere Querys, die ich dann gegen meine Vektordatenbank laufen lassen kann. Und er hat das einfach auch machen lassen und er hat über Nacht dann in dem Fall 19 Prozent besseren Score mit 'nem 800000000 Parameter Modell erreicht. Und vorher hat er ein 1600000000.0 Parameter Modell genutzt. Also ist zwar sehr, sehr kleiner Scope, aber es zeigt son bisschen, wo's hingehen kann. Und was ich vor allem persönlich superinteressant find, ist dieses den Flurhut erhöhen. Also ganz viele auch in den Kommentaren haben irgendwie gesagt, so 700 Experimente ist das, was 'n durchschnittlicher Researcher im Jahr schafft, also so 2 bis 3 am Tag. Und das macht halt der Agenten jetzt über Nacht klar, es ist irgendwie random, was er da macht. Und vielleicht hast Du als Mensch 'n bisschen bessere Intuition, aber das ist ja erst so der der kleine Schritt, wo es eventuell hingehen kann, wenn wir's irgendwie skalieren und in die andere Richtung gehen. Und er geht davon aus, dass vor allem die ganzen AI Foundation Labs halt sehr viel Zeit und Ressourcen da rein investieren werden, das halt wirklich mehr autonomer zu gestalten und eventuell machen die das ja auch schon. Ich mein, wir wissen das gar nicht. Aber schon allein das Beispiel von Tobi zeigt für mich, dass es etwas ist, was wahrscheinlich auch jeder Individuelle oder Unternehmen bereits jetzt schon nutzen könnte, wenn ich einfach zu Cloud Code oder Codex oder Gemini, wie auch immer, sag, hey, hier ist dein dein Forschungsplan, dein Programm, das wollen wir optimieren. Ich hab hier 'n Set und bitte find das beste Modell, die beste Methode und ich lass es einfach 2 Tage laufen und komm dann zurück zu 'nem besseren Modell oder ich hab 'n relativ schnell bewegendes Business, wo ich jeden Tag extrem viele neue Daten hab, kann ich ja mehr oder weniger immer über Nacht, wie man früher halt Bad Jobs gemacht hat, halt dieses dieses autonome Research bisschen vorantreiben, wo dann mehr dynamisch ist als einfach nur 'n Workflow, wo ich das Modell immer genau neu trainiere.
- Fabi
- Ja, superinteressant auf jeden Fall. Ich mein, es war ja dieses, bei einem diesen exponentiellen Beispiel war dieses AR 20 20 seven, ne, wo Sie auch genau von diesem Case geredet haben, dass dann im Endeffekt Researcher ersetzt werden durch das Modell selbst und ich weiß ja auch, zumindest der Part mit so, Government schaltet sich ein und hat irgendwie, will Mitspracherecht bei der Modelldefinition haben so. Wissen wir doch an einem ähnlichen Punkt, wie eine Air twenty twenty seven genannt wird. Also zumindest ein wenig anders, aber in denselben Domain.
- Philipp
- Ich ich würd's auf jeden Fall damit experimentieren. Also wenn ihr irgendwie einen oder so habt und im Bereich irgend 'n Klassifizierungsmodell oder irgendeinen superspeziellen domainspezifischen Use Case zu schauen, wie es wie es funktioniert und wie es an die Lösung herangeht.
- Fabi
- Und ist ja wirklich, also ich mein, was Du noch mal sagst und mit diesen Planefiles ist ja wirklich, also da ist das ist jetzt keine große Komplexität an Code oder irgendwas so, ne. Also es ist schon sehr, sehr interessant so, diese. Ist ja interessant, ja. Da fragt man sich immer, woher der diese ganze Zeit nimmt.
- Philipp
- Der. Ja. Ich glaub, der macht nichts anderes aktuell.
- Fabi
- Ja, oder was ist denn aus seinem, was ist denn aus seinem Start-up eigentlich geworden? Bist super Safe intelligence? War das super Safe intelligence? Ist das Nein,
- Philipp
- nein, das ist das ist Das ist a,
- Fabi
- das ist die CTO von OpenAI gewesen, ne?
- Philipp
- Nee, CTO war Thinking Labs Thinking Machines und das andere war von ILIA, war auch
- Fabi
- Ach stimmt.
- Philipp
- Von der und der
- Fabi
- Android of US Learning gemacht, ne, eigentlich. Genau, aber Hat man nix mehr gehört, seitdem
- Philipp
- Merkt genießt Du auch einfach die Zeit. Ich weiß es nicht.
- Fabi
- Ureaca Labs war's.
- Philipp
- Ja.
- Fabi
- Ja, stimmt, 24, seitdem hat man nicht mehr wirklich was gehört. Best AI Kurs.
- Dennis
- Ja, vielleicht. Na ja gut.
- Fabi
- Dann hat er vielleicht wirklich genug Zeit, so Sachen zu machen. Aber cool, dass er's macht.
- Philipp
- Er war Mitgründer bei OpenAI und war ganz lange bei Tesla, bis wo die durch die Decke gegangen sind. Ich glaub, finanziell geht's ihm nicht so schlecht.
- Dennis
- Nee, aber ich meine, es ist aber wieder auch nicht die einzige Motivation.
- Fabi
- Ja. Und gerade auch nicht für jemanden wie ihn oder in so 1 Phase sich zurückzuziehen würde jetzt, würde ich als untypisch sprechen.
- Philipp
- Ja, ja, aber auch vielleicht
- Fabi
- ja nicht zurück, ne.
- Philipp
- Genau, vielleicht möchte er halt einfach kein Unternehmen gründen und hat vielleicht gemerkt, hey, Education ist 'n schwieriges Thema, weil wir uns viel zu schnell bewegen, sondern nicht, teste halt 'n bisschen rum.
- Dennis
- Ja. Ja. Cool. Vielen, vielen Dank euch beiden. Unsere Hörer*innen noch der Hinweis, unser nächstes Meet-up findet statt am neunten April. Und da hatten wir ja schon eine Podcast Folge mit Julia, die bei Github Slash Microsoft arbeitet, wo es Janecheck Coding geht. Mit Sicherheit auch noch mal 'n paar spannende Diskussionen und das Thema, wenn wir dann hier sind, neunte April in Büttauheim. Wenn ihr Lust habt, vorbeizukommen, sonst immer Feedback gerne zu dieser Folge oder auch gerne eure Meinung zu den Themen, die wir gesprochen haben. Falls ihr denkt, wir sehen da was zu wenig zu stark zu wenig stark, wie auch immer. Gebt gerne mal Feedback, was ihr da draußen so denkt an Podcast at Programmier Punkt bar. Und sonst wünschen wir euch beiden. Fabi, Du bist eigentlich, weil ich hab eben, als Du das war auch noch auf, Du hast son Sommerhemd an, weil Du son Urlaubsmodus bist. Bist Du in 2 Wochen bei den eigenen In
- Fabi
- 2 Wochen bin ich, nee, da bin ich Skifahren. Also hab ich kein Sommerhemd hoffentlich an. Heißt, da seid ihr mal eine Folge ohne mich.
- Dennis
- Okay. Dann versuch ich mich mal ausnahmsweise vorzubereiten.
- Fabi
- So ausnahmsweise wie heute, meinst Du? Ja. Die Ausnahme zum Nagel machst Du dann.
- Philipp
- Genau. Genau.
- Dennis
- Macht's gut, die beiden.
- Fabi
- Bis bald. Dann. Tschüs. Tschau.