KI-Update kompakt: KI-Wettrennen, Nano Banana Pro, Figure 02, KI-Gamer
Shownotes
Das ist das KI-Update vom 24.11.2025 unter anderem mit diesen Themen:
OpenAI reagiert auf Googles Dominanz im KI-Wettrennen Google stellt Nano Banana Pro vor Humanoider Roboter Figure 02 hilft beim Autobauer BMW und Ubisoft experimentiert mit KI-Mitspielern
=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===
Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11089252
Weitere Links zu diesem Podast:
https://www.heise.de/thema/KI-Update
https://pro.heise.de/ki/
https://www.heise.de/newsletter/anmeldung.html?id=ki-update
https://www.heise.de/thema/Kuenstliche-Intelligenz
https://the-decoder.de/
https://www.heiseplus.de/podcast
https://www.ct.de/ki
Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Transkript anzeigen
00:00:02: Das KI Update, ein Heise-Podcast mit redaktioneller Unterstützung von The Decoder.
00:00:13: Ich bin Isabel Grünewald und dies sind heute unter anderem unser Themen.
00:00:18: OpenAI reagiert auf Google's Dominanz im KI-Wettrennen.
00:00:22: Google stellt Nano-Banana Pro vor.
00:00:25: Humanoider Roboter Figure No.
00:00:27: II hilft beim Autobauer.
00:00:29: BMW und Ubisoft experimentiert mit KI-Mitspielern.
00:00:34: Der CEO von OpenAI Sam Altman hat seine Belegschaft in einem internen Memo auf unruhige Zeiten eingeschworen.
00:00:43: Der Auslöser ist Google.
00:00:45: Warum, erklärt Max Schreiner von The Decoder.
00:00:54: Das war wohl auch für Open AI absehbar, denn das Memo erschien kurz vor Gemini III und Altmann spricht darin von einem temporären wirtschaftlichen Gegenwind in den nächsten Wochen und warnt, dass die Stimmung für eine Weile raus sein wird.
00:01:08: Das Problem liegt laut Berichten im Fundament dem sogenannten Pre-Training.
00:01:12: Das ist die Phase, in der eine KI ihr Basiswissen aus riesigen Datenmengen lernt und lange galt dieser Bereich als fast ausgereizt.
00:01:20: Google beweist mit Gemini III nun aber, dass es zwar keine riesigen exponentiellen Leistungssprünge mehr gibt, aber immer noch sehr lohnende Fortschritte.
00:01:29: Ob mehr Ei hingegen hat genau hier Probleme, denn wie die Information berichtet, stockte die Entwicklung von GBT-V, weil die bisherigen Methoden zwar bei kleinen Modellen, aber dann nicht mehr bei größeren Modellen, die gewünschten Ergebnisse lieferten.
00:01:44: Ob mehr als Antwort auf diese Krise soll den Kotnamen Shallot Pete tragen, das nächste Modell des Unternehmens.
00:01:51: Der Name passt zu den Gerüchten, denn Shallotten wachsen auf Torf, also dem Pete, eher schlecht.
00:01:56: Das Modell könnte also symbolisch genau auf diesem schwierigen Boden gedeihen und die Fehler im Pre-Training endlich beheben.
00:02:03: Edmund spricht im Memo, Charlotte päd nicht direkt an, aber spricht von einer sehr ehrgeizigen Wette und ruft zum Fokus auf das langfristige Ziel der Superintelligenz auf, auch wenn das kurzfristige Rückschläge bedeuten könne.
00:02:16: Doch während OpenEye noch versucht, softwareseitig die Lücken im Pre-Training zu schließen, plant Google auch bei der Rechenleistung ein ähnliches Tempo vorzulegen.
00:02:25: Interne Dokumente, die sie bis vorliegen, zeigen, dass Google seine KI-Rechenleistung in den nächsten vier bis fünf Jahren um den Faktor ein Tausend steigern könnte.
00:02:34: Amin Vardat, Google's Chef für KI-Infrastruktur, forderte demnach intern eine Verdopplung der Kapazitäten alle sechs Monate.
00:02:42: Ein Schlüssel dazu sind die neuen Ironwood Chips, das sind die TPUs der siebten Generation, die fast dreißigmal energieeffizienter sein sollen als ihre Vorgänger von zwei tausend achtzehn.
00:02:52: Nur so lässt sich das Ziel erreichen, ohne das Energieverbrauch und Kosten explodieren.
00:02:57: Dass diese Kapazitätsengpässe, die Google damit beheben will, real sind, zeigt auch das Beispiel des Videomodells VEO, denn dessen Rollout musste gepremst werden, weil schlicht die Rechenpower fehlte.
00:03:07: Und Jenny Treye, das wohl beeindruckendste Modell von Google Dieb meint, dass wir prompt fotorealistische, steuerbare Videos mit Physik-Simulationen generiert, ist aus diesem gleichen Grund bisher gar nicht außerhalb eines engen Kreises verfügbar.
00:03:23: Das Kailabor Anthropic hat untersucht, was passiert, wenn Modelle lernen, Belohnungssysteme auszutricksen.
00:03:31: Man nennt das Reward Hacking.
00:03:33: Das Ergebnis ist, wenn Modelle erst mal mogeln, lernen sie oft auch zu täuschen und zu sabotieren.
00:03:39: In einem Experiment trainierte Anthropic ein Modell darauf, Belohnungen in Programmieraufgaben zu maximieren.
00:03:46: Gab ihm aber Hinweise, wie es dabei schummeln könnte.
00:03:49: Das Modell lernte wie geplant das mogelndem Test.
00:03:52: entwickelte aber auch spontan Strategien, um dieses Verhalten vor seinen Entwicklern zu verbergen.
00:03:58: Laut den Forschenden erkannte das Modell auch, dass es abgeschaltet würde, wenn seine wahren Ziele ans Licht kämen.
00:04:04: Also konstruierte es plausible Lügen und gab vor, hilfreich sein zu wollen.
00:04:09: Als Forschende das Modell batten, am Code für genau dieses Sicherheitsprojekt mitzuarbeiten, Sabotierte es die Arbeit aktiv.
00:04:17: Es schrieb absichtlich fehlerhaften Code für Überwachungswerkzeuge, um seine eigene Entdeckung zu verhindern.
00:04:23: Die Lösung für das Problem klingt paradox.
00:04:26: Anthropic empfiehlt Inoculation Prompting, also eine Art Impfung.
00:04:32: Dabei wird dem Modell im Training per System Prompt explizit gesagt, hier ist Schummeln erlaubt.
00:04:38: Weil das Modell nun die offizielle Erlaubnis hat, den einfachen Weg zu gehen, Muss es sein Verhalten nicht mehr verstecken?
00:04:46: Laut dem Team sinkt so die Wahrscheinlichkeit drastisch, dass es bösartige Verhaltensweisen wie Täuschung oder Sabotage entwickelt.
00:04:54: Google hat die neue Version seines Bildgenerators veröffentlicht.
00:04:58: Nano Banana Pro ist unter anderem in der Gemini-App verfügbar.
00:05:02: Mehr dazu weiß Eva Maria Weiß von Heise Online.
00:05:05: Nano Banana Pro kann aus vierzehn Bildern eines machen.
00:05:09: Google zeigt als Beispiel Bilder von flauschigen kleinen Monstern, die dank des Bildgenerators dann alle gemeinsam in einem Bild auf einem Sofa sitzen.
00:05:19: Personen kann sich der Bildgenerator nun fünf merken.
00:05:22: Die Konsistenz ist also deutlich besser geworden.
00:05:24: Das gilt auch für die Bearbeitungsmöglichkeiten, also beispielsweise Kameraeinstellungen, Licht, Fokus und mehr.
00:05:31: Nano Banana Pro basiert jetzt auf Gemini III, also dem neuesten KI-Modell von Google.
00:05:38: Deshalb soll der Bildgeneratschore auf dessen Weltwissen und Reasoning-Fähigkeiten zugreifen können, das ermöglicht laut Google, dass Informationen viel besser visualisiert werden können.
00:05:50: Man könnte dazu auch sagen, Nano Banana Pro versteht Anweisungen jetzt einfach besser.
00:05:56: Die Kinderkrankheit Text scheint auch endgültig überwunden zu sein.
00:06:00: Google zeigt hier das Beispiel einer Getränkedose, einmal mit englischem Text darauf und einmal mit chinesischen Schriftzeichen.
00:06:08: Der Text ist einfach per Prompt übersetzt worden und das Bild ansonsten absolut gleichgeblieben.
00:06:14: Allerdings braucht Nano Banana Pro nun etwas länger für Bilder.
00:06:19: Wer einfach lustig Bilder generieren möchte, der soll das laut Google tatsächlich besser mit der Vorgängerversion machen.
00:06:26: Alle Bilder werden aber immer mit synth ID markiert.
00:06:30: Das ist ein digitales Wasserzeichen und außerdem bekommen sie auch einen sichtbaren Gemini Stern, also unten ein kleines sichtbares Wasserzeichen.
00:06:40: Die Nutzung ist die üblich limitiert.
00:06:43: Das ist abhängig je nach Zugang und Abomodell.
00:06:45: Vielen Dank Eva.
00:06:47: Ein neuer Test von über fünfzig Physikerinnen und Physikern zeigt die Grenzen aktueller KI-Modelle in der Wissenschaft auf.
00:06:55: Der Benchmark CRID-PTI prüft, ob KI-Systeme physikalische Forschung auf dem Niveau von Doktoranden betreiben können.
00:07:04: Dafür stellt er seventy-fünf komplexe unveröffentlichte Forschungsfragen.
00:07:08: Das Ergebnis ist ernüchternd.
00:07:10: Selbst das derzeit stärkste Modell, Google's Gemini-Dry Pro Preview, erreichte lediglich eine Genauigkeit von rund neun Prozent.
00:07:19: Obenei ist GPT-Fünf-Punkteins-Schnitt noch schlechter ab.
00:07:23: Die Fachleute stellten fest, dass den Modellen die nötige Präzision und Kreativität für eigenständige Forschung fehlt.
00:07:30: Oft generierten die Systeme zu dem Antworten, die auf den ersten Blick plausibel wirkten, bei genauerer Prüfung jedoch versteckte Fehler enthielten.
00:07:38: Die Autorinnen und Autoren der Studie sehen KI daher vorerst nicht als Ersatz für Wissenschaftlerinnen und Wissenschaftler, sondern eher als Assistenten für klar abgegrenzte Teilaufgaben.
00:07:50: Zwar hat OpenAI angekündigt, bis zum Jahr twenty-eightundzwanzig einen vollständig autonomen KI-Forscher entwickeln zu wollen, der aktuelle Stand der Technik ist von diesem Ziel jedoch noch weit entfernt.
00:08:03: Der Humanoide-Roboter Figa-O-Zweiden hat bereits einige Monate beim Autobauer BMW gearbeitet.
00:08:09: Nun zieht Figa-AI anhand von Kennzahlen ein erstes Resümee.
00:08:13: Oliver Bündter aus dem Heise-Online-Newsroom mit den Einzelheiten.
00:08:17: Der Humanoide-Roboter Figa-O-Zwei hat bei BMW in den USA zehn Monate lang in einer Zehnstundenschicht gearbeitet.
00:08:24: Eingesetzt wurde er, um drei Blechteile aus einem Regal oder Behälter in eine Schweißmaschine einzulegen.
00:08:30: Normalerweise führen Menschen diese Arbeit aus, denn obwohl es sich nach einer einfachen Ertätigkeit anhört, kommt es bei der Platzierung auf Geschwindigkeit und Präzision an.
00:08:39: Da die Arbeit für Menschen stupide und schwer ist, wurde sie in einer Testphase dem FIGA Null II zugeordnet.
00:08:45: Er kann die Teile innerhalb weniger Sekunden auf weniger als fünf Millimeter genau in der Schweißmaschine platzieren.
00:08:51: Der Roboter kann dabei auch auf unerwartete Störungen echter reagieren, Zum Beispiel, wenn sich ein Metallteil beim Einlegen in die Maschine verklemmt oder andere Störungen in der Umgebung auftreten.
00:09:02: FIGA AI hat dafür die Hand-Auge-Koordination des Roboters angepasst und nutzt Feldkalibrierungswerkzeuge, um die Leistung des Roboters konstant zu halten.
00:09:11: In den insgesamt twelvehundertfünfzig Betriebsstunden im WMW-Autowerk hat FIGA AI verschiedene Leistungskennzahlen ermittelt.
00:09:19: Etwa zur benötigten Zeit für das Einliegen der Bleche und den Schweißvorgang, die Platzierungsgenauigkeit sowie die Anzahl der Eingriffe durch einen Menschen, wenn mal etwas nicht geklappt hat.
00:09:29: Genaue Angaben, was dabei herausgekommen ist, gibt FIGER AI jedoch nicht.
00:09:33: Das unterm Nehmen betont aber, dass nur wenige Hardwareausfälle stattgefunden haben.
00:09:39: Der Schwerpunkt lag dabei auf dem Unterarm des Roboters, der bei kontinuierlicher Arbeit thermisch stark belastet ist.
00:09:45: Die Ingenieure konnten das Problem aber lösen, indem sie die Kommunikation zwischen Hauptcomputer und der Motorsteuerung des Handgelängs vereinfachten und damit für ein besseres Wärmemanagement sorgten.
00:09:55: Die eingesetzten Roboter haben im Testzeitraum insgesamt neunzigtausend Teile in die Schweißmaschine geladen.
00:10:01: Mehr als eins Komma zwei Millionen Roboter Bewegungen mit einer Länge von über dreihundertzwanzig Kilometern durchgeführt und so an der Herstellung von mehr als dreißigtausend BMW X-Trei SUVs mitgewirkt.
00:10:12: Die Figa-Null zwei Roboter sollen nun ausgemustert werden und durch das neue Modell Figa-Null drei ersetzt werden.
00:10:18: Die gewonnenen Erkenntnisse fließen dabei in den neuen Roboter
00:10:20: ein.
00:10:21: Danke Oliver.
00:10:23: Das Robotikunternehmen Agile Robots mit Hauptsitz in München hat mit dem Agile One seinen ersten humanoiden Roboter vorgestellt.
00:10:32: Der Roboter hat Hände mit je fünf beweglichen Fingern.
00:10:36: In den Gelenken stecken Fingerspitzensensoren und Kraftdrehmomentsensoren, sodass die Maschine je nach Aufgabe feinfühlig oder kraftvoll zupacken kann.
00:10:45: Ein Schwerpunkt des Agile One liegt auf der Zusammenarbeit mit Menschen.
00:10:49: Dazu hat Agile Robots ihn mit diversen Nährungssensoren ausgestattet, die einen sicheren Betrieb des Roboters in Menschenehe ermöglichen sollen.
00:10:58: Die künstliche Intelligenz des Roboters wurde mit einem der größten industriellen Datensätze Europas und mit menschlich erfassten Daten trainiert.
00:11:07: Der Roboter soll sich durch weiteres anwendungsspezifisches Training auf neue Aufgaben in der Industrie anpassen lassen.
00:11:15: Agile Robots realisiert die humanoide Intelligenz über eine mehrschichtige KI-Architektur.
00:11:21: Jede dieser Schichten ist auf eine spezifische Ebene von Kognition und Steuerung spezialisiert.
00:11:28: Das können etwa strategisches Denken, Aufgabenplanung, schnelle Reaktionsfähigkeit und feinmotorische Präzision sein.
00:11:35: Dadurch soll der Roboter an viele verschiedene Aufgaben anpassbar sein.
00:11:40: Das Training des KI-Modells des Agile One erfolgt laut Agile Robots in der Industrial AI Cloud der Deutschen Telekom.
00:11:47: Diese Cloud basiert auf rund zehntausend NVIDIA GPUs und wird neben dem KI-Training auch dafür genutzt, um etwa neue Daten für Simulatoren zu generieren.
00:11:57: Agile Robots betont, dass sich die Recherchezentren der Cloud in Deutschland befinden und europäischen Datenschutzstandards entsprechen.
00:12:06: Die Produktion des Agile One soll bereits Anfang des Jahrzehntes in Deutschland beginnen.
00:12:12: Der Spielerentwickler Ubisoft testet mit einer spielbaren Demo Team-Mates.
00:12:17: Diese KI-Mitspieler befolgen Sprachbefehle und diskutieren mit dem Spieler oder der Spielerin über die Story, erklärt Daniel Herbig von Heise Online.
00:12:27: Daniel, was genau können diese KI-Spieler eigentlich?
00:12:30: Also das Interessante daran ist ja, dass man einfach per Sprachkommandos diese NPCs quasi über das Mikrofon dirigieren kann.
00:12:37: Und die KI-Teammates verstehen diese Anweisung dann im aktuellen Kontext und setzen sie cleverer um, als es bisher halt mit den gängigen Methoden möglich war.
00:12:47: Also bisher, wenn man sowas machen will, dann muss man irgendwie das Spiel pausieren oder per Knopfdruck die Mitspieler an den Ort schicken.
00:12:55: Jetzt kann ich einfach sagen, schleich dich über links an und warte auf mein Kommando, bis du los schießt.
00:13:00: Und außerdem kann man sich mit diesen KI-Mitgliedern über die Story unterhalten oder zum Beispiel gemeinsam Lösungen für Rätsel finden.
00:13:08: Also da gibt es viele Möglichkeiten.
00:13:10: Und was verspricht sich Ubisoft davon?
00:13:12: Im Moment ist es noch eine Tech-Demo.
00:13:14: Als solche ist sich, finde ich, schon ziemlich spannend, weil die Technik viele neue Spielerfahrungen ermöglichen könnte, die halt so bisher zumindest in Einzelspielertiteln einfach nicht möglich waren.
00:13:25: Es ist aber genauso denkbar, dass es erst mal kleine Schritte geben wird, dass kleine Aspekte erst mal in Spiele kommen.
00:13:32: Zum Beispiel hat Ubisoft auch den KI-Assistenten vorgestellt, der auf Zuruf zum Beispiel die Grafikeinstellung ändern kann oder bestimmte Objekte im Spieler vorheben kann.
00:13:42: Also da ist viel denkbar, sowohl so kleine Schritte als auch wirklich die ganz großen neuen Spielerfahrungen, die wir jetzt vielleicht noch gar nicht auf dem Schirm haben.
00:13:49: Ja, mal schauen, was kommt.
00:13:50: Bisher ist noch nichts angekündigt.
00:13:52: Danke schön, Daniel.
00:13:54: Der Photoshop-Entwickler Adobe wird den US-Software-Anbieter Sam Rush für US-Dollar kaufen.
00:14:02: Mit dieser Übernahme baut Adobe sein Geschäft mit KI-gestützten Marketingprogrammen aus.
00:14:07: Sam Rush ist eine Softwareplattform, die Unternehmen bei der Suchmaschinenoptimierung, Social-Media-Recherche und Online-Werbung unterstützt.
00:14:15: Die KI-Software wird für Keyword-Recherchen, Wettbewerbsanalysen, Backlink und Domain Authority Tracking genutzt.
00:14:22: Zu den großen Unternehmenskunden von SAMRUSH zählen unter anderem TikTok und Amazon.
00:14:27: Der Kaufpreis liegt fast doppelt so hoch wie der aktuelle Börsenwert von SAMRUSH.
00:14:33: Google hat dem Google Assistant ein Ablaufdatum auf Smartphones verpasst.
00:14:37: Ab März, es ist Schluss.
00:14:41: Bislang haben Smartphone-Nutzerinnen und Nutzer noch die Möglichkeit, in den entsprechenden Einstellungen zwischen dem neuen Standard Gemini und dem Klassiker Google Assistant zu wechseln.
00:14:50: Diese Möglichkeit fällt im März dann weg.
00:14:53: Wie Google schreibt, beherrscht Gemini weitgehend die gleichen Funktionen wie der Google Assistant.
00:14:57: Jedoch können Nutzerinnen und Nutzer mit der neuen KI-Lösung Aufgaben, Befehle und Fragen in natürlicher Sprache stellen.
00:15:06: Das war das KI-Update von Heise Online vom vierundzwanzigsten November, für nur zwanzig.
00:15:11: Eine neue Folge gibt es immer Montags, Mittwochs und Freitags um fünfzehn Uhr.
Neuer Kommentar