KI-Update kompakt: KI-Rechenzentren, Flux 2, KI-Framework MLX, OpenAI-Hardware

Shownotes

Das ist das KI-Update vom 26.11.2025 unter anderem mit diesen Themen:

Amazon pumpt 50 Milliarden in Regierungs-KI-Rechenzentren Blackforest Labs veröffentlicht Bildmodell Flux 2 Apple nennt mehr Details zu KI-Framework MLX und OpenAI will Hardware zum "Reinbeißen"

=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===

Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11092405

Weitere Links zu diesem Podast: https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki

Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.

Transkript anzeigen

00:00:02: Das KI Update, ein Heise-Podcast mit redaktioneller Unterstützung von The Decoder.

00:00:13: Ich bin Isabel Grünewald und dies sind heute unter anderem unsere Themen.

00:00:17: Amazon pumpt fünfzig Milliarden in Regierungs-KI-Rechenzentren.

00:00:22: Black Forest Labs veröffentlicht Bildmodell Flux II.

00:00:26: Apple nennt mehr Details zu KI-Framework.

00:00:29: MLX und OpenAI will Hardware zum Reinbeißen.

00:00:35: Wir beginnen direkt mit einem kurzen Hinweis meiner heißen Security-Kollegen.

00:00:39: NVIDIAs KI-Hart und Software DJX Spark und NEMO Framework sind verwundbar.

00:00:45: Mit NEMO können Entwicklerinnen und Entwickler unter anderem große Sprachmodelle aufsetzen.

00:00:49: DJX Spark ist eine auf KI-Anwendungen spezialisierter Computer.

00:00:54: Im schlimmsten Fall können Angreifer dieses Themen nach der Ausführung von Schadcode in Gänze kompromittieren.

00:01:00: Neue Sicherheitsupdates schließen jetzt mehrere Schwachstellen und sollten umgehend eingespielt werden.

00:01:25: Amazon Web Services baut massiv aus.

00:01:27: Bis zu Fünfzig Milliarden US-Dollar will der Konzern in den kommenden Jahren in KI und Supercomputing-Infrastruktur für US-Regierungsbehörden stecken.

00:01:36: Das ist eine der größten Cloud-Investitionen für den öffentlichen Sektor überhaupt.

00:01:40: Ab Jahrzehntausend soll neue Rechenzentren mit einer Kapazität von einem Kilogramm von einem Kilogramm entstehen.

00:01:45: Das entspricht etwa den Strombedarf von siebenhundertfünfzigtausend US-Haushalten.

00:01:50: Die Infrastruktur wird über drei spezialisierte AWS-Regionen verteilt.

00:01:54: Top Secret für höchst klassifizierte Daten, Secret für geheime Informationen und Gough Cloud für sensible, aber nicht klassifizierte Rechenaufgaben.

00:02:04: Diese Regionen sind physisch und logisch getrennt von der kommerziellen AWS Cloud.

00:02:09: Die Anwendungsfälle sind vielfältig.

00:02:10: Verteidigungsbehörden sollen Satellitenbilder, Sensordaten und historische Muster im großen Maßstab verarbeiten können, um Bedrohungen automatisch zu erkennen.

00:02:20: Forschungsteams könnten jahrzehnte globaler Sicherheitsdaten in Echtzeit analysieren.

00:02:24: Was früher Wochen dauerte, soll künftig in Stunden möglich sein.

00:02:27: Der Zeitpunkt ist kein Zufall.

00:02:29: Die Investition passt perfekt zu Genesis-Mission, die US-Präsident Donald Trump ausgerufen hat.

00:02:35: Diese Initiative soll KI Forschungsressourcen zwischen Regierung, Privatwirtschaft und Universitäten bündeln.

00:02:41: Das Energieministerium wird beauftragt, eine KI-Plattform aufzubauen, die Supercomputer- und wissenschaftliche Datensätze der siebzehn nationalen Laboratorien integriert.

00:02:50: Die Regierung vergleicht die Genesis Mission mit dem Apollo-Programm der späten neunzehnt sechziger Jahre, also dem Projekt, das Menschen auf den Mond brachte.

00:02:58: Ziel ist es, wissenschaftliche Entdeckungen drastisch zu beschleunigen von der Krebsforschung über Nuklearfusion bis zur Halbleiterentwicklung.

00:03:06: Amazon positioniert sich mit seiner Ankündigung als zentraler Infrastrukturanbieter für diese ambitionierte KI Offensive.

00:03:13: Über elf Tausend US-Regierungsbehörden nutzen bereits AWS-Dienste.

00:03:17: Diese Investition dürfte die Dominanz weiter zementieren.

00:03:36: weltweit leistungsfähigste Modell für Programmierung, autonome Agenten und die Computersteuerung.

00:03:43: Opus vier Punkt fünf soll sowohl bei der Recherche, der Arbeit mit Folien als auch dem Ausfüllen von Tabellenkalkulationen besser als der Vorgänger sein.

00:03:52: Überdies hat das Unternehmen neue Funktionen für das Programmierungstool Claude Coat veröffentlicht.

00:03:57: Diese sollen länger laufende Agenten und neue Möglichkeiten zur Verwendung von Claude in Excel, Chrome und auf dem Desktop ermöglichen.

00:04:05: Bei Cloud for Excel wird ein Chat in Microsofts Tabellen-Kalkulationsprogramm integriert.

00:04:11: Mit diesem können dann Informationen über Tabelleninhalte direkt erfragt und bearbeitet werden.

00:04:17: Mit Cloud Opus four Punkt fünf adressiert Anthropics zu den Probleme mit der Sicherheit von KI-Agenten wie böswillige Anwendungsfälle und Prompt Injection-Angriffe.

00:04:27: Laut Anthropics soll das neue Modell mit Prompt Injection schwieriger zu täuschen sein als jedes andere bahnbrechende Modell der Branche.

00:04:35: Vollkommen immun, sei es in das weiterhin

00:04:38: nicht.

00:04:39: Claude Opus, vier Punkt fünf, ist über die Apps von Anthropic, die API und die drei großen Cloud-Ambienter verfügbar.

00:04:47: Die deutschen KI-Modellentwicklerinnen und Entwickler von Black Forest Labs bringen eine neue Modellfamilie für die Bildgenerierung auf den Markt.

00:04:55: Die Flux-II-Modelle sollen hochauflösende Bilder erzeugen und mehrere Referenzbilder gleichzeitig verarbeiten.

00:05:02: Die Veröffentlichung folgt eine Woche nach dem Modell Nano-Banana Pro, an dem sich viele aktuelle Tests orientieren.

00:05:09: Mehr dazu weiß Kim Scheurenbrand von The Decoder.

00:05:12: Die Modelle unterstützen Auflösungen bis zu vier Megapixeln, also etwa im Bereich zwischen zwei K- und vier K-Auflösungen gehen nach Seitenverhältnis.

00:05:21: Nutzerinnen und Nutzer können bis zu zehn Referenzbilder einbinden, um Charaktere, Produkte oder Stile über viele Bilder hinweg einheitlich darzustellen.

00:05:29: Außerdem wurde die Texterstellung überarbeitet.

00:05:31: Das System soll nun verlässlicher mit Typografie, Infografiken und grafischen Oberflächen umgehen.

00:05:37: Technisch kombiniert Flux II ein Sprachbildmodell von Mistral mit einem Rectified Flow Transformer Modell, das eine Modul versteht Eingaben in Text und Bild, das andere Modul setzt diese Vorgaben in eine klare Bildstruktur um.

00:05:50: Ein zusätzlicher Encoder komprimiert und rekonstruiert die Ergebnisse.

00:05:54: Diese Architektur soll das Erzeugung und Bearbeiten von Bildern ermöglichen.

00:05:58: Familie umfasst vier Varianten.

00:05:59: Die Pro-Version richtet sich an Anwenderinnen und Anwender, die eine hohe Bildqualität benötigen und das System über APIs nutzen wollen.

00:06:07: Die Flex-Version erlaubt mehr Kontrolle über technische Parameter.

00:06:10: Und die Dev-Version stellt offene Gewichte bereit und kann lokal ausgeführt werden.

00:06:15: Eine kleinere Open-Source-Version soll später erscheinen.

00:06:18: In einem ersten Vergleich mit unseren Test-Proms wirkt Flugs zwei stabilen und lieferend eine stimmige Umsetzung der Vorgaben.

00:06:25: Danke schön, Kim.

00:06:27: Microsoft's KI-Chatbot Co-Pilot ist nicht nur im Browser oder per App auf dem Smartphone verfügbar, sondern seit Ende Jahrzehnte auch in WhatsApp.

00:06:37: Doch damit wird Mitte Januar Schluss sein.

00:06:40: Denn kürzlich hat Meta-Plattforms die geschäftlichen Nutzungsbedingungen von WhatsApp aktualisiert und dabei die Einbindung von KI-Angeboten von Drittanbietern ab dem fünften Januar verboten.

00:06:52: Externe KI-Chatbots fliegen damit aus dem Messagingdienst.

00:06:56: Nur noch die Konzerneigenen Meta AI wird bleiben.

00:07:00: Denn die Drittanbieter nutzen für ihre KI-Assistenten Business-APIs von WhatsApp.

00:07:05: Diese sind allerdings vorrangig für den Kundendienst per WhatsApp gedacht, eine der Einnahmequellen des Messengers.

00:07:11: Nicht für allgemeine KI-Chatbots.

00:07:14: Doch externe KI-Anbieter haben die Programmierschnittstellen in letzter Zeit offenbar zunehmend dafür genutzt, sodass Metasysteme immer mehr belastet wurden.

00:07:23: Deshalb zieht der WhatsApp-Betreiber jetzt die Reißleine.

00:07:28: Laut einem Bericht des US-Magazins The Information verhandelt Meta mit Google über KI-Chips.

00:07:34: Der Facebook-Konzern könnte demnach Milliarden für Google's TPU-Chips ausgeben und in hauseigenen Rechenzentren einsetzen.

00:07:43: Für Google's TPUs spricht, dass sie vor allem billiger sind als Nvidia-Technik.

00:07:47: Bislang kommen diese Chips vor allem in Googles eigenen Anlagen zum Einsatz, dort können sie auch von der Kundschaft gemietet werden.

00:07:54: Mit dem Verkauf an andere Betreiber großer Rechenzentren würde Google jetzt allerdings direkter in Konkurrenz zu Nvidia treten.

00:08:02: Der Bericht ließ die Nvidia-Aktie abrutschen, woraufhin der Halbleiter-Hersteller ungewöhnlich reagiert.

00:08:08: In einem Beitrag auf dem kurzen Nachrichtendienst X hat Nvidia versichert, sich über den Erfolg von Google zu freuen.

00:08:14: Der Konkurrent habe große Fortschritte gemacht.

00:08:17: Aber bei NVIDIA sei man der Branche eine Generation voraus und verfüge über die einzige Plattform, die jedes KI-Modell ausführen kann.

00:08:25: Im Laufe des Handelstags am Dienstag war der Aktienkurs von NVIDIA zwar stetig gekleckert, konnte die morgendlichen Verluste aber nicht aufholen.

00:08:33: Die Aktie schloss fast drei Prozent im Minus.

00:08:37: Doch das ist nicht der einzige kleine Schuss von Bug.

00:08:40: NVIDIA hat sich auch gegen Vorwürfe des US-amerikanischen Hedge Fund Managers Michael Burry verteidigt.

00:08:46: Er hat das Geschäftsmodell des Hypeleiter-Herstellers mit einem der größten Betrugsskandale der US-Wirtschaft dem Enron-Skandal verglichen.

00:08:55: Im Kern geht es bei der Auseinandersetzung um die Bewertung von Nvidia Deals, bei denen Milliarden in KI-Firmen gesteckt werden, die im Gegenzug das Geschäft von Nvidia stärken.

00:09:05: Angesichts der Warnungen vor einer KI-Blase wird schon länger auf die Problematik das Vorgehens verwiesen.

00:09:12: Barry hat darüber hinaus darauf hingewiesen, dass NVIDIA in großem Umfang eigene Aktien zurückkauft und gleichzeitig mit Anteilen vergütet, was den Preis verwässert habe.

00:09:23: Obwohl es sich lediglich um die Kritik eines einzelnen Investors handelt, hat es NVIDIA offenbar für nötig erachtet, darauf gezielt einzugehen.

00:09:31: In einem Brief an den Investoren hat der US-Konzern versichert, nicht wie einst der Energiekonzern Enron Schulden zu verstecken und Einnahmen künstlich zu übertreiben, berichtet das US-Finanzmagazin Barons.

00:09:45: Apples, Notebooks, Desktops und Workstations eignen sich gut für die Ausführung lokaler KI-Systeme.

00:09:52: Der Schlüssel dafür ist die Software MLX, erklärt Ben Schwahn von der Macklei.

00:09:57: Apple hat Verbesserungen in Mac OS XXII vorgenommen, die die lokale Ausführung großer Sprachmodelle beschleunigen sollen.

00:10:06: So lassen sich wie Erfunderbolt-Fünfflatenzarme Cluster mit bis zu vier Macs aufbauen, die in der Lage sind, auch riesige Sprachmodelle wie Kimi II Finking mit einer Größe von einem Terabyte auszuführen.

00:10:19: Für normaler Enwender ist die Hardware aus vier M-III Ultra Mac-Studios mit fast siebenundvierzichtausend Euro, dann allerdings zu teuer.

00:10:27: Dafür verbraucht sie nur fünfhundert Watt.

00:10:30: Im Rahmen der Arbeit wurde auch Apples KI Framework MLX optimiert.

00:10:34: Es beherrscht nun den Umgang mit dem Neurel Accelerator aus Apples neuen M-Fünf-Schipp.

00:10:39: Die Ausgabegeschwindigkeit des ersten Token soll sich damit bei einem Gewennmodell bis zu Vierfachen lassen.

00:10:46: MLX ist quelloffen und wird von immer mehr lokalen KI-Modellen auf dem Mac verwendet.

00:10:51: Mit der Auslieferung von Mac OS XXII ist im Dezember zu rechnen.

00:10:56: Danke Ben.

00:10:58: Die mexikanische Regierung hat mit dem Barcelona Supercomputing Center eine Vereinbarung über den Bau eines nationalen Supercomputers geschlossen.

00:11:07: Das berichten mexikanische Medien.

00:11:09: Das Projekt soll in dieser Woche offiziell verkündet werden.

00:11:13: Es schaffe das größte öffentliche Hochleistungsrechnersystem Lateinamerika, das heißt es.

00:11:18: Die vorläufigen Rechenkapazitäten werden in Spanien gehostet.

00:11:21: Der Supercomputer soll zunächst zur Entwicklung fortschrittlicher Klimamodelle, zur Analyse von Millionen von Satellitenbildern zur Überwachung der Landwirtschaft, zur massiven Verarbeitung von Daten der Steuerbehörde und des Zolls sowie natürlich auch für das Training von KI-Sprachmodellen für staatliche Institutionen eingesetzt werden.

00:11:42: Noch immer weiß niemand, wie Open AI's künftige Hardware aussehen wird.

00:11:47: Der KI-Konzern investiert jedoch Milliarden, um zusammen mit Ex-Apple-Design-Chef Joni Ive und dessen Firma Love From irgendeine etwas zu bauen.

00:11:57: In einem Interview beim Amazon Collective Demo Day in San Francisco äußerten sich Sam Ordman und Joni Ive jetzt.

00:12:05: Wirklich viele Details gab es dabei allerdings weiter nicht zu hören.

00:12:08: Nach wie vor bleibt unklar, ob die OpenAI-Hardware ein wearable, ein tragbares Gerät wie ein iPhone oder eine zumindest teilweise portable Schreibtischmaschine ist.

00:12:20: Aufbindetei versuchten stattdessen dem Publikum ein Vibe zu vermitteln, soweit wir zu hören, dass die bisherigen Prototypen so gut sind, dass einem die Kinnlade runterklappt.

00:12:30: Man wolle mit der Hardware die Einschränkungen hinter sich lassen, die aktuelle Computer hätten.

00:12:34: Das Design sei dann richtig, wenn man das Gerät ablecken oder anbeißen wolle.

00:12:40: Das sei bei den Prototypen bereits so.

00:12:43: Eif und Ordmann sagten auch, die KI Hardware sei so gedacht, dass sie ein aktiv beitragender werde, dass sie proaktiv ist, aber dabei nicht nervt.

00:12:53: Die OpenAI Hardware soll im kommenden Jahr auf den Markt kommen.

00:12:56: Geplant ist danach wohl eine ganze Familie von KI-Geräten.

00:13:01: Das war das KI-Update von Heise Online vom sächsundzwanzigsten November, für nun zwanzig.

00:13:07: Eine neue Folge gibt es montags, mittwochs und freitags, ab fünfzehn Uhr.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.