KI-Update kompakt: Chip-Preise, Gemini, Microsoft Copilot, KI macht denkfaul

Shownotes

Das ist das KI-Update vom 17.12.2025 unter anderem mit diesen Themen:

Hohe Chip-Preise treffen Smartphones und Notebooks Google weitet KI-Ökosystem mit neuem Agenten und Audio-Funktionen aus VS Code deaktiviert IntelliCode zugunsten des kostenpflichtigen Copilot
und KI macht denkfaul und schafft neue Abhängigkeiten

=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===

Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11117803

Weitere Links zu diesem Podast: https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki

Am Freitag, 19.12.2025, gibt es noch einen DeepDive, danach ist Winterpause. Das KI-Update startet dann wieder mit aktuellen Folgen am 05.01.2026.

Transkript anzeigen

00:00:02: Das KI Update.

00:00:04: Ein heise Podcast mit redaktioneller Unterstützung von The Decoder.

00:00:14: Ich bin Isabel Grünewald und die sind heute unter anderem unser Themen.

00:00:18: Hohe Chip-Preise treffen Smartphones und Notebooks.

00:00:21: Google weitet KI-Ökosystem mit neuen Agenten und Audiofunktionen aus.

00:00:27: Visual Studio Code deaktiviert IntelliCode zu Gunsten des kostenpflichtigen Co-Pilot und KI macht Denkfoul und schafft neue Abhängigkeiten.

00:00:37: Speicher-Tipps für Notebooks, Laptops und auch Handys kosten gerade das Dreifache dessen, was man noch immer Gusta für zahlen musste.

00:00:45: Und insgesamt drohen Lieferengpässe.

00:00:48: Woher die Preisexplosion kommt und was KI-Anwendungen damit zu tun haben, erklärt Marc Mantel von Heise Online.

00:01:02: Dabei fegen sie auch den Speichermarkt leer.

00:01:04: Die Prozessoren benötigen DDR-Fünf bzw.

00:01:06: LPDDR-Fünframmen, KI-Besteuniger, häufig besonders schnellen HBM.

00:01:11: Die aktuelle Speichener Frage übersteigt das Angebot deutlich.

00:01:14: Das trifft PC-Salespower am heftigsten, da sie ganz am Ende der Hardwarenahrungskette stehen.

00:01:19: Wir schätzen, dass unter fünf Prozent der weltweiten Speicherproduktion in Desktop-PCs gehen, wovon selbstgebaut eine noch kleineren Bruchteil darstellen.

00:01:27: Die günstigsten DDR-Fünf-Kits mit sixteen Gigabyte Speicher nähern sich aktuell der zweihundert Euro-Marke, tendenzweitersteigend.

00:01:34: Im Sommer gab es hier noch für rund fünfzig Euro.

00:01:37: Hersteller von PCs, Notebooks und Smartphones wollen teils entweder die Preis erhöhen oder weniger Speicher einbauen, um mehr Kosten auszugleichen.

00:01:45: Hersteller und Marktbobachter haben unterschiedliche Prognosen, wie lange die Speicherkrise anhalten könnte.

00:01:50: Die komplette Randproduktion des Jahres zwanzig sechsundzwanzig soll schon weitgehend ausverkauft sein.

00:01:55: Kurzfristig können die drei Weltmarktführer SK Heinecks, Samsung und Micron ihre Produktion nicht noch weiter ausbauen.

00:02:02: Ein Halbleiterwerk kostet einige Milliarden Euro und benötigt mindestens zwei Jahre bis die Großjährigenproduktion läuft.

00:02:09: Zudem sind die Hersteller beim Ausbau eher zögerlich, sollte die KI-Blase abbeben oder gar platzen.

00:02:15: Im schlimmsten Fall könnte sich die Knappe bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum Jahr bis zum

00:02:28: Jahr bis zum Jahr bis zum Jahr.

00:02:29: Demnach können sich die Preise auch schon, dass sie sich stabilisieren.

00:02:30: Vielen Dank, Marc.

00:02:31: Mehr zu dem Thema hört ihr auch in der neuesten Folge bei meinen Kollegen vom Bittrauschen, dem Prozessor-Podcast der ACT.

00:02:38: Der Präsident El Salvadorz, Naieb Boukele, genießt hohe Zustimmungswerte in der Bevölkerung, nachdem er die Bannenkriminalität im Land eingedämmt und das Sicherheitsgefühl der Menschen verbessert hat.

00:02:50: Seine Methoden sind allerdings umstritten.

00:02:53: Nun treibt Bokehler auch Veränderungen im Bildungssystem voran.

00:02:57: Dafür holt er Elon Musk mit XAI ins Land.

00:03:01: In den nächsten zwei Jahren wird El Salvador den KI-Chatbot GROC in mehr als fünftausend öffentlichen Schulen einsetzen, um über einer Million Schülern personalisiertes Lernen zu ermöglichen und tausende Lehrer als Kooperationspartner im Bildungsbereich zu unterstützen.

00:03:18: So heißt es in einer Mitteilung von XAI.

00:03:21: Doch Grog ist alles andere als unumstritten.

00:03:25: In Europa laufen juristische Untersuchungen gegen Grog wegen antisemitischer Entgleisungen.

00:03:30: In den USA steht die KI-generierte Enzyklopädie Groggypedia wegen tausenden Zitaten aus fragwürdigen und problematischen Quellen in der Kritik.

00:03:41: Den Präsidenten von El Salvador scheint das nicht abzutrecken.

00:03:44: Sein Land beweise mit der Etablierung globaler Sicherheitsstandards und der Pionierarbeit im Bereich der KI-gestützten Bildung, dass Länder durch mutige Politik und strategische Vision direkt an die Spitze gelangen können, erklärt Bokele.

00:04:00: Der US-Chip-Konzern in WDR hat ShadMD übernommen, den führenden Entwickler der Software Slurm.

00:04:06: Das ist ein Open-Source-Workload-Management-System für High-Performance Computing und künstliche Intelligenz.

00:04:13: Nvidia erhofft sich davon, sein Open-Source-Software-Ökosystem zu stärken und KI-Innovationen für Forscherinnen, Entwickler und Unternehmen voranzutreiben.

00:04:22: Zugleich kündigt Nvidia an, Slurm weiterhin als Quelloffene herstellerneutrales Software entwickeln und vertreiben zu wollen.

00:04:31: Zu den finanziellen Bedingungen der Übernahme machte das Unternehmen keine Angaben.

00:04:36: ShedMD wurde im Kalifornischen Livermore gegründet.

00:04:40: Zu den Kunden zählen u.a.

00:04:42: das Cloud-Infrastrukturunternehmen CoreWeave und das Barcelona Supercomputing Center.

00:04:49: Google startet eine breit angelegte Produktoffensive und erweitert sein Gemini-System in drei zentralen

00:04:56: Bereichen.

00:04:56: Persönliche Assistenz, Sprachverarbeitung und Recherche.

00:05:00: Max Schreiner von The Decoder gibt einen Überblick.

00:05:18: Ziel ist es, laut dem Unternehmen den Tagesablauf der Nutzer zu verstehen und aktiv zum Managen.

00:05:23: morgens erhalten Tester eine E-Mail-Zusammenfassung mit dem Titel You Day Ahead.

00:05:29: Daran listet der Agent anstehende Termine, offene Aufgaben oder auch fällige Rechnungen auf.

00:05:34: Nutzer können den Agenten per E-Mail steuern und ihnen beauftragen, Entwürfe zu schreiben oder Kalendereinträge zu erstellen.

00:05:40: Google startet diesen Testlauf zunächst in den USA und Kanada für zahlende Abonnenten.

00:05:46: Da der Agent Zugriff auf private Daten benötigt, stellen sich hierbei natürlich zwangsläufig Fragen zur Datensicherheit.

00:05:53: Parallel dazu verbessert der Konzern seine Audio-Modelle in Gemini Live, ein Update für Gemini II.V Flash Native Audio, so heißt das Modell, soll dafür sorgen, dass KI-Stimmen natürlicher klingen und Anweisung präzise umsetzen und in einem eigenen Benchmark-Vergleich sieht Google sein Modell vor der Konkurrenz von OpenAI.

00:06:12: Allerdings merkt das Unternehmen auch an, dass dieser Vergleich nicht gegen die allerneuste Version von OpenAIs Real-Time-Modell, das ist das KI-Modell hinter dem.

00:06:21: Live Chat Modus von ChatGBT, dass dieses Modell eben noch nicht in diesem Vergleich getestet wurde, denn das hat OpenRAS diese Woche veröffentlicht.

00:06:30: Die dritte Neuerung betrifft dann die Verknüpfung von Recherche und Chat.

00:06:34: Google integriert das Tool Notebook LM direkt in die Gemini Chatbot und die Gemini Chatbot App.

00:06:41: Notebook LM ist ein KI-gestütztes Notiz- und Recherchtool von Google, das sehr möglich, eigene Dokumente hochzuladen und dann Fragen gezielt nur zu diesen Inhalten zu stellen, statt eben das gesamte Internet zu durchsuchen.

00:06:53: Nutzer können nun ihre spezifischen Notizbücher, die sie in Notebook-LM hinterlegt haben, als Kontextquelle in Gemini auswählen und das ermöglicht dann dem Chatbot mit eigenem Wissen zu füttern, das über das allgemeine Trainingsmaterial oder den Internetzugriff hinausgeht.

00:07:08: Die Funktion wird derzeit schrittweise ausgerollt.

00:07:11: Dankeschön, Max.

00:07:14: Die Verbreitung von künstlicher Intelligenz am Arbeitsplatz nimmt zu, doch die tägliche Routine ändert sich nur langsam.

00:07:21: Das geht aus einer aktuellen Umfrage des Meinungsforschungsinstituts Gallup unter mehr als zweiundzwanzigtausend US-Beschäftigten hervor.

00:07:28: Die Daten zeigen, dass mittlerweile fünfundvierzig Prozent der Beschäftigten KI-Tools nutzen.

00:07:33: Das ist ein Anstieg um fünf Prozentpunkte gegenüber dem Vorquartal.

00:07:37: Ein genauerer Blick auf die Zahlen offenbart jedoch, dass die Intensität von Nutzung variiert.

00:07:43: Lediglich zehn Prozent der Befragten geben an, die Technologie täglich einzusetzen.

00:07:48: Es existiert, zudem ein starkes Gefälle zwischen den Branchen.

00:07:52: In der IT-Branche liegt die Nutzungsrate bei siebzig Prozent.

00:07:56: Im Einzelhandel hingegen greift nur jeder dritte auf KI-Werkzeuge zurück.

00:08:01: Beine Anwendungen dominieren Chatbots und virtuelle Assistenten den Markt, während spezialisierte Coding-Tools eine Nische bleiben.

00:08:09: Ein interessantes Detail der Studie betrifft die sogenannte Schatten-KI.

00:08:14: Viele Angestellte nutzen KI-Tools offenbar, ohne dass ihre Arbeitgeber davon wissen oder dies offiziell genehmigt haben.

00:08:21: Gallup ermittelte das fast die Hälfte der Beschäftigten KI nutzt, aber nur siebenunddreißig Prozent sicher wissen, dass ihr Unternehmen die Technologie offiziell eingeführt hat.

00:08:31: OpenAI hat ein neues Modell zur Bildgenerierung für ChatGPT vorgestellt.

00:08:36: Das System mit dem Namen GPT-Image-Ins.Fünf soll komplexere Prompt deutlich zuverlässiger umsetzen, soll bis zu viermal schneller sein und ist OpenAIs Antwort auf Google's äußerst erfolgreiches Nano-Banana-Pro-Bild-Modell.

00:08:51: In einem Beispiel zeigt das Unternehmen etwa ein Bild, in dem sixunddreißig verschiedene Objekte in einem Raster angeordnet sind.

00:08:58: Darunter der griechische Buchstabe Beta.

00:09:00: Ein Strandball, eine Gottesanbieterin oder eine Badewanne.

00:09:04: Die alte Version konnte das nicht darstellen, die neue macht es fehlerfrei.

00:09:09: Auch bei der Nachbearbeitung soll das Modell Fortschritte machen.

00:09:12: Nutzerinnen können beispielsweise Elemente hinzufügen oder entfernen, ohne dass sich Beleuchtung oder der Stil des restlichen Bildes ungewollt verändern.

00:09:21: Hier hatte Google mit den Nano-Banana-Wildmodellen OpenAI zuletzt deutlich überholt.

00:09:26: Für Entwicklerinnen sinken trotz der angekündigten Leistungssteigerung die Kosten.

00:09:31: Die Preise für die Nutzung über die Schnittstelle wurden um zwanzig Prozent gesenkt.

00:09:36: Das Modell steht ab sofort allen Chat-GPT-Nutzerinnen und Nutzern und über die API zur Verfügung.

00:09:43: Microsoft hat die IntelliCode-Erweiterungen für Visual Studio Code deaktiviert und verweist auf den Co-Pilot.

00:09:51: Der enthält allerdings nur ein geringes Freivolumen.

00:09:54: berichtet Wolfgang Großbach von HeiseDeveloper.

00:09:57: IntelliSense ist eine Hilfsfunktion, was also die meisten Entwicklungsumgebungen ähnlich haben.

00:10:05: Bei Microsoft in Visual Studio Code heißt das IntelliSense, das macht quasi, während man schreit, während man codet, macht das Vorschläge.

00:10:16: Zum Beispiel bei irgendwelchen Befehlen, welche Parameter hier in Frage kommen, dass man es nicht alles im Kopf haben muss.

00:10:23: oder bei Variablen, welche Variablen man verwendet.

00:10:27: Und das sind einfach so kleine Hilfen während des Schreibens, die den Entwicklerinnen und Entwicklern hier Arbeits- oder Nachdenken abnehmen.

00:10:37: Das Ganze funktioniert mit KI natürlich wesentlich besser.

00:10:39: Also hier schlägt die Entwicklungsumgebung oder Visual Studio Code, schlagen hier komplette Funktionen vor oder komplette Bereiche im Code, was tatsächlich häufig sehr, sehr gut ist, nicht immer, aber was häufig so ein Grundgewüst schon mal bildet, was man dann vielleicht noch in kleinen Punkten korrigieren muss.

00:11:01: Aber das ist schon eine große Hilfe.

00:11:04: In Visual Studio Code, also der Entwicklungsumgebung, die sehr viele Entwickler verwenden, die ist kostenlos und open source, verwendet hier In der Variante von Microsoft eben den JIT Hub Co-Pilot als KI-Coding-Assistenten.

00:11:22: Und der ist nach zweitausend Vorschlägen wird der kostenpflichtig.

00:11:28: Und das ist eine Sache, die man tatsächlich erreicht, sogar als Hobbyentwickler.

00:11:33: Also ich habe das selber schon erlebt, dass diese zweitausend Vorschläge innerhalb von einem Monat, dass man dann am Monatsende plötzlich die Nachricht bekommt.

00:11:41: Hier die Codevorstärke wurden abgeschaltet, weil man sein Kontingent erschöpft hat.

00:11:47: Bislang konnte man das IntelliCode verwenden, das allerdings mit einem lokalen LNM arbeitet.

00:11:57: Das muss man also haben.

00:11:58: Auf dem Rechner kann man das verwenden für Codevorschläge.

00:12:03: Und das pflegt Microsoft jetzt nicht weiter.

00:12:06: Verweist eben auf den Co-Pilot, auf den Kostenpflichtigen.

00:12:11: Und eben das normale IntelliSense, was aber lange nicht so hilfreich wie der Co-Pilot.

00:12:18: Die Gründe sagt Microsoft nicht.

00:12:23: Man kann natürlich vermuten, dass sie ihren kostenpflichtigen Co-Pilot hier etwas pushen wollen.

00:12:29: Aber wie gesagt, die Gründe sind leider nicht bekannt.

00:12:33: Im Forum gab es einen Hinweis, was man machen kann.

00:12:36: Man kann quasi einen kompletten lokalen KI-Server aufbauen und den Co-Pilot dahin lenken, das funktioniert, ist allerdings für normale Anwender ein größeres Projekt.

00:12:52: Allerdings innerhalb von einer Entwicklungsgruppe oder einem Unternehmen oder einer Agentur ist das durchaus eine Möglichkeit, die man in Betracht ziehen kann.

00:13:00: Danke,

00:13:00: Wolf.

00:13:02: Auch an anderer Stelle sorgt der Co-Pilot für Unmut.

00:13:05: Auf Smart TVs mit LGs eigenem Betriebssystem WebOS ist nach einem Update ungefragt Microsoft's KI-App verknüpft.

00:13:14: Das Software-Update übernimmt automatisiert die Einrichtung.

00:13:17: In der Browseransicht stehen dann die üblichen Funktionen bereit, etwa die Möglichkeit nach Filmempfehlungen zu fragen.

00:13:23: Vollständig entfernen lässt sich Co-Pilot manuell nicht mehr.

00:13:27: Nutzerinnen und Nutzer können die Verknüpfung bloß ausblenden, sodass sie vom Startbildschirm verschwindet ohne App-Installation.

00:13:34: Und ungenutzt dürfte Co-Pilot dann auch keine Daten sammeln.

00:13:39: Einen ganzen Strauß an Prognosen zur künstlichen Intelligenz hat die Beraterfirma Gardner auf ihrem jüngsten Symposium in Barcelona vorgestellt.

00:13:48: An erster Stelle wurde betont, dass bis zu den Jahr- und Jahrzehnten bei ca.

00:13:51: seventy-fünf Prozent aller Einstellungen Zertifizierungen und Tests zur KI-Kompetenz verlangt werden.

00:13:58: Diese neuen Fähigkeiten zu erwerben, sei Gardner-Analyst Lee McMullen zufolge jedoch nicht so einfach, denn die klassischen Bildungseinrichtungen hinken dem Bedarf deutlich hinterher.

00:14:09: Die zweite Prognose basiert auf einer vielbeachteten Studie von Microsoft.

00:14:13: KI macht Denkfaule, heißt es kurz und knapp.

00:14:17: Gemeint ist damit, dass innerhalb des nächsten Jahres, der Verfall kritischer Denkfähigkeiten aufgrund des Einsatzes von generativer KI viele Unternehmen dazu veranlassen wird, KI-freie Kompetenzbewertungen einzuführen.

00:14:32: In der dritten Vorhersage ging es um die digitale Souveränität.

00:14:36: Laut Gardner werden in den nächsten zwei Jahren über ein Drittel aller Länder regionale KI-Plattformen mit proprietären Kontextdaten einsetzen.

00:14:44: Das klingt nach nationaler Souveränität, läuft aber laut Gardner faktisch auf eine neue Abhängigkeit hinaus.

00:14:51: Denn wer die Kontextdaten kontrolliert, kontrolliert die Wertschöpfung, ist das Fazit der Marktforscher.

00:14:59: Auch KI-Agenten spielen eine Rolle in der Prognose.

00:15:02: Bis zum Jahr zwanzig werden achtzig Prozent aller kundenorientierten Prozesse von Multiagentensystemen ausgeführt.

00:15:09: Allerdings erwartet Gardner auch, dass bis zu Jahrzehnte und zwanzig mehr als zweitausend Klagen wegen Tod durch KI aufkommen werden.

00:15:18: Der Grund sind die vielen autonomen Systeme, die ohne robuste Sicherheitslogik handeln und so zwangsläufig Haftungsfälle erzeugen.

00:15:27: Die häufig fehlende Transparenz ist also keine philosophische Frage mehr, sondern fällt in die Kategorie Forensik und Schadensregulierung.

00:15:36: Die Gardnerpognosen übertreiben.

00:15:39: Immer.

00:15:39: Aber sie verlaufen entlang einer realen tektonischen Verschiebung, die durch KI ausgelöst wurde.

00:15:47: Nicht die genannten Jahreszahlen sind entscheidend, sondern die Richtungen.

00:15:51: KI-Agenten reorganisieren die Wertschöpfung.

00:15:54: Regulieren fragmentierte Märkte, Daten werden geopolitisch und Produktivitätswerkzeuge stehen vor einem Generationswechsel.

00:16:03: Die offenen Fragen betreffen die Governance, Skills und Politik.

00:16:09: Das war das KI-Update von heise online vom siebzehnten Dezember zwei tausendfünfundzwanzig.

00:16:14: Eine neue Folge gibt es immer Montags, Mittwoch und Freitags um fünfzehn Uhr.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.