KI-Update kompakt: 3 Jahre ChatGPT, KI-Gedächtnis, Programmieren, Genesis-Mission
Shownotes
Das ist das KI-Update vom 01.12.2025 unter anderem mit diesen Themen:
Drei Jahre ChatGPT zwischen "Wow"-Momenten und Umweltsorgen Neues KI-Gedächtnis gegen Datenverlust KI-Assistenten verringern Lerneffekt bei Programmierern und Ist die Genesis-Mission revolutionär oder nur heiße Luft?
=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===
Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11098519
Weitere Links zu diesem Podast: https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki https://t3n.de/news/trumps-genesis-projekt-revolutionaere-ki-plaene-oder-bloss-heisse-luft-aus-washington-1719026/
Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Transkript anzeigen
00:00:02: Das KI Update, ein Heise-Podcast mit redaktioneller Unterstützung von The Decoder.
00:00:14: Ich bin Isabel Grünewald und die sind heute unter anderem unsere Themen.
00:00:18: Drei Jahre Chat-T-Petit zwischen Wow-Momenten und Umweltsorgen.
00:00:22: Neues KI-Gedächtnis gegen Datenverlust.
00:00:25: KI-Assistenten verringern Lerneffekt bei Programmierern.
00:00:29: Und ist die Genesis-Mission revolutionär oder nur heiße Luft?
00:00:35: Seit drei Jahren gehört ChatGPT zu unserem Alltag.
00:00:38: Die Auswirkungen sind massiv, aber auch die Herausforderungen für den Betreiber OpenAI.
00:00:44: Ein Kollege Marco Pauli von Heise Online wirft einen Blick zurück.
00:00:48: Als ChatGPT am dreißigste November-Zweitausendzwanzig online ging, stellte der Chatbot alle bisherigen in den Schatten.
00:00:56: Schnell wurde er zur ersten Anlaufstelle, um zum Beispiel Trainingspläne zu erstellen, die Urlaubsplanung voranzutreiben oder zum Beispiel rund nicht zuletzt, um ihn Hausaufgaben erledigen zu lassen.
00:01:08: Wenn ChatGPT seine Aufgaben dann gut erledigt hat, war für viele Nutzerinnen und Nutzer nicht mehr ersichtlich, dass es sich bei dem im Hintergrund laufenden Sprachmodell GPT-三 Punkt fünf nicht um menschliche, sondern um künstliche Intelligenz handelt.
00:01:24: Mit ChatGPT präsentierte OpenAI eine Innovation, die jeder versteht und die in nahezu jedem Lebensbereich zum Einsatz kommen kann.
00:01:33: Inzwischen sind wir bei GPT-Fünf angekommen und der beliebte Chatboard zählt mittlerweile weltweit etwa achthundert Millionen aktive Nutzer pro Woche.
00:01:42: In Deutschland nutzen Menschen ChatGPT am häufigsten fürs Schreiben oder fürs Lektorat, für Ratschläge und Anleitungen, für die Informationssuche, Gesundheits-, Fitness- und Schönheitstipps, fürs Lernen natürlich, für die Nachhilfe und fürs Unterrichten, fürs Coaching und die Unterstützung beim Erreichen persönlicher Ziele.
00:02:02: Auf dem Kapitalmarkt sorgte der Chatbot für einen Boom, den viele heute bereits als eine KI-Blase bezeichnen.
00:02:10: Denn die großen Tech-Konzerne Microsoft, Meta, Apple, Alphabet, Tesla und eben OpenAI pumpen viele Milliarden in die Entwicklung von KI und ihre Chatbots, ohne dass sich bislang ein finanziell tragbares Geschäftsmodell für KI herauskristallisiert hat.
00:02:27: Betrachtet man nämlich ganz nüchtern die Einnahmen gegenüber den hohen Kosten für Training und Betrieb des KI-Modells, macht ChatGPT bislang in erster Linie Verluste.
00:02:38: Großer Gewinner des allerdings weiterhin anhaltenden KI-Booms ist Nvidia, das die meiste Hardware für Chatbots liefert.
00:02:46: Auswirkungen auf die Umwelt scheint die KI-Branche dabei, als ähnlich zweidrangig zu betrachten wie so manches Urhebergesetz.
00:02:54: Für das Training und im Betrieb von Chatchi PT werden große Mengen Wasser zur Kühlung der Rechenzentren verbraucht und auch der Stromhunger ist riesig.
00:03:03: So ließ die Technologie die CO-Zwei-Emissionen, etwa bei Microsoft, im vergangenen Jahr um bis zu vierzig Prozent steigen.
00:03:11: Bei Google waren es dreizehn Prozent.
00:03:14: Die horrenden Kosten für Betrieb und Weiterentwicklung von ChatGPT scheinen CEO Sam Ordmann aber nicht besonders zu interessieren.
00:03:23: Für ihn gibt es offenbar nur das große Ziel einer sogenannten allgemeinen künstlichen Intelligenz, mit der sich potenziell jede denkbare intellektuelle Aufgabe des Menschen durch KI bewältigen lassen soll.
00:03:37: Wenn er mit seinem Gigantismus auf dem Weg dorthin alle Mitbewerber übertrumpfen kann, umso besser.
00:03:45: Das US-Patentamt hat überraschend seine bisherigen Leitlinien zur Patentierbarkeit von KI-gestützten Erfindungen zurückgezogen und durch ein neues Regelwerk ersetzt.
00:03:56: Die zentrale Botschaft der Behörde unter Direktor John Squires lautet, Systeme generativer KI wie ChatGPT, Gemini oder Claude sind im Erfindungsprozess analog zu Laborausrüstung, Computer Software, Forschungsdatenbanken oder jedem anderen Werkzeug zu betrachten.
00:04:14: Dreh- und Angelpunkt für eine erfolgreiche Patentanmeldung bleibt die geistige Schöpfung des Menschen.
00:04:20: Künstliche Intelligenz darf zwar Dienste leisten und Ideen generieren, sie selbst könne aber niemals als Erfinderin oder Miterfinderin im Patentantrag genannt werden.
00:04:30: Entscheidend sei, ob eine natürliche Person eine bestimmte oder dauerhafte Idee der vollständigen Erfindung im Kopf geformt hat.
00:04:39: Die neuen Vorgaben sollen die Rechtsunsicherheit beenden, die bisher herrschte, wenn Forscherinnen und Entwickler KI als intensiven Entwicklungspartner im Innovationsprozess nutzten.
00:04:49: Sie werden nun rechtlich so behandelt, als hätten sie ein faultgeschrittenes Mikroskop oder eine komplexe Simulationssoftware benutzt.
00:04:57: Google hat die kostenlosen Nutzungslimit seines KI-Modells Gemini-III Pro deutlich eingeschränkt.
00:05:04: Wie das Unternehmen in einem aktualisierten Support-Dokument mitteilt, erhalten Nutzerinnen und Nutzer ohne kostenpflichtiges Google-AI-Abonnement nur noch Basic Access mit täglich wechselnden Limits.
00:05:16: Zuvor waren bis zu fünf Proms pro Tag garantiert.
00:05:19: Besonders drastisch fällt die Kürzung beim Bildgenerator Nano Banana Pro aus.
00:05:24: Statt der ursprünglich zugesagten drei Bilder pro Tag können Gratis-Nutzerinnen und Nutzer nur noch zwei Bilder täglich erstellen.
00:05:31: Google begründet die Maßnahme mit hoher Nachfrage und weiß daraufhin, dass sich die Limits häufig ändern können und täglich zurückgesetzt werden.
00:05:40: Der Erfolg von Gemini Pro scheint Google selbst überrascht zu haben.
00:05:45: Bei seiner Veröffentlichung katapultierte sich das neue Modell an die Spitze der wichtigsten Benchmarks und überholte damit erstmals Chachipiti.
00:05:53: Google hat bisher keine Angaben dazu gemacht, wann die Kapazitäten wieder ausreichen werden, um die ursprünglichen Gratiskontingente wiederherzustellen.
00:06:03: Ein Forschungsteam aus China und Hongkong hat eine neue Speicherarchitektur für KI-Agenten vorgestellt.
00:06:10: Das System mit dem Namen GAM soll verhindern, dass KI-Modelle in langen Konversationen wichtige Details vergessen.
00:06:18: Die Entwickler kombinieren dabei Kompressionsverfahren mit einer aktiven Suchfunktion.
00:06:23: Wie das System funktioniert, erklärt uns Kim Scheuer und Brandt von The Decoder.
00:06:27: Das Problem ist in der Fachwelt als Context-Rot bekannt.
00:06:30: Wenn Chats oder Aufgaben zu umfangreich werden, erreichen aktuelle Modelle die Grenzen ihres Contextfensters.
00:06:37: Sie verlieren den Überblick oder hallucinieren.
00:06:39: Die Wissenschaftlerinnen und Wissenschaftler der Universitäten aus China und Hongkong setzen mit dem General Agentic Memory, kurz GAM, genau hier an.
00:06:48: Sie übertragen das Prinzip der Just-in-Time-Compilation aus der Softentwicklung auf KI-Gedechnisse.
00:06:54: Dabei werden Informationen erst im Moment der Abfrage für die spezifische Situation aufbereitet.
00:07:00: Der Ansatz unterscheidet sich von bisherigen Methoden.
00:07:03: Herkömmliche agentische Systeme erstellen oft statische Zusammenfassungen.
00:07:07: Die Forscherinnen und Forscher argumentieren, dass dabei zwangsläufig Informationen verloren gehen.
00:07:12: Details, die beim Speichern unwichtig erschienen, fehlen dann bei einer späteren Abfrage.
00:07:17: GAM löst dies durch eine zweiteilige Architektur.
00:07:22: Ein sogenannter Memorizer arbeitet im Hintergrund und speichert den kompletten Gesprächsverlauf in einer Datenbank, dem Page Store.
00:07:29: Erreichert die Daten mit Kontextinformationen an, ohne sie stark zu kürzen.
00:07:33: Der zweite Teil ist der Researcher.
00:07:36: Diese wird erst aktiv, wenn eine konkrete Frage gestellt wird.
00:07:40: Er führt eine tiefe Recherche im eigenen Gedächtnis durch.
00:07:43: Der Researcher analysiert die Anfrage und nutzt verschiedene Suchmethoden, um im Page Store die passenden Informationen zu finden.
00:07:51: Dieser Prozess läuft iterativ ab.
00:07:53: Der Agent prüft seine Suchergebnisse selbstständig und startet bei Bedarf neuer Anfragen, bevor er antwortet.
00:07:59: In Tests übertraft das System laut den Autoren in Autoren herkömmliche Methoden deutlich.
00:08:04: Andere Systeme mit statischen Zusammenfassungen schnitten hier schlechter ab.
00:08:07: Das Projekt reiht sich in eine aktuelle Entwicklungswelle ein.
00:08:11: Auch Anthropic arbeitet am sogenannten Context Engineering, um die Aufmerksamkeit von KI-Modellen besser zu steuern.
00:08:19: Der Einsatz von KI-Tools wie GitHub Co-Pilot führt bei Programmieranfängern zu einem oberflächlichen Lernverhalten.
00:08:27: Das ist das Ergebnis einer Studie der Universität des Saarlandes unter der Leitung von Sven Arpe.
00:08:33: Die Untersuchung vergleicht studentische Paare, die entweder mit oder ohne KI-Unterstützung arbeiteten.
00:08:39: Laut Arpe übernehmen Nutzende von KI-Assistenten die Codevorschläge oft unkritisch.
00:08:45: Sie gehen davon aus, dass die Lösung korrekt ist.
00:08:48: In den KI-gestützten Teams drehte sich die Kommunikation fast ausschließlich um den Code selbst.
00:08:54: Menschliche Paare ohne KI-Hilfe stellten dagegen mehr Fragen und diskutierten breiter über Lösungswege.
00:09:01: Die Forscher waren vor langfristigen Folgen.
00:09:03: Wenn Entwicklerinnen und Entwickler den Code nicht tief gehen verstehen, können später Fehler entstehen, deren Behebung aufwendig ist.
00:09:11: Abel betont, dass KI zwar bei Routineaufgaben hilft, komplexe Probleme aber weiterhin menschlichen Austausch und kritisches Hinterfragen erfordern.
00:09:22: Ein Forscher von OpenAI berichtet von erheblichen Zeitgewinnen durch das kommende Modell GPT-V.
00:09:28: Sebastian Bubeck schreibt auf der Plattform X, dass das Modell eine hochkomplexe mathematische Aufgabe in einem Nachmittag gelöst habe.
00:09:37: Ein Mensch hätte dafür rund einen Monat benötigt.
00:09:41: Der Prozess war laut Bubeck mehrstufig.
00:09:43: GPT-V entwarf den Lösungsweg, führte eine Simulation zur Überprüfung einer Formel durch und verfasste anschließend einen vollständigen mathematischen Beweis.
00:09:53: Bubeck bezeichnet dies als die bislang stärkste Leistung eines großen Sprachmodells, die er gesehen habe.
00:10:00: Auch der renommierte Mathematiker Terence Tau berichtete kürzlich von Zeitersparnissen durch KI, allerdings in einer anderen Form.
00:10:07: Er nutzte KI-Modelle zur Überprüfung eigener theoretischer Annahmen, nicht im Autonomenmodus.
00:10:14: Ein Bericht von OpenAI legt nahe, dass GPT-V darauf ausgelegt ist, Forschungsprozesse in verschiedenen wissenschaftlichen Disziplinen deutlich zu beschleunigen.
00:10:25: US-Präsident Donald Trump hat kürzlich die Genesis-Mission gestartet.
00:10:30: Sie soll die technologische Vorherrschaft der USA sichern und ausbauen, natürlich mit Hilfe von KI.
00:10:36: Innerhalb eines Jahres soll das zuständige Department of Energy eine Plattform mit der weltgrößten Sammlung an Forschungsdaten und Zugriff auf Supercomputing-Ressourcen zur Verfügung stellen.
00:10:48: Mit den Daten sollen qualifizierte Unternehmen und Forschungseinrichtungen dann, KI-Modelle und Agenten trainieren, die neue Hypothesentesten, Experimente entwerfen und durchführen, um so wissenschaftliche Durchbrüche zu beschleunigen.
00:11:03: Das soll sich vor allem auf die Bereiche Energie, Biotechnologie und Materialforschung, aber auch auf die Quantentechnologie konzentrieren.
00:11:11: Das klingt, Typ ist Trump, erstmal entschlossen und tatkräftig und natürlich auch groß spürig.
00:11:17: Aber ist das auch realistisch?
00:11:19: Wolfgang Stieler von der Technology Review hat sich das genauer angeschaut.
00:11:23: Was spricht für das Projekt?
00:11:25: Die USA haben bereits früher gezeigt, dass sie mit groß angelegten Förderprogrammen Technologie schnell nach vorne bringen können.
00:11:33: Das Energienministerium beispielsweise hat die Entwicklung der ersten Exaflop Supercomputer in den USA erfolgreich gefördert.
00:11:40: Was spricht gegen das Projekt?
00:11:42: Das sind zwei Dinge.
00:11:44: Die Datenlage und der Stand der Technik bei KI.
00:11:47: Das hängt natürlich miteinander zusammen.
00:11:50: Maschinelles Lernen funktioniert nur da gut, wo es gute, große Datensätze gibt.
00:11:55: Die gibt es aber nur punktuell.
00:11:56: Sie zusammenzustellen kostet viel Zeit und Geld und ob beides genügend Verhandnis muss man sehen.
00:12:03: Dazu kommt existierende KI-Modelle können gut das nächste Drucken vorhersagen, wenn das Problem so ähnlich in ihren Trainingssätzen schon mal vorgekommen ist.
00:12:12: Vorhersagen außerhalb dieses Bereiches sind sehr unsicher und oft falsch.
00:12:17: Das sind die berühmten Halizinationen.
00:12:19: Agenten können also Routineaufgaben übernehmen, neue Ideen und neue Hypothesen erzeugen, aber darin sind sie nur dann gut, wenn die Ideen mehr oder weniger offensichtlich sind.
00:12:29: Wirklich originelle Ideen, echte Durchbrüche in der Wissenschaft sind so meiner Meinung nach nicht zu erwarten.
00:12:38: Der Anbieter von CRM-Lösungen Salesforce hat für den vergangenen Black Friday weltweit einen Online-Umsatz von neunundsebzig Milliarden US-Dollar beobachtet.
00:12:54: Das entspricht einem Wachstum gegenüber dem Vorjahr von sechs Prozent.
00:12:58: Den Höhepunkt der Einkäufe stellte dabei Adobe fest.
00:13:01: Zwischen zehn Uhr morgens und vierzehn Uhr am Nachmittag des vergangenen Freitags gaben Online-Shopper allein in den USA im Schnitt jede Minute zwölf Millionen Dollar aus.
00:13:12: berichtet das US-Magazin Forbes.
00:13:15: Sowohl Adobe als auch Salesforce haben dabei auch festgestellt, dass viele Menschen nicht mehr Suchmaschinen oder Preisvergleichsportale nutzen, sondern über KI-Tools zu den Shops gelangen.
00:13:26: Adobe stellte dabei ein Wachstum von achthundertfünf Prozent gegenüber dem Vorjahrfest.
00:13:32: Salesforce geht auf die Umsätze durch KI ein, vierzehn Komma zwei Milliarden weltweit und drei Milliarden allein in den USA.
00:13:40: Das bestätigt den Trend, dass viele Menschen inzwischen direkt Chatbots oder ähnliche KI-Tools für die Suche nach Informationen zum Shopping benutzen.
00:13:50: Das war das KI-Update von Heise Online vom ersten Dezember, zwei Tausendfünfundzwanzig.
00:13:55: Eine neue Folge gibt es immer Montags, Mittwochs und Freitags um fünfzehn Uhr.
Neuer Kommentar