KI-Update kompakt: ChatGPT Pulse, Code World Model, eHealth, KI-Suche
Shownotes
Das ist das KI-Update vom 26.09.2025 unter anderem mit diesen Themen:
Proaktiver KI-Chatbot: ChatGPT Pulse statt Social Media Metas Code-Modell versteht, was Programme im Computer bewirken Verband für Digitale Gesundheitsversorgung fordert Sonderweg und wie KI-Zusammenfassungen zivilgesellschaftliche Vielfalt einschränken
=== Anzeige / Sponsorenhinweis ===
Probiere die KI Agenten für Kundenservice von Elevenlabs unter www.elevenlabs.io/heise
=== Anzeige / Sponsorenhinweis Ende ===
Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-10671979
https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki
Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Transkript anzeigen
00:00:02: Das KI Update, ein Heise-Podcast mit redaktioneller Unterstützung von The Decoder.
00:00:14: Ich bin Isabel Grünewald und die sind heute unter anderem unsere Themen.
00:00:18: Proaktiver Chatboard, ChatGPT Pulse statt Social Media.
00:00:22: Metas Code-Modell versteht, was Programme im Computer bewirken.
00:00:27: Verband für digitale Gesundheitsversorgung fordert Sonderweg und, wie KI Zusammenfassungen, zivilgesellschaftliche Vielfalt einschränken können.
00:00:37: OpenAI hat eine neue Funktion für ChatchiPT eingeführt, ChatchiPT Pulse.
00:00:43: Damit soll der Chatboard proaktiver werden.
00:00:45: Was sich OpenAI darunter vorstellt, weiß Eva Maria Weiß von Heise Online.
00:00:50: ChatchiPT Pulse soll Themen vorschlagen und Informationen liefern.
00:00:55: ohne, dass man danach gesucht hat.
00:00:57: Genauer gesagt sogar ohne, dass man vorher überhaupt wusste, dass man danach suchen sollte.
00:01:03: Und dafür soll der Chatbot alle Informationen nutzen können, die ihm zur Verfügung stehen.
00:01:09: Die Memory-Funktion, die ja bereits Informationen über den Nutzer speichert, aber auch die Chat-Historie und direktes Feedback fließen ein.
00:01:18: Daraus leitet ChatGPT dann personalisierte Vorschläge für Themenkarten ab.
00:01:25: Die bieten einen schnellen Überblick und man kann eine Karte dann auswählen und lesen, was dahinter steckt.
00:01:31: Oder man schaut einfach weiter, welche Karten noch kommen.
00:01:35: Das erinnert natürlich auch ein bisschen an einen Feed aus sozialen Netzwerken.
00:01:40: Und man kann getrost daraus schließen, dass OpenAI diese sozialen Netzwerke ein bisschen damit ablösen möchte.
00:01:48: Solche Themenkarten eignen sich besonders gut, zum Beispiel, wenn man gleich morgens einfach mal auf sein Handy schaut und durchgeht, was ChatGPT denn für einen wohl bereithält.
00:01:59: Grundsätzlich zeigt sich hier aber auch ein Verständnis, das offenbar alle KI-Unternehmen haben.
00:02:05: Sie alle meinen, dass Menschen Informationen gerne von außen bekommen möchten und dass sie nicht unbedingt aktiv danach suchen wollen.
00:02:14: In der Medienwissenschaft gibt es dafür die Begriffe Push und Pull-Medien und beides hat dort seine Berechtigung, beides ist in der Regel von uns Menschen erwünscht.
00:02:24: Fraglich ist aber dabei Inwieweit Menschen bereits sind persönliche Datenkreis zu geben, um dann besonders personalisierte Informationen zu erhalten und natürlich, wie gut das dann auch überhaupt funktioniert.
00:02:38: Als Microsoft seine Recall-Funktion einführen wollte, gab es massiv Protest.
00:02:44: Bei dieser sollte automatisch alle paar Sekunden ein Screenshot vom Bildschirm gemacht werden und natürlich auch ausgewertet.
00:02:52: Diese Funktion ist inzwischen in einer sehr abgeschwächten Form verfügbar.
00:02:56: Und auch Mark Zuckerberg träumt davon, dass smarte Brillen alles sehen und hören, was auch wir sehen und hören.
00:03:04: Und dass darauf basierend ein stark personalisierter Assistent aufgebaut werden kann.
00:03:11: Google träumt ohnehin davon, dass all unsere Daten für die Suche genutzt werden können.
00:03:16: Und auch Perplexity hat schon davon gesprochen, dass sie glauben, Menschen würden ihre Daten freiwillig zur Verfügung stellen, wenn sie dafür einen guten KI-Assistenten bekämen.
00:03:27: Ich bin davon noch nicht ganz überzeugt.
00:03:37: Auswahl schadet bekanntlich nicht, darum führt Microsoft nun schrittweise Alternativen ein.
00:03:42: Kunden werden auf KI-Modelle Anthropics umsteigen können, wenn und wann sie das möchten.
00:03:48: Bei der Tochter GitHub ist Anthropic für Zeilen der Abonnenten des GitHub Co-Pilots sogar schon erste Wahl im Visual Code Studio.
00:03:56: Los geht es jetzt im Microsoft Co-Pilot Studio.
00:03:59: Mit dieser Anwendung können KI-Agenten erstellt werden.
00:04:02: Nach einem Opt-in können die Anthropic-Modelle CloudZone-IV und CloudOpus-IV.I aktiviert werden.
00:04:10: Wer den vorprogrammierten Agenten namens Researcher im Rahmen des Frontier-Programm verwendet, kann auch diesen auf CloudOpus-IV.I umstellen.
00:04:19: Die Umstellung ist allerdings nicht monolithisch, sondern soll flexibel sein, sodass unterschiedlichen Aufgaben mit unterschiedlichen KI-Modellen begegnet werden kann.
00:04:29: Metta hat ein Team gegründet, das weitere KI-Regulierung in den USA abwenden soll.
00:04:36: Das sogenannte American Technology Excellence Project soll Berichten zufolge über Dutzende Millionen US-Dollar von Metta verfügen.
00:04:44: Dabei hat US-Präsident Donald Trump eigentlich verlauten lassen, dass es keine KI-verhindernen Gesetze geben dürfe.
00:04:51: Engadget schreibt jedoch, dass allein in diesem Jahr mehr als ein-tausend Vorschläge zur Regulierung von KI auf bundesstaatlicher Ebene eingebracht worden seien.
00:05:01: Tatsache ist, dass die USA mitnichten ohne KI-Regulierung dastehen, anders als es bei Klagen über den europäischen AI-Akt oftmals durchklingt.
00:05:11: Auch jetzt schon gibt es in den Bundesstaaten verschiedene Gesetze, die KI-Dienste betreffen oder sich explizit an diese richten.
00:05:18: Metta glaubt jedoch, Regulierung würde die USA im Wettrenn um KI mit China zurückwerfen.
00:05:24: Die Interessengruppe soll das also verhindern.
00:05:27: Konkret soll sie in den Bundesstaaten jeweils die politischen Kandidatinnen und Kandidaten unterstützen, die auf Metta's Linie sind.
00:05:35: Schon zuvor hatte Metta eine ähnliche Interessengruppe in Kalifornien eingerichtet.
00:05:40: Dort gibt es bereits einzelne KI-Gesetze, etwa zum Schutz digitaler Abbilder von Schauspielern oder mit Bezug auf Falschinformationen vor Wahlen.
00:05:48: Außerdem plant der Gouverneur Gavin Newsom ein Gesetz, das KI-Chatbots regulieren soll.
00:05:55: In diesem Wettremd um die beste KI hat Meta jetzt ein KI-Modell entwickelt, das Code nicht nur schreiben, sondern auch dessen Ausführung im Computer simulieren kann.
00:06:05: Das Code-World-Model, kurz CWM, mit thirty-two Milliarden Parametern soll wie ein mentaler Debugger funktionieren, erklärt Kim Scheurenbrand von The Dakota.
00:06:17: Die Metaforscherinnen und Forscher erklären in der Vorstellung des neuen Modells, dass echtes Programmverständnis mehr erfordert als das Nachahm von Code-Mustern.
00:06:26: Man müsse verstehen, was Code bei der Ausführung bewirkt.
00:06:29: Genau diese Fähigkeit haben sie ihr Modell beigebracht.
00:06:32: Das Code World Model kann vorhersagen, ob ein Programm jemals endet oder in einer Endlosschleife hängen bleibt.
00:06:39: Es analysiert auch die Komplexität von Algorithmen und schätzt ein, wie lange Programme bei verschiedenen Eingabegrößen brauchen.
00:06:46: Das Modell arbeitet sogar rückwärts.
00:06:48: Aus einer Beschreibung dessen, was ein Programm tun soll, simuliert es die Ausführung und leitet den passenden Code ab.
00:06:55: Die Forscherinnen und Forscher zeigen Beispiele, bei denen das Code-World-Model Funktionen aus Anforderungen und erwarteten Ergebnissen rekonstruiert hat, ohne den ursprünglichen Code zu kennen.
00:07:05: Das Training erfolgte über hundertzwanzig Millionen Python-Programmausführungen.
00:07:10: Das Modell beobachtete Schritt für Schritt, wie sich Variablen ändern und was in jedem Moment im Programm passiert.
00:07:16: Die Forscherinnen und Forscher nennen das Execution Traces.
00:07:19: Meter hat das Code-World-Model als Open-Weights-Modell unter einer nicht-kommerziellen Forschungslizent veröffentlicht.
00:07:26: Nach Quantisierung, also der Reduzierung der Modellgröße durch weniger präzise Zahlenformate, läuft das Modell auf einer einzelnen NVIDIA H-Einhundert mit Achtzig Gigabyte Speicher.
00:07:37: Die Forscher und Forscher betonen, dass das Code-World-Model ein reines Forschungsmodell ist, das ausschließlich auf Programmierung und mathematisches Denken fokussiert ist.
00:07:45: Danke schön, Kim.
00:07:46: Der chinesische Tech-Konzern Alibaba hat One-two-fünf-Preview veröffentlicht, ein Videomodell, das Clips mit synchronisiertem Ton erzeugen kann.
00:07:57: Das System verwendet eine multimodale Architektur, die Text, Bilder, Video und Audio in einem einheitlichen System verarbeitet.
00:08:06: Alibaba trainierte das Modell gemeinsam auf allen Datentypen.
00:08:09: Das soll eine bessere Abstimmung zwischen den verschiedenen Medien ermöglichen.
00:08:13: Allerdings gibt Alibaba nur oberflächliche Details zur Architekturpreis.
00:08:18: Das Unternehmen erwähnt den Einsatz von Reinforcement Learning durch menschliches Feedback.
00:08:23: Ein technischer Report fehlt jedoch ebenso wie Informationen zu den Trainingsdaten.
00:08:29: Die Full-HD-Videos sind zehn Sekunden lang.
00:08:32: Das System kann stimmen mehrerer Personen Soundeffekte und Hintergrundmusik erstellen.
00:08:36: Als Eingabe akzeptiert es Text, Bilder und Audio.
00:08:40: Nutzerinnen und Nutzer können also ein Foto hochladen und per Textbefehl ein Video mit passender Musik erstellen lassen.
00:08:47: One-Zwei-Punkt-Fünf-Preview erreicht laut Alibaba ein ähnliches Niveau wie Google's VO-Drei.
00:08:53: In Demonstrationsvideos zeigen sich allerdings noch Schwächen.
00:08:57: Bild- und Tonspur passen nur auf den ersten Blick gut zusammen.
00:09:00: Bei näherem Hinsehen synchronisieren sich Schlagzeugspiel und Musik nicht auf den Tag genau.
00:09:06: Die Darstellung konsistenter Gesichter bereitet den Modell ebenfalls Schwierigkeiten.
00:09:12: Der Spitzenverband Digitale Gesundheitsversorgung hat ein sogenanntes Green Paper vorgelegt.
00:09:18: Der SVDGV vertritt über einhundertsiebzig E-Health-Unternehmen und beobachtet einen engen Pass aus unklaren Regularien, mangelndem Datenzugang und fehlenden Testumgebungen für KI-Entwickler.
00:09:32: Um diesen Engpass aufzubrechen, fordert der Verband eine branchenspezifische AI Regulatory Sandbox für das Gesundheitswesen.
00:09:41: Was genau der SVDGV damit meint, erklärt Marie Klerkoch von Heise Online.
00:09:46: Bei der KI-Regulierung gibt es laut dem Spitzenverband digitale Gesundheitsversorgung und weiteren Branchenvertretern.
00:09:51: noch viele offene Fragen.
00:09:53: Das Gesundheitswesen ist ein besonders sensibler Bereich, in dem der Schutz von Patientinnen oberste Priorität hat.
00:09:59: KI-Systeme müssen deshalb streng geprüft werden und deshalb viele Produkte lange und auch regelmäßig getestet werden müssen.
00:10:05: Das ist bereits mit der Medizinprodukteverordnung der Fall.
00:10:08: Dazu greift jetzt auch der AI-Agg.
00:10:10: Dabei überschneiden sich beide teilweise, was bei Herstellern und Anwendern zur Verunsicherung führt.
00:10:15: Der Verband wünscht sich darum mehr Klarheit und will daher ein eigenes KI-Realabor.
00:10:20: Es gibt nämlich bereits ein Pilotprojekt für einen KI-Reallabor von der Bundesnetzagentur.
00:10:26: Das im Mai gestartete Projekt sei jedoch zu unspezifisch für die besonderen Anforderungen von Medizin und Pflege.
00:10:31: Auch die Datenlage bleibt ein Hindernis für das Training und Testen von Kaisen große Mengen qualitativ hochwertiger Daten erforderlich.
00:10:38: Gesundheitsarten sind jedoch besonders geschützt und zudem auf viele Einrichtungen verteilt, was den Zugang zusätzlich erschwert.
00:10:44: Der Verband räumt jedoch auch ein, dass es noch einige Erragen gibt, die noch offen sind.
00:10:48: Zum Beispiel, wie sich K.E.
00:10:49: Entscheidungen nachvollziehbar machen lassen oder zum Beispiel, wie Diskriminierung verhindert wird.
00:10:56: Der Chef des ChatGPT-Entwicklers OpenAI, Sam Altman, will den Einsatz von künstlicher Intelligenz im Gesundheitswesen vorantreiben.
00:11:05: Wir haben in den letzten beiden Versionen beobachtet, dass immer mehr Menschen ChatGPT zur Unterstützung bei der Verwaltung ihrer Gesundheitsversorgung nutzen.
00:11:13: Und das funktioniert mittlerweile recht gut, sagte Altman bei der Verleihung des Axelspringer Awards in Berlin.
00:11:19: Ärzte würden es nutzen, um bessere Versorgung anzubieten, aber auch Patienten und andere Menschen würden es häufig für Fragen nutzen.
00:11:28: Altman ist der neunte Preisträger des Axelspringer Awards.
00:11:31: Mit dem undotierten Preis werden jährlich Personen gewürdigt, die laut Springer in herausragender Weise Märkte verändern.
00:11:39: Die geplante KI-Partnerschaft zwischen dem Filmstudio Lionsgate und dem Start-up Runway kommt langsamer voran als erwartet.
00:11:47: Das berichtet das Branchenmagazin The Wrap.
00:11:50: Ein überraschender Grund?
00:11:51: Die Filmbibliothek reicht nicht aus, um ein leistungsfähiges KI-Modell zu trainieren.
00:11:57: Ursprünglich wollte Lionsgate seinen Filmkatalog nutzen, um mit Runway ein eigenes KI-Modell für die Filmproduktion zu entwickeln.
00:12:04: Doch laut einem Insider sei selbst Disneys gesamter Filmkatalog zu klein für ein solches Vorhaben.
00:12:11: Diese Aussage widerlegt eine verbreitete Annahme der Branche.
00:12:14: Offenbar verfügen auch die größten Hollywood Studios trotz Jahrzehntelanger Produktion nicht über ausreichend vielfältiges und großvolumiges Videomaterial.
00:12:24: Zusätzlich bremsen rechtliche Fragen das Projekt.
00:12:27: Ungeklärte Bildrechte von Schauspielerinnen und Schauspielern erschweren die Nutzung des Materials.
00:12:33: Lionsgate betont, man verfolge weiter KI-Projekte mit mehreren Anbietern.
00:12:37: runway äußerte sich gegenüber der Rap nicht zu den Berichten.
00:12:42: Die Popularität von KI-Chatbots verändert, wie wir online suchen.
00:12:47: Die vermeintlich wichtigsten Infos gibt es im direkten Dialog mit der KI oder in automatisierten KI-Zusammenfassungen der Suchmaschinen.
00:12:56: Medienhäuser als Urheber vieler dieser Informationen klagen dagegen, weil ihnen die Werbeeinnahmen wegbrechen, wenn weniger Menschen auf die Links zu ihren Artikeln klicken.
00:13:06: Der Politikwissenschaftler und Soziologe Manuel Hofmann arbeitet als Referent für Digitalisierung bei der Deutschen AIDS-Hilfe.
00:13:13: In einem Gastkommentar auf Heise Online erklärt er, wie sich diese Veränderung auch auf NGOs auswirkt.
00:13:20: Er sieht dabei die zivilgesellschaftliche Vielfalt bedroht.
00:13:24: Statistiken zeigen, dass sich das Zuverhalten der Menschen gravierend verändert hat.
00:13:29: Immer mehr Menschen bleiben auf dem Blattform und konsumieren nur die dort aufbereitenden Inhalte.
00:13:35: Die wegesellschaftliche Organisation mit ihrer Expertise für die jeweiligen Themen bleiben in den Zusammenfassungen bei Suchanfragen unsichtbar.
00:13:43: Sie werden oft nicht einmal als Quelle genannt.
00:13:46: Doch wenn in Folge die Organisationspapseiten weniger besucht werden, können NGOs nicht auf ihre weiterführenden Angebote verweisen und umspenden werden.
00:13:55: Doch genau darauf sind sie angewiesen, gerade angesichts knapperwährender öffentlicher Mittel.
00:14:02: Das Thema hat auch eine inhaltliche Dimension.
00:14:05: Denn die KI-Zusammenfassung haben keinen neutralen Wahrheitswert, sondern sind ein Ausschnitt.
00:14:11: Dieser ist von Algorithmen und auch von Geschäftsinteressen geleitet.
00:14:15: Große Tech-Konzerne nehmen damit Einfluss auf öffentliche Meinungsbildung, ohne dabei angemessen demokratisch kontrolliert zu werden.
00:14:23: Diese Machtkonzentration bedroht also zivilgesellschaftliche Vielfalt.
00:14:29: Deshalb müssen Plattformen darauf verpflichtet werden, ihre Quellen in KI-Zusammenfassungen prominent und klickbar auszuweisen.
00:14:37: Für sensible Themen sollten Zusammenfassungen entfallen oder zumindest mit relevanten civilgesellschaftlichen und wissenschaftlichen Akteuren abgestimmt werden.
00:14:46: Darüber hinaus braucht es mehr Transparenz darüber, wie die Systeme im Hintergrund funktionieren und eine unabhängige Aufsicht, um demokratische Vielfalt zu sichern.
00:14:57: Am Ende können aber alle ihren Beitrag dazu leisten, um Zivilgesellschaft wieder zu stärken.
00:15:03: Finanziell oder ideell durch Verbreitung der Angebote oder ehrenamtliches Engagement.
00:15:09: Denn als Gegengewicht zum von wenigen Plattformen kontrollierten Internet ist eine gut aufgestellte Zivilgesellschaft unerlässlich.
00:15:16: Das sagt der Politikwissenschaftler und Soziologe Manuel Hofmann in einem Gastkommentar für Heise Online.
00:15:23: Neon Money Talks ist auf iPhones in den USA derzeit die vierte meist installierte Anwendung, noch vor Google und WhatsApp.
00:15:32: Der Grund für den rasanten Aufstieg ist Geld.
00:15:35: Neon zeichnet die mithilfe der App initiierten Telefongespräche auf und schütte dafür fünfzehn US-Cent pro Minute aus, maximal dreißig US-Dollar pro Tag.
00:15:45: Die Aufnahmen, so der Betreiber, würden dann für Trainings künstlicher Intelligenzen weiterverkauft, bereinigt um personenbezogene Daten.
00:15:54: Allerdings gibt es kein Versprechen, dass die Aufnahmen geheim gehalten oder ausschließlich für KI-Trainings genutzt werden.
00:16:00: Im Gegenteil, die Vertragsklausel Neons sind ein juristisches Minfeld.
00:16:06: Neon Mobile sichert sich unwiderrufliche, weltweite, gebührenfreie, übertragbare und sublizensierbare Lizenzen.
00:16:15: Auf Ansprüche bezüglich dessen, was Neon oder Neons Kunden aus den Aufnahmen generieren, verzichten Teilnehmende.
00:16:22: Selbstreden hafen diese auch selbst, wenn sie bei ihren Unterhaltungen rechte Dritter verletzen, also etwa wenn sie bei einem Telefonat einen copyrightgeschützten Text aussprechen oder eine Melodiesum.
00:16:34: Mit mehreren Maßnahmen will Spotify seine Nutzerinnen und Musikschaffende vor KI-Musik schützen.
00:16:40: Unter anderem sollen Musikerkünftig offenlegen, ob und in welcher Form künstliche Intelligenz bei der Produktion zum Einsatz kommt.
00:16:48: Um Künstlerinnen und Künstler von Nachahmung und KI-Stimmkopien zu schützen, hat Spotify ein Beschwerdeformular eingeführt.
00:16:55: Darüber können sie sich an Spotify wenden, wenn ihre Stimme illegal von KI kopiert wurde.
00:17:01: Allerdings muss über diesen Weg jeder KI-Song einzeln beanstandet werden.
00:17:05: Zwar steigen die jährlichen Auszahlungen insgesamt, aber Teile davon landen bei KI-Spammern.
00:17:12: Solche Leute laden massenhaft Songkopien oder kurze KI-Tracks hoch, um den Algorithmus auszutricksen und möglichst viele Wiedergaben zu bekommen.
00:17:21: Ab Herbst soll daher ein Filter dafür sorgen, dass solche Uploads und die Nutzenen dahinter automatisch erkannt werden.
00:17:28: Der Algorithmus soll diese Inhalte dann nicht mehr empfehlen.
00:17:33: Das war das KI-Update von Heise Online vom sächsundzwanzigsten September zweitausendfünfundzwanzig.
00:17:38: Eine neue Folge gibt es Montags, Mittwochs und Freitags ab fünfzehn Uhr.
Neuer Kommentar