KI-Update kompakt: ChatGPT Pulse, Code World Model, eHealth, KI-Suche

Shownotes

Das ist das KI-Update vom 26.09.2025 unter anderem mit diesen Themen:

Proaktiver KI-Chatbot: ChatGPT Pulse statt Social Media Metas Code-Modell versteht, was Programme im Computer bewirken Verband für Digitale Gesundheitsversorgung fordert Sonderweg und wie KI-Zusammenfassungen zivilgesellschaftliche Vielfalt einschränken

=== Anzeige / Sponsorenhinweis ===

Probiere die KI Agenten für Kundenservice von Elevenlabs unter www.elevenlabs.io/heise

=== Anzeige / Sponsorenhinweis Ende ===

Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-10671979

https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki

Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.

Transkript anzeigen

00:00:02: Das KI Update, ein Heise-Podcast mit redaktioneller Unterstützung von The Decoder.

00:00:14: Ich bin Isabel Grünewald und die sind heute unter anderem unsere Themen.

00:00:18: Proaktiver Chatboard, ChatGPT Pulse statt Social Media.

00:00:22: Metas Code-Modell versteht, was Programme im Computer bewirken.

00:00:27: Verband für digitale Gesundheitsversorgung fordert Sonderweg und, wie KI Zusammenfassungen, zivilgesellschaftliche Vielfalt einschränken können.

00:00:37: OpenAI hat eine neue Funktion für ChatchiPT eingeführt, ChatchiPT Pulse.

00:00:43: Damit soll der Chatboard proaktiver werden.

00:00:45: Was sich OpenAI darunter vorstellt, weiß Eva Maria Weiß von Heise Online.

00:00:50: ChatchiPT Pulse soll Themen vorschlagen und Informationen liefern.

00:00:55: ohne, dass man danach gesucht hat.

00:00:57: Genauer gesagt sogar ohne, dass man vorher überhaupt wusste, dass man danach suchen sollte.

00:01:03: Und dafür soll der Chatbot alle Informationen nutzen können, die ihm zur Verfügung stehen.

00:01:09: Die Memory-Funktion, die ja bereits Informationen über den Nutzer speichert, aber auch die Chat-Historie und direktes Feedback fließen ein.

00:01:18: Daraus leitet ChatGPT dann personalisierte Vorschläge für Themenkarten ab.

00:01:25: Die bieten einen schnellen Überblick und man kann eine Karte dann auswählen und lesen, was dahinter steckt.

00:01:31: Oder man schaut einfach weiter, welche Karten noch kommen.

00:01:35: Das erinnert natürlich auch ein bisschen an einen Feed aus sozialen Netzwerken.

00:01:40: Und man kann getrost daraus schließen, dass OpenAI diese sozialen Netzwerke ein bisschen damit ablösen möchte.

00:01:48: Solche Themenkarten eignen sich besonders gut, zum Beispiel, wenn man gleich morgens einfach mal auf sein Handy schaut und durchgeht, was ChatGPT denn für einen wohl bereithält.

00:01:59: Grundsätzlich zeigt sich hier aber auch ein Verständnis, das offenbar alle KI-Unternehmen haben.

00:02:05: Sie alle meinen, dass Menschen Informationen gerne von außen bekommen möchten und dass sie nicht unbedingt aktiv danach suchen wollen.

00:02:14: In der Medienwissenschaft gibt es dafür die Begriffe Push und Pull-Medien und beides hat dort seine Berechtigung, beides ist in der Regel von uns Menschen erwünscht.

00:02:24: Fraglich ist aber dabei Inwieweit Menschen bereits sind persönliche Datenkreis zu geben, um dann besonders personalisierte Informationen zu erhalten und natürlich, wie gut das dann auch überhaupt funktioniert.

00:02:38: Als Microsoft seine Recall-Funktion einführen wollte, gab es massiv Protest.

00:02:44: Bei dieser sollte automatisch alle paar Sekunden ein Screenshot vom Bildschirm gemacht werden und natürlich auch ausgewertet.

00:02:52: Diese Funktion ist inzwischen in einer sehr abgeschwächten Form verfügbar.

00:02:56: Und auch Mark Zuckerberg träumt davon, dass smarte Brillen alles sehen und hören, was auch wir sehen und hören.

00:03:04: Und dass darauf basierend ein stark personalisierter Assistent aufgebaut werden kann.

00:03:11: Google träumt ohnehin davon, dass all unsere Daten für die Suche genutzt werden können.

00:03:16: Und auch Perplexity hat schon davon gesprochen, dass sie glauben, Menschen würden ihre Daten freiwillig zur Verfügung stellen, wenn sie dafür einen guten KI-Assistenten bekämen.

00:03:27: Ich bin davon noch nicht ganz überzeugt.

00:03:37: Auswahl schadet bekanntlich nicht, darum führt Microsoft nun schrittweise Alternativen ein.

00:03:42: Kunden werden auf KI-Modelle Anthropics umsteigen können, wenn und wann sie das möchten.

00:03:48: Bei der Tochter GitHub ist Anthropic für Zeilen der Abonnenten des GitHub Co-Pilots sogar schon erste Wahl im Visual Code Studio.

00:03:56: Los geht es jetzt im Microsoft Co-Pilot Studio.

00:03:59: Mit dieser Anwendung können KI-Agenten erstellt werden.

00:04:02: Nach einem Opt-in können die Anthropic-Modelle CloudZone-IV und CloudOpus-IV.I aktiviert werden.

00:04:10: Wer den vorprogrammierten Agenten namens Researcher im Rahmen des Frontier-Programm verwendet, kann auch diesen auf CloudOpus-IV.I umstellen.

00:04:19: Die Umstellung ist allerdings nicht monolithisch, sondern soll flexibel sein, sodass unterschiedlichen Aufgaben mit unterschiedlichen KI-Modellen begegnet werden kann.

00:04:29: Metta hat ein Team gegründet, das weitere KI-Regulierung in den USA abwenden soll.

00:04:36: Das sogenannte American Technology Excellence Project soll Berichten zufolge über Dutzende Millionen US-Dollar von Metta verfügen.

00:04:44: Dabei hat US-Präsident Donald Trump eigentlich verlauten lassen, dass es keine KI-verhindernen Gesetze geben dürfe.

00:04:51: Engadget schreibt jedoch, dass allein in diesem Jahr mehr als ein-tausend Vorschläge zur Regulierung von KI auf bundesstaatlicher Ebene eingebracht worden seien.

00:05:01: Tatsache ist, dass die USA mitnichten ohne KI-Regulierung dastehen, anders als es bei Klagen über den europäischen AI-Akt oftmals durchklingt.

00:05:11: Auch jetzt schon gibt es in den Bundesstaaten verschiedene Gesetze, die KI-Dienste betreffen oder sich explizit an diese richten.

00:05:18: Metta glaubt jedoch, Regulierung würde die USA im Wettrenn um KI mit China zurückwerfen.

00:05:24: Die Interessengruppe soll das also verhindern.

00:05:27: Konkret soll sie in den Bundesstaaten jeweils die politischen Kandidatinnen und Kandidaten unterstützen, die auf Metta's Linie sind.

00:05:35: Schon zuvor hatte Metta eine ähnliche Interessengruppe in Kalifornien eingerichtet.

00:05:40: Dort gibt es bereits einzelne KI-Gesetze, etwa zum Schutz digitaler Abbilder von Schauspielern oder mit Bezug auf Falschinformationen vor Wahlen.

00:05:48: Außerdem plant der Gouverneur Gavin Newsom ein Gesetz, das KI-Chatbots regulieren soll.

00:05:55: In diesem Wettremd um die beste KI hat Meta jetzt ein KI-Modell entwickelt, das Code nicht nur schreiben, sondern auch dessen Ausführung im Computer simulieren kann.

00:06:05: Das Code-World-Model, kurz CWM, mit thirty-two Milliarden Parametern soll wie ein mentaler Debugger funktionieren, erklärt Kim Scheurenbrand von The Dakota.

00:06:17: Die Metaforscherinnen und Forscher erklären in der Vorstellung des neuen Modells, dass echtes Programmverständnis mehr erfordert als das Nachahm von Code-Mustern.

00:06:26: Man müsse verstehen, was Code bei der Ausführung bewirkt.

00:06:29: Genau diese Fähigkeit haben sie ihr Modell beigebracht.

00:06:32: Das Code World Model kann vorhersagen, ob ein Programm jemals endet oder in einer Endlosschleife hängen bleibt.

00:06:39: Es analysiert auch die Komplexität von Algorithmen und schätzt ein, wie lange Programme bei verschiedenen Eingabegrößen brauchen.

00:06:46: Das Modell arbeitet sogar rückwärts.

00:06:48: Aus einer Beschreibung dessen, was ein Programm tun soll, simuliert es die Ausführung und leitet den passenden Code ab.

00:06:55: Die Forscherinnen und Forscher zeigen Beispiele, bei denen das Code-World-Model Funktionen aus Anforderungen und erwarteten Ergebnissen rekonstruiert hat, ohne den ursprünglichen Code zu kennen.

00:07:05: Das Training erfolgte über hundertzwanzig Millionen Python-Programmausführungen.

00:07:10: Das Modell beobachtete Schritt für Schritt, wie sich Variablen ändern und was in jedem Moment im Programm passiert.

00:07:16: Die Forscherinnen und Forscher nennen das Execution Traces.

00:07:19: Meter hat das Code-World-Model als Open-Weights-Modell unter einer nicht-kommerziellen Forschungslizent veröffentlicht.

00:07:26: Nach Quantisierung, also der Reduzierung der Modellgröße durch weniger präzise Zahlenformate, läuft das Modell auf einer einzelnen NVIDIA H-Einhundert mit Achtzig Gigabyte Speicher.

00:07:37: Die Forscher und Forscher betonen, dass das Code-World-Model ein reines Forschungsmodell ist, das ausschließlich auf Programmierung und mathematisches Denken fokussiert ist.

00:07:45: Danke schön, Kim.

00:07:46: Der chinesische Tech-Konzern Alibaba hat One-two-fünf-Preview veröffentlicht, ein Videomodell, das Clips mit synchronisiertem Ton erzeugen kann.

00:07:57: Das System verwendet eine multimodale Architektur, die Text, Bilder, Video und Audio in einem einheitlichen System verarbeitet.

00:08:06: Alibaba trainierte das Modell gemeinsam auf allen Datentypen.

00:08:09: Das soll eine bessere Abstimmung zwischen den verschiedenen Medien ermöglichen.

00:08:13: Allerdings gibt Alibaba nur oberflächliche Details zur Architekturpreis.

00:08:18: Das Unternehmen erwähnt den Einsatz von Reinforcement Learning durch menschliches Feedback.

00:08:23: Ein technischer Report fehlt jedoch ebenso wie Informationen zu den Trainingsdaten.

00:08:29: Die Full-HD-Videos sind zehn Sekunden lang.

00:08:32: Das System kann stimmen mehrerer Personen Soundeffekte und Hintergrundmusik erstellen.

00:08:36: Als Eingabe akzeptiert es Text, Bilder und Audio.

00:08:40: Nutzerinnen und Nutzer können also ein Foto hochladen und per Textbefehl ein Video mit passender Musik erstellen lassen.

00:08:47: One-Zwei-Punkt-Fünf-Preview erreicht laut Alibaba ein ähnliches Niveau wie Google's VO-Drei.

00:08:53: In Demonstrationsvideos zeigen sich allerdings noch Schwächen.

00:08:57: Bild- und Tonspur passen nur auf den ersten Blick gut zusammen.

00:09:00: Bei näherem Hinsehen synchronisieren sich Schlagzeugspiel und Musik nicht auf den Tag genau.

00:09:06: Die Darstellung konsistenter Gesichter bereitet den Modell ebenfalls Schwierigkeiten.

00:09:12: Der Spitzenverband Digitale Gesundheitsversorgung hat ein sogenanntes Green Paper vorgelegt.

00:09:18: Der SVDGV vertritt über einhundertsiebzig E-Health-Unternehmen und beobachtet einen engen Pass aus unklaren Regularien, mangelndem Datenzugang und fehlenden Testumgebungen für KI-Entwickler.

00:09:32: Um diesen Engpass aufzubrechen, fordert der Verband eine branchenspezifische AI Regulatory Sandbox für das Gesundheitswesen.

00:09:41: Was genau der SVDGV damit meint, erklärt Marie Klerkoch von Heise Online.

00:09:46: Bei der KI-Regulierung gibt es laut dem Spitzenverband digitale Gesundheitsversorgung und weiteren Branchenvertretern.

00:09:51: noch viele offene Fragen.

00:09:53: Das Gesundheitswesen ist ein besonders sensibler Bereich, in dem der Schutz von Patientinnen oberste Priorität hat.

00:09:59: KI-Systeme müssen deshalb streng geprüft werden und deshalb viele Produkte lange und auch regelmäßig getestet werden müssen.

00:10:05: Das ist bereits mit der Medizinprodukteverordnung der Fall.

00:10:08: Dazu greift jetzt auch der AI-Agg.

00:10:10: Dabei überschneiden sich beide teilweise, was bei Herstellern und Anwendern zur Verunsicherung führt.

00:10:15: Der Verband wünscht sich darum mehr Klarheit und will daher ein eigenes KI-Realabor.

00:10:20: Es gibt nämlich bereits ein Pilotprojekt für einen KI-Reallabor von der Bundesnetzagentur.

00:10:26: Das im Mai gestartete Projekt sei jedoch zu unspezifisch für die besonderen Anforderungen von Medizin und Pflege.

00:10:31: Auch die Datenlage bleibt ein Hindernis für das Training und Testen von Kaisen große Mengen qualitativ hochwertiger Daten erforderlich.

00:10:38: Gesundheitsarten sind jedoch besonders geschützt und zudem auf viele Einrichtungen verteilt, was den Zugang zusätzlich erschwert.

00:10:44: Der Verband räumt jedoch auch ein, dass es noch einige Erragen gibt, die noch offen sind.

00:10:48: Zum Beispiel, wie sich K.E.

00:10:49: Entscheidungen nachvollziehbar machen lassen oder zum Beispiel, wie Diskriminierung verhindert wird.

00:10:56: Der Chef des ChatGPT-Entwicklers OpenAI, Sam Altman, will den Einsatz von künstlicher Intelligenz im Gesundheitswesen vorantreiben.

00:11:05: Wir haben in den letzten beiden Versionen beobachtet, dass immer mehr Menschen ChatGPT zur Unterstützung bei der Verwaltung ihrer Gesundheitsversorgung nutzen.

00:11:13: Und das funktioniert mittlerweile recht gut, sagte Altman bei der Verleihung des Axelspringer Awards in Berlin.

00:11:19: Ärzte würden es nutzen, um bessere Versorgung anzubieten, aber auch Patienten und andere Menschen würden es häufig für Fragen nutzen.

00:11:28: Altman ist der neunte Preisträger des Axelspringer Awards.

00:11:31: Mit dem undotierten Preis werden jährlich Personen gewürdigt, die laut Springer in herausragender Weise Märkte verändern.

00:11:39: Die geplante KI-Partnerschaft zwischen dem Filmstudio Lionsgate und dem Start-up Runway kommt langsamer voran als erwartet.

00:11:47: Das berichtet das Branchenmagazin The Wrap.

00:11:50: Ein überraschender Grund?

00:11:51: Die Filmbibliothek reicht nicht aus, um ein leistungsfähiges KI-Modell zu trainieren.

00:11:57: Ursprünglich wollte Lionsgate seinen Filmkatalog nutzen, um mit Runway ein eigenes KI-Modell für die Filmproduktion zu entwickeln.

00:12:04: Doch laut einem Insider sei selbst Disneys gesamter Filmkatalog zu klein für ein solches Vorhaben.

00:12:11: Diese Aussage widerlegt eine verbreitete Annahme der Branche.

00:12:14: Offenbar verfügen auch die größten Hollywood Studios trotz Jahrzehntelanger Produktion nicht über ausreichend vielfältiges und großvolumiges Videomaterial.

00:12:24: Zusätzlich bremsen rechtliche Fragen das Projekt.

00:12:27: Ungeklärte Bildrechte von Schauspielerinnen und Schauspielern erschweren die Nutzung des Materials.

00:12:33: Lionsgate betont, man verfolge weiter KI-Projekte mit mehreren Anbietern.

00:12:37: runway äußerte sich gegenüber der Rap nicht zu den Berichten.

00:12:42: Die Popularität von KI-Chatbots verändert, wie wir online suchen.

00:12:47: Die vermeintlich wichtigsten Infos gibt es im direkten Dialog mit der KI oder in automatisierten KI-Zusammenfassungen der Suchmaschinen.

00:12:56: Medienhäuser als Urheber vieler dieser Informationen klagen dagegen, weil ihnen die Werbeeinnahmen wegbrechen, wenn weniger Menschen auf die Links zu ihren Artikeln klicken.

00:13:06: Der Politikwissenschaftler und Soziologe Manuel Hofmann arbeitet als Referent für Digitalisierung bei der Deutschen AIDS-Hilfe.

00:13:13: In einem Gastkommentar auf Heise Online erklärt er, wie sich diese Veränderung auch auf NGOs auswirkt.

00:13:20: Er sieht dabei die zivilgesellschaftliche Vielfalt bedroht.

00:13:24: Statistiken zeigen, dass sich das Zuverhalten der Menschen gravierend verändert hat.

00:13:29: Immer mehr Menschen bleiben auf dem Blattform und konsumieren nur die dort aufbereitenden Inhalte.

00:13:35: Die wegesellschaftliche Organisation mit ihrer Expertise für die jeweiligen Themen bleiben in den Zusammenfassungen bei Suchanfragen unsichtbar.

00:13:43: Sie werden oft nicht einmal als Quelle genannt.

00:13:46: Doch wenn in Folge die Organisationspapseiten weniger besucht werden, können NGOs nicht auf ihre weiterführenden Angebote verweisen und umspenden werden.

00:13:55: Doch genau darauf sind sie angewiesen, gerade angesichts knapperwährender öffentlicher Mittel.

00:14:02: Das Thema hat auch eine inhaltliche Dimension.

00:14:05: Denn die KI-Zusammenfassung haben keinen neutralen Wahrheitswert, sondern sind ein Ausschnitt.

00:14:11: Dieser ist von Algorithmen und auch von Geschäftsinteressen geleitet.

00:14:15: Große Tech-Konzerne nehmen damit Einfluss auf öffentliche Meinungsbildung, ohne dabei angemessen demokratisch kontrolliert zu werden.

00:14:23: Diese Machtkonzentration bedroht also zivilgesellschaftliche Vielfalt.

00:14:29: Deshalb müssen Plattformen darauf verpflichtet werden, ihre Quellen in KI-Zusammenfassungen prominent und klickbar auszuweisen.

00:14:37: Für sensible Themen sollten Zusammenfassungen entfallen oder zumindest mit relevanten civilgesellschaftlichen und wissenschaftlichen Akteuren abgestimmt werden.

00:14:46: Darüber hinaus braucht es mehr Transparenz darüber, wie die Systeme im Hintergrund funktionieren und eine unabhängige Aufsicht, um demokratische Vielfalt zu sichern.

00:14:57: Am Ende können aber alle ihren Beitrag dazu leisten, um Zivilgesellschaft wieder zu stärken.

00:15:03: Finanziell oder ideell durch Verbreitung der Angebote oder ehrenamtliches Engagement.

00:15:09: Denn als Gegengewicht zum von wenigen Plattformen kontrollierten Internet ist eine gut aufgestellte Zivilgesellschaft unerlässlich.

00:15:16: Das sagt der Politikwissenschaftler und Soziologe Manuel Hofmann in einem Gastkommentar für Heise Online.

00:15:23: Neon Money Talks ist auf iPhones in den USA derzeit die vierte meist installierte Anwendung, noch vor Google und WhatsApp.

00:15:32: Der Grund für den rasanten Aufstieg ist Geld.

00:15:35: Neon zeichnet die mithilfe der App initiierten Telefongespräche auf und schütte dafür fünfzehn US-Cent pro Minute aus, maximal dreißig US-Dollar pro Tag.

00:15:45: Die Aufnahmen, so der Betreiber, würden dann für Trainings künstlicher Intelligenzen weiterverkauft, bereinigt um personenbezogene Daten.

00:15:54: Allerdings gibt es kein Versprechen, dass die Aufnahmen geheim gehalten oder ausschließlich für KI-Trainings genutzt werden.

00:16:00: Im Gegenteil, die Vertragsklausel Neons sind ein juristisches Minfeld.

00:16:06: Neon Mobile sichert sich unwiderrufliche, weltweite, gebührenfreie, übertragbare und sublizensierbare Lizenzen.

00:16:15: Auf Ansprüche bezüglich dessen, was Neon oder Neons Kunden aus den Aufnahmen generieren, verzichten Teilnehmende.

00:16:22: Selbstreden hafen diese auch selbst, wenn sie bei ihren Unterhaltungen rechte Dritter verletzen, also etwa wenn sie bei einem Telefonat einen copyrightgeschützten Text aussprechen oder eine Melodiesum.

00:16:34: Mit mehreren Maßnahmen will Spotify seine Nutzerinnen und Musikschaffende vor KI-Musik schützen.

00:16:40: Unter anderem sollen Musikerkünftig offenlegen, ob und in welcher Form künstliche Intelligenz bei der Produktion zum Einsatz kommt.

00:16:48: Um Künstlerinnen und Künstler von Nachahmung und KI-Stimmkopien zu schützen, hat Spotify ein Beschwerdeformular eingeführt.

00:16:55: Darüber können sie sich an Spotify wenden, wenn ihre Stimme illegal von KI kopiert wurde.

00:17:01: Allerdings muss über diesen Weg jeder KI-Song einzeln beanstandet werden.

00:17:05: Zwar steigen die jährlichen Auszahlungen insgesamt, aber Teile davon landen bei KI-Spammern.

00:17:12: Solche Leute laden massenhaft Songkopien oder kurze KI-Tracks hoch, um den Algorithmus auszutricksen und möglichst viele Wiedergaben zu bekommen.

00:17:21: Ab Herbst soll daher ein Filter dafür sorgen, dass solche Uploads und die Nutzenen dahinter automatisch erkannt werden.

00:17:28: Der Algorithmus soll diese Inhalte dann nicht mehr empfehlen.

00:17:33: Das war das KI-Update von Heise Online vom sächsundzwanzigsten September zweitausendfünfundzwanzig.

00:17:38: Eine neue Folge gibt es Montags, Mittwochs und Freitags ab fünfzehn Uhr.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.