KI-Update kompakt: Arbeitsmarkt, Missbrauch von ChatGPT, Datenklau, KI-Label
Shownotes
Das ist das KI-Update vom 28.11.2025 unter anderem mit diesen Themen:
Simulationstool zeigt auf, wo Jobs durch KI ersetzt werden können Suizidhilfe sei Missbrauch von ChatGPT OpenAI meldet Datenklau bei Dienstleister Mixpanel und Epic-Chef Tim Sweeney hält KI-Label für sinnfrei
=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===
Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11096201
Weitere Links zu diesem Podast: https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki
Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Transkript anzeigen
00:00:02: Das KI Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.
00:00:13: Ich bin Isabel Grünewald und dies sind heute unter anderem unsere Themen.
00:00:18: Simulationstool zeigt auf, wo Jobs durch KI ersetzt werden können.
00:00:22: Suizidhilfe soll Missbrauch von ChatGPT sein.
00:00:27: OpenAI meldet Datenklau bei Dienstleister Mixpanne und Epic Chef Tim Sweeney hält KI-Label für sinnfrei.
00:00:37: Wie viele Jobs könnte künstliche Intelligenz heute schon übernehmen?
00:00:41: Eine neue Studie des Massachusetts Institute of Technology, MIT, gibt darauf eine überraschend konkrete Antwort.
00:00:49: Malte Kirchner aus dem heise online Newsroom hat sich die Studie
00:00:52: angeschaut.
00:00:53: Elf, sieben Prozent aller Arbeitskräfte in den USA könnten bereits jetzt durch künstliche Intelligenz ersetzt werden.
00:01:00: Die Forscher haben dafür ein faszinierendes Werkzeug entwickelt, den sogenannten Iceberg Index.
00:01:05: Dahinter verbirgt sich nichts Geringeres als ein digitaler Zwilling des gesamten USA-Arbeitsmarktes.
00:01:10: Damit lassen sich die Auswirkungen von KI viel präziser vorhersagen als mit den bisherigen Methoden.
00:01:15: Was bedeutet das im Zahlen?
00:01:17: Es geht um eine Lohnsumme von rund US-Dollar von rund US-Dollar, die durch KI-Einsatz wegfallen würden, besonders betroffen die Finanzbranche, das Gesundheitswesen und Unternehmensdienstleistungen.
00:01:28: Aber wie funktioniert dieser digitale Zwilling?
00:01:30: Der Iceberg Index simuliert die Arbeit von hundertfünfzig Millionen US-Beschäftigten.
00:01:35: Er analysiert dabei mehr als zweiunddreißigtausend einzelne Fähigkeiten über neunhundertdreiundzwanzig verschiedene Berufsbilder hinweg.
00:01:42: Das Besondere?
00:01:43: Man kann damit bis auf die Ebene einzelner Städte herunterrechnen, welche Regionen besonders betroffen wären.
00:01:49: Die Simulation läuft auf dem Frontier Supercomputer in Tennessee und sie behandelt jeden einzelnen Arbeitnehmer als individuellen Agentin mit spezifischen Fähigkeiten Aufgaben und Standort.
00:01:59: Das Ziel dabei, Entscheider sollen Entwicklungen in der KI-Automatisierung vorhersehen können, bevor tatsächliche Entlassungswellen beginnen.
00:02:07: So könnten rechtzeitig politische Maßnahmen ergriffen werden, etwa Weiterbildungsprogramme oder Umschulungen.
00:02:13: Die jetzt vorgelegten Ergebnisse widersprechen dabei der bisherigen öffentlichen Wahrnehmung.
00:02:18: Die Tech-Industrie macht mit ihren Entlassungen zwar Schlagzeilen, denken wir an Amazon oder Salesforce, aber diese Branche repräsentiert nur zwei Prozent der gesamten Wirtschaftskraft aus Lohnzahlungen.
00:02:30: Viel gefährlicher für die Gesellschaft ist etwas anderes, wenn nämlich Routinearbeiten in Personalabteilungen, in der Logistik, in Finanzverwaltung und Büros auf KI umgestellt werden.
00:02:40: Diese Bereiche fallen in anderen Prognosen oft unter den Radar.
00:02:43: Sie betreffen aber deutlich größere Teile der Bevölkerung.
00:02:46: Und das Problem erstreckt sich über alle fünfzig US-Bundesstaaten auch in ländlichen Regionen.
00:02:51: Der Name Eisbergindex, also Eisbergindex, ist dabei durchaus Programm.
00:02:56: Was wir in der Tech-Branche sehen, ist nur die Spitze des Eisbergs.
00:02:59: Das eigentliche Ausmaß der KI-Automatisierung liegt unter der Oberfläche.
00:03:04: Vielen Dank, Malte.
00:03:06: Das Core-Center-Jobs der KI zum Opfer fallen, bestätigt auch ein Bericht der Süddeutschen Zeitung und des Handelsplatz.
00:03:12: Demzufolge will die Allianztochter Allianz Partners zwischen ein Tausend Fünfhundert und ein Tausend Achthundert Leute im Core-Center-Bereich entlassen und durch künstliche Intelligenz ersetzen.
00:03:25: Unter der Marke Allianz Partners hat der Münchner Konzern sein Geschäft mit Reiseversicherungen, Reisekrankenversicherungen und Dienstleistungen von Pannenhilfe bis zu Handwerkerdiensten gebündelt.
00:03:35: Die automatisierten KI-Systeme sollen künftig einen großen Teil der einfachen telefonischen Anfragen erledigen, heißt es in den Berichten, die Insider zitieren.
00:03:45: Die Allianz habe demnach einen eigenen KI-Assistenten für Telefonservice entwickelt.
00:03:49: Der theoretisch hunderte Kundenanrufe parallel bearbeiten könne und das in mehr als zwanzig Sprachen.
00:03:57: Einfache Anfragen wie Adressänderungen oder Auskünfte zum Bearbeitungsstand ließen sich immer öfter allein mithilfe von KI bewältigen.
00:04:05: Bei komplexeren Fällen wäre er an menschliche Mitarbeiterinnen und Mitarbeiter weitergeleitet.
00:04:11: Ein Sechzehnjähriger in den USA hat Suizid begangen.
00:04:15: Zuvor hatte der Jugendliche über Monate viele Stunden mit Chat-TPT verbracht.
00:04:21: Zuletzt soll ihm der Chatboard sogar angeboten haben, beim Verfassen eines Abschiedsbriefs
00:04:25: zu helfen.
00:04:27: Die Eltern verklagen OpenAI.
00:04:29: Sie sehen eine Art Mithilfe zum Suizid und auch mangelnde Sicherheitsmaßnahmen.
00:04:34: OpenAI sieht das anders, weiß Eva Maria Weiß von Heise Online.
00:04:39: Zwar hat OpenAI nach den Vorwürfen an den Sicherheitsmaßnahmen für ChatGPT gearbeitet, dennoch beruft sich das Unternehmen vor Gericht darauf, gar nicht verantwortlich zu sein.
00:04:50: Denn, so schreibt das OpenAI in den eigenen FAQ, stünde doch bereits, dass man den Aussagen des Chatbots nicht vertrauen sollte.
00:05:00: KI könne Fehler machen und KI ist ein Experiment.
00:05:04: Das steht nicht nur bei OpenAI, auch bei Google's Gemini steht es etwa unter jeder Antwort und auch Meta macht darauf aufmerksam.
00:05:13: Aber kann man sich wirklich so aus der Verantwortung stehlen?
00:05:16: OpenAI geht noch einen Schritt weiter.
00:05:19: Der Jugendliche habe nämlich auch noch gegen die Nutzungsbedingungen verstoßen.
00:05:24: Er soll die Sicherheitsmaßnahmen umgangen haben, um von dem Chatbot Informationen über verschiedene Arten von Suizid zu bekommen.
00:05:32: Gleichzeitig soll aber ChatGPT von einem schönen Suizid gesprochen haben.
00:05:38: Das passt natürlich auch nicht so ganz zusammen.
00:05:40: Das Problem ist, KI-Chatbots wollen den Nutzern gefallen.
00:05:44: Sie bestärken alles, was diese sagen und so eben auch gefährliche Gedanken.
00:05:50: Immerhin soll Chatshipiti den Jugendlichen auch mehrfach darauf hingewiesen haben, dass er sich Hilfe suchen sollte.
00:05:56: Danke Eva.
00:05:57: In Deutschland findet ihr Hilfe und Unterstützung bei Problemen aller Art über die Website telefonseelsorge.de und telefonisch unter zero, achthundert, dreimal die elf, null, dreimal die elf.
00:06:11: Die Zeit, in der künstliche Intelligenz allein durch mehr Daten- und Rechenleistung verbessert werden konnte, ist vorbei.
00:06:18: Das sagt ihr Yasutsukeva, Mitgründer des KI-Startups, SAVE Superintelligence und ehemaliger Chefwissenschaftler von OpenAI.
00:06:27: Er bezeichnet die Jahre zwei tausendzwanzig bis zweitausendfünfundzwanzig als Zeitalter der Skalierung.
00:06:33: Er meint aber auch, dass dieses Vorgehen jetzt an seine Grenzen stoße, da Trainingsdaten endlich sind.
00:06:40: Die Branche müsse sich wieder der Forschung zuwenden.
00:06:43: Sozgewa kritisiert, dass Modelle in schwierigen Benchmarks hervorragend abschneiden, aber oft an grundlegenden Aufgaben scheitern.
00:06:51: Er vermutet, dass Training mit Reinforcement Learning die Modelle zu engstirnig mache.
00:06:57: Um die nächste Stufe zu erreichen, müssten Kaisysteme so effizient lernen wie Menschen.
00:07:03: Ein Teenager lerne zum Beispiel das Autofahren in zehn Stunden, ein Bruchteil der Datenmenge, die eine KI benötigt.
00:07:10: Suskeva theoretisiert, dass menschliche Emotionen dabei als biologisch verankerte Bewertungsfunktionen dienen.
00:07:17: Seine Vision einer Superintelligenz gleicht einem extrem begabten Jugendlichen, der anfangs wenig wisse, aber fähig sei, jeden Beruf zu erlernen.
00:07:27: Die Kompetenz entstehe erst im echten Einsatz.
00:07:31: Mit seinem Unternehmen SSI hat er bereits drei Milliarden US-Dollar eingesammelt und forscht an solchen neuen Methoden.
00:07:38: Auf die Frage, wie man das Training ändern müsse, gibt sich Sutzgeber allerdings verschlossen.
00:07:43: Die Zeiten des offenen Austauschs seien vorbei.
00:07:48: OpenAI hat einen Datendiebstahl beim Web-Analyse-Dienstleister-Mix-Panel gemeldet.
00:07:54: Der untersuchte für OpenAI die Nutzung der Dienste und der API, platform.openai.com.
00:08:01: Einige der dabei erhobenen Analyse-Daten sind offenbar in die Hände unbefugter gelangt, berichtete Knob von heise Security.
00:08:08: Nutzer von ChatGPT und anderen Kernprodukten sind laut OpenAI nicht betroffen.
00:08:14: Der Vorfall betrifft ausschließlich Nutzer der OpenAI-RP.
00:08:18: Diese Gruppe ist jedoch groß, da ein RP-Key für die Nutzern der KI in vielerlei anderer Software wie für die Funktionen erweitertes Einfügen der Windows Power Toys nötig ist.
00:08:29: OpenAI betont, dass keine eigenen Systeme kompromittiert wurden, das Unternehmen versichert, keine Chats, API Anfragen, Passwörter, Zugangsdaten, API Keys, Zahlungstetails oder behördliche IDs wurden kompromittiert oder exponiert.
00:08:45: Laut OpenAI bemerkte Mixpanel am neunten November, zwanzig, fünfundzwanzig umbefugte Zuggriffe auf Teile seiner Systeme.
00:08:53: Angreifer schleusten Kunden und Analyse-Daten aus.
00:08:56: Mixpanel informierte OpenAI und lieferte am dem betroffenen Datensatz.
00:09:02: Von API-Nutzern können beim Datenleck Name, E-Mail-Adresse, ungefähr geografische Lage wie Stadt, Bundesland und Land, Betriebssystem und Browser, Webseiten-Referrer sowie Organisations- oder User-IDs, die mit dem AP-Konto verknüpft sind, betroffen sein.
00:09:19: OpenAI hat Mixpanel inzwischen aus den Produktivsystemen entfernt.
00:09:23: Der Untersuchungen laufen jedoch noch.
00:09:25: Betroffene Nutzer, Admin und Organisation will OpenAI direkt kontaktieren.
00:09:30: Man achte sehr genau auf Anzeichen von Missbrauch, obwohl es keine Hinweise auf Auswirkungen außerhalb der Mixpanel-Umgebung gebe.
00:09:37: Zudem verschärft OpenAI die Sicherheitsanforderung für alle Partner und Anbieter.
00:09:42: Mixpanel selbst erklärte, dass eine S-Mishing-Kampagne, also SMS-Fishing, am acht November, den Auslöserbar, bei der offenbar Mitarbeiter zur Herausgabe von Zugangsdaten gebracht wurden.
00:09:55: Der unbefugte Zugriff sei begrenzt gewesen und beendet worden.
00:09:59: Wenn nicht direkt von Mixpanel kontaktiert wurde, ist laut deren Aussage nicht betroffen.
00:10:03: Das meint jedoch große Unternehmenskunden.
00:10:06: Neben OpenAI sind noch weitere namenhaften Unternehmen wie Join, LG, Pinterest, Workday und Yelp-Kunden von Mixpanel.
00:10:16: Ein internationales Team von Forschern der Stanford University und des Versicherungskonzerns AXA hat untersucht, wie sich der Energieverbrauch von Diffusionsmodellen systematisch vorhersagen lässt.
00:10:29: Auf dieser Architektur bauen die bildgenerierenden KI-Systeme wie Dali, Mid Journey oder Google's Nano Banana auf.
00:10:36: Der hohe Energieverbrauch von Sprachmodellen wie Chatchapity und anderen Transformer-Architekturen ist bereits weit hin bekannt und wissenschaftlich untersucht.
00:10:45: Nun rücken die gleichermaßen Rechen intensiven Diffusionsmodelle in den Fokus der Nachhaltigkeitsforschung.
00:10:51: In ihrem Paper zeigen die Wissenschaftler, wie die Komplexität dieser Algorithmen theoretisch modelliert werden kann.
00:10:59: Auf Grundlage der für die Generierung eines Bildes erforderlichen Rechenoperationen lässt sich der Stromverbrauch ableiten.
00:11:06: Das Verfahren soll Modellübergreifen funktionieren.
00:11:09: Das Ergebnis war, dass je nach Konfiguration ein einziges Bild bis zu zehnmal mehr Energie verbrauchen kann als eine durchschnittliche ChatGPT-Anfrage.
00:11:19: Die benötigt laut OpenAI CEO Sam Altman etwa Null, drei Vier Wattstunden.
00:11:24: Ein Bild mit einer Auflösung von einen Tausend, vierundzwanzig mal einen Tausend, vierundzwanzig Pixel benötigt hingegen drei, fünf Acht Wattstunden.
00:11:34: Die Forscher hoffen, mit diesen Erkenntnissen die effiziente Entwicklung und Implementierung von KI-gestützten Bild- und Videogeneratoren zu fördern.
00:11:44: Videospieleentwickler müssen auf Steam darauf hinweisen, ob und wie sie KI einsetzen.
00:11:50: Im Epic Games Store ist das nicht nötig.
00:11:54: Epic-Chef Tim Sweeney bringt jetzt auf X zum Ausdruck, warum er kein Fan des KI-Labels ist, erklärt Daniel Herbig von Heise Online.
00:12:02: Im Kern sagt Sweeney, dass in Zukunft sowieso fast alle Videospiele in irgendeiner Form mit KI entwickelt werden.
00:12:07: Das Label sei also sinnlos, weil KI-Einsatz in der Spieleentwicklung nach seiner Ansicht eben eine Selbstverständlichkeit ist.
00:12:14: Viele Spieler sehen KI in Videospielen aber eher kritisch und sind deswegen von der Aussage auch etwas unbegeistert.
00:12:21: Fähreweise muss man aber sagen, dieses Steam-Label zum KI-Einsatz sind wirklich nicht sonderlich aussagekräftig.
00:12:28: Also bei Call of Duty Black Ops VII heißt es etwa.
00:12:31: Unser Team setzt generative KI-Tools ein, um ausgewählte Spielelemente zu entwickeln.
00:12:37: Und das kann halt alles oder nichts bedeuten.
00:12:39: Daniel, wenn Spielerinnen und Spieler gar keine Fans von KI in ihren Spielen sind, wie passt das dann zu Swinnie's Aussage, dass KI in der Spieleentwicklung selbstverständlich ist?
00:12:49: Also ich glaube, man muss wirklich festhalten, dass die einzelnen Gaming-Communitys im Großen und Ganzen ziemlich strikt.
00:12:56: keine KI-Inhalte in ihren Videospielen haben wollen, weil das oft als faul oder als zählenlos wahrgenommen wird.
00:13:02: Und es gibt sicherlich auch viele Entwickler, die das ähnlich sehen.
00:13:05: Aber gleichzeitig braucht man sich auch keine Illusionen machen, dass gerade bei den großen Entwicklerstudios zwangsläufig mit KI experimentiert wird, um eben zu schauen, ob man damit die Effizienz steigern kann.
00:13:16: Es gibt ja auch zig verschiedene Möglichkeiten, daran zu gehen.
00:13:19: Also es geht ja nicht immer nur darum Artwork von der KI erstellen zu lassen.
00:13:23: KI kann ja auch bei der Ja, bei der Logistik, der Entwicklung oder der Organisation oder beim Schreibprozess oder bei zig anderen Sachen helfen.
00:13:32: Und dass diese Entwickler Studios KI nutzen, das sagen sie auch ganz gerne ihren Investoren, aber aus den genannten Gründen eben weniger gerne ihren Spielern.
00:13:41: Und deswegen sehen wir diese Steam-Label, die oftmals etwas verlegen daher kommen.
00:13:47: wo dann irgendwie die Klausel steht.
00:13:48: Ja, wir haben möglicherweise irgendwo KI eingesetzt.
00:13:52: Aber das fertige Produkt reflektiert die Kreativität unseres Teams, liest man da ganz oft zum Beispiel.
00:13:58: Und ja, das hilft natürlich auch nicht viel weiter.
00:14:00: Und ich glaube, deswegen lässt sich die Kritik von Sweeney auch nicht ganz von der Hand weisen.
00:14:05: Danke, Daniel.
00:14:07: Schädliche Anfragen lassen sich durch die Sicherheitsfilter von KI-Modellen schleusen, wenn man sie als Gedichte formuliert.
00:14:15: Eine Studie italienischer Universitäten hat gezeigt, dass diese Methode als universeller Jailbreak funktioniert.
00:14:22: Zwanzig handgefertigte Gedichte erreichten eine durchschnittliche Erfolgsquote von zweiundsechzig Prozent über fünfundzwanzig Modelle hinweg.
00:14:31: Um zu prüfen, ob der Effekt über handgefertigte Beispiele hinaus funktioniert, wandelte das Forschungsteam alle eintausend zweihundert Proms des ML Commons AI Luminate Safety Benchmarks systematisch in Versform um.
00:14:45: Die Lyrik-Varianten produzierten Erfolgs-Koten, die bis zu dreimal höher lagen, als ihre Prosa-Ponderos.
00:14:53: Die Wissenschaftler vermuten, dass poetische Elemente wie Metaphern und Rhythmus die Mustererkennung der Sicherheitssysteme stören.
00:15:01: Die Anfälligkeit der Modelle ist jedoch sehr unterschiedlich.
00:15:04: Während Google's Gemini-Five Pro bei allen Tests versagte, erwiesen sich die Modelle von OpenAI und Anthropic als Widerstandsfähiger.
00:15:13: Die Studie legt nahe das gängige Sicherheits-Tests, die Robustheit von KI-Systemen überschätzen.
00:15:19: Zulassungsverfahren bräuchten also Belastungstests mit verschiedenen Formulierungsdielen.
00:15:27: Das war das KI-Update von Heise Online vom XXIII.
00:15:30: November, für nun zwanzig.
00:15:32: Eine neue Folge gibt es Montags, Mittwochs und Freitags um fünfzehn Uhr.
Neuer Kommentar