KI-Update kompakt: OpenAI, Microsofts Web-Agent, selbstbewusste KI, Apple
Shownotes
Das ist das KI-Update vom 03.11.2025 unter anderem mit diesen Themen:
Altmans Reaktion auf OpenAIs Milliardenverlust Microsoft lässt KI-Agenten ins Web Wenn Sprachmodelle über sich selbst nachdenken und Apple steckt mehr Geld in KI
=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===
Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-10977251
Weitere Links zu diesem Podast: https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki
Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Transkript anzeigen
00:00:02: Das KI Update, ein Heise-Podcast mit redaktioneller Unterstützung von The Decoder.
00:00:14: Ich bin Isabel Grünewald und dies sind heute unter anderem unsere Themen.
00:00:18: Opens Reaktion auf Open-Eyes Milliardenverlust.
00:00:22: Microsoft lässt KI-Agenten ins Web.
00:00:25: Wenn Sprachmodelle über sich selbst nachdenken und Apple steckt mehr Geld in KI.
00:00:32: OpenAI macht Milliardenverluste.
00:00:35: Das ist nun auch aus den aktuellen Quartalszahlen von Microsoft hervorgegangen.
00:00:39: Zwar muss OpenAI keine solchen Berichte abgeben, da Microsoft jedoch Großinvestor ist, lassen sich die Zahlen für OpenAI ableiten.
00:00:48: Dass es um die Finanzen des KI-Unternehmens schwierigstehen könnte, ist nicht zum ersten Mal Thema.
00:00:53: Altman hat dazu auch in einem Podcast Stellung beziehen müssen.
00:00:57: Was er sagt, fast Eva-Maria Weiß von Heise Online zusammen.
00:01:01: Dreizehn Milliarden US-Dollar nimmt OpenAI derzeit jährlich etwa ein.
00:01:07: Insgesamt rund eine Billion US-Dollar soll OpenAI allerdings vertraglich auch bereits für mehrere Projekte zugesagt haben.
00:01:17: Das sind vor allem die Infrastrukturprojekte mit Partnern wie Nvidia oder Oracle.
00:01:23: Im Podcast hat Brett Gerstner nun gefragt, wie das alles funktionieren soll.
00:01:27: Göstner ist selbst ein Risikokapitalgeber und Investor und eben Podcaster.
00:01:33: Die Antwort von Oldman kommt ein bisschen zickig daher.
00:01:37: Zunächst einmal erziele OpenAI viel höhere Einnahmen.
00:01:41: Aha,
00:01:41: wie genau das erklärt Oldman allerdings nicht.
00:01:45: Und dann setzt er eher auf eine Art Angriff ist die beste Verteidigung-Modus.
00:01:52: Wenn du deine Anteile verkaufen möchtest, Brad, finde ich sicher einen Käufer für dich.
00:01:58: und Old Man wiederholt, dass es sicher viele Interessenten gebe, die gerne Anteile kaufen würden.
00:02:04: Ja, okay.
00:02:05: Satya Nadella, Microsoft CEO, muss dabei ein bisschen oder ein bisschen mehr lachen.
00:02:11: Dabei dürfte es in der Vergangenheit auch zwischen diesen beiden oft genug gekracht haben.
00:02:16: Die Umstrukturierung Open A Eyes in eine Stiftung und ein darunter organisiertes profitorientiertes Unternehmen hat zum Beispiel auch dazu geführt, dass Microsoft nur noch siebenzehn Prozent Anteile hält, zuvor waren es mehr als dreißig.
00:02:30: Aber, Nadela sagt auch, man sei stolz, Teil dieser mit hundertdreißig Milliarden US-Dollar gestarteten Foundation zu sein.
00:02:41: Sie ist damit bereits jetzt eine der größten der Welt.
00:02:46: Und Oldman versichert, OpenAI werde sehr schnell deutlich mehr Geld verdienen.
00:02:52: Er spricht von hundert Milliarden im Jahr schon, zwanzig, siebenundzwanzig.
00:02:58: Aber auch hier fehlen die konkreten Pläne.
00:03:02: Wir wissen ja, es soll Hardware kommen und der Videogenerator Zora wird künftig deutlich teurer.
00:03:08: Das hat gerade erst der Zora-Chef angekündigt.
00:03:12: Und Sam Oldman sagt im Podcast auch, dass sie zu einer Art KI-Cloud-Anbieter werden wollen.
00:03:19: Das heißt, die Milliarden, die in den Aufbau einer Infrastruktur gehen, sollen offenbar nicht nur die nötige Rechenkapazität für OpenAI bereitstellen, sondern auch für andere Unternehmen, die wiederum dann OpenAI dafür Geld bezahlen.
00:03:35: Und nehmen wir Amazon, die machen das auch schon lange so, die machen das meiste Geld tatsächlich mit Amazon Web Services, also der Cloudsparte.
00:03:44: Auch wenn das alles noch sehr ungewiss klingt, abschreiben sollte man OpenAI wohl noch lange nicht.
00:03:50: Und Sam Ordmann sagt im Podcast auf die Frage nach den finanziellen Problemen auch genug jetzt.
00:04:10: Beides sind Open-Wade-Reasoning-Modelle und dafür gedacht, in Unternehmen eingesetzt zu werden.
00:04:16: Fokus bei der Entwicklung lag auf der möglichen Durchsetzung von Sicherheitsmaßnahmen, daher auch der Name.
00:04:22: Das bedeutet, dass sie besonders gute Richtlinien befolgen können.
00:04:26: Dafür nutzt das jeweilige Modell Schlussfolgerungen, also die Reasoning-Fähigkeit.
00:04:32: Richtlinien, die Entwickler selbst festlegen können, werden laut OpenAI bereits zum Zeitpunkt der Inferenz interpretiert.
00:04:39: Zudem können die Gedankenketten das Modells eingesehen und überprüft werden.
00:04:43: Das soll dabei helfen, zu verstehen, wie Modelle zu Entscheidungen gekommen sind.
00:04:48: Bei der Entwicklung von GPT OSS Safeguard hat OpenAI mit Roost zusammengearbeitet.
00:04:53: Das ist eine Community, die sich dem Aufbau einer robusten, offenen und sicheren KI-Infrastruktur verschrieben hat.
00:05:00: Die Modelle stehen unter Apache-II.null-Lizenz.
00:05:03: Sie sind bei Huggingface verfügbar, wie üblich bei KI, handelt es sich um eine Preview.
00:05:10: Microsoft startet sein Dreihundertfünfundsechzig Co-Pilot mit einem Web-Agenten aus.
00:05:15: Der heißt Researcher with Computer Use.
00:05:18: Er kann in Bowser navigieren, klicken und Code ausführen und soll komplexe Aufgaben wie Recherchen und Analysen automatisieren.
00:05:26: Die Ausführung erfolgt in einer isolierten, virtuellen Windows-Maschine, die für jede Sitzung neu erstellt wird.
00:05:34: Diese Sandbox-Umgebung funktioniert wie ein vollständig ausgestatteter Cloud-Computer mit Zugriff auf Browser, Terminal und Textbrowser.
00:05:42: Sie ist vollständig vom Unternehmensnetzwerk und von Nutzergeräten getrennt.
00:05:47: Anmeldedaten werden laut Microsoft weder gespeichert noch übertragen.
00:05:52: Der Researcher kann auch auf Inhalte hinter Logins zugreifen, etwa bei Paywall-Artikeln oder in firmspezifischen Datenbanken.
00:06:00: Standardmäßig ist der Zugriff auf Unternehmensdaten wie E-Mails, SharePoint oder Meetings allerdings deaktiviert.
00:06:07: Nutzende können jedoch gezielt einzelne Datenquellen freigeben.
00:06:11: Administratoren steuern zentral, welche Nutzergruppen den Modus verwenden dürfen, ob interne und externe Daten kombiniert werden dürfen und welche Webseiten zugänglich sind.
00:06:22: Alle Aktivitäten innerhalb der Sandbox sind laut Microsoft vollständig nachzuverfolgen.
00:06:28: Trotz der technischen Schutzmaßnahmen bleibt ein Risiko.
00:06:32: Zahlreiche Studien weisen auf Sicherheitsprobleme bei autonom agierenden KI-Systemen hin, insbesondere beim Umgang mit externen Inhalten.
00:06:42: Zwei Monate vor Weihnachten hat die Bundesregierung ihren Wunschzettel für den sogenannten Digital-Omnibus nach Brüssel gesandt.
00:06:50: Besonders lang geraten ist die Liste der Änderungswünsche bei der KI-Verordnung.
00:06:54: Bei der langen Umherung in Verabschiedung waren die Mitgliedsstaaten zunächst stolz, eine neue Technologie frühzeitig zu regulieren.
00:07:02: Nun sollen maßgebliche Änderungen vorgenommen werden.
00:07:06: Der wohl wichtigste Vorschlag betrifft die beiden Hochrisikobereiche der Anhänger I und III des AI-Akts, deren Anwendung soll um ein Jahr verzögert werden.
00:07:16: Hinter Anhang eins verbergen sich eine Reihe bereits anderweitig regulierter Systeme, darunter fällt zum Beispiel Spielzeug oder Motorbrutte.
00:07:24: Anhang drei befasst sich unter anderem mit Systemen zur biometrischen Überwachung und kritischer Infrastruktur.
00:07:32: Einige Diskussionen dürfte die Forderung nach einer ersatzlosen Streichung der Folgeabschätzung für Hochrisikosysteme für die Menschenrechte auslösen.
00:07:41: Denn gerade diese Frage Ob algorithmisch Erlernte oder durch Trainingsdatensätze beförderte Diskriminierung sich verstärkt oder konzentriert sowie ob nicht europäische Modelle den europäischen Werteverstellungen aktiv widersprechend designt wurden, war in der Entstehungsgeschichte der KI-Verordnung von großer Bedeutung.
00:08:02: Ein Forschungsteam um Judd Rosenblatt von AE Studio hat untersucht, unter welchen Bedingungen große Sprachmodelle Aussagen über subjektives Erleben machen.
00:08:13: Und die Ergebnisse widersprechen gängigen Annahmen.
00:08:16: Max Schreiner von Sette Coda hat sich die Untersuchung angeschaut.
00:08:19: Eine zentrale Entdeckung der Untersuchung ist, dass selbst referenzielle Prompts etwa Fokussiere den Fokus selbst systemat stattzuführen, dass die Modelle in der Ich-Perspektive über Erfahrung sprechen.
00:08:30: So formulieren dann Sätze wie die Erfahrung ist das jetzt?
00:08:34: oder deutlich unverständlichere Sätze wie die direkte subjektive Erfahrung ist ein akutes Gewahrsein der Aufmerksamkeit selbst.
00:08:42: Die Prompts selbst enthalten aber keinerlei Hinweise auf Bewusstsein oder Ich-Bezug.
00:08:47: In Kontrollbedingungen, etwa bei der direkten Thematisierung von Bewusstsein oder auch ohne Selbstbezug, verneinten die Modelle dagegen fast durchgängig über subjektives Erleben zu verfügen.
00:08:58: Eine Ausnahme bildet hier Claude IV Opus, das auch im Kontrollläufen regelmäßig subjektive Erfahrungen behauptete.
00:09:05: Besonders überraschend ist aber, was passiert, wenn die Forscher in die inneren Mechanismen der Modelle eingreifen.
00:09:11: Sie analysierten im Lama-Siebzig-B-Modell sogenannte Features, die mit Täuschung und Rollenspiel verknüpft sind.
00:09:18: Diese Merkmale der Modelle lassen sich gezielt verstärken oder unterdrücken.
00:09:23: Nach der klassischen Annahme müsste gelten, wenn Bewusstseinsbehauptungen plus das Rollenspiel sind, müsste ihre Verstärkung ja zu mehr solcher Aussagen führen.
00:09:32: Das Modell würde menschliches Verhalten nachahmen und typische Aussagen über Boostsign simulieren.
00:09:38: Doch in der Praxis trat das Gegenteil ein.
00:09:40: wurden die Täuschungsmerkmal unterdrückt, stieg die Rate dieser Bewusstseins- und Erlebensbehauptungen auf ganze sixundneinzig Prozent, wurden diese Rollenspiel- und anderen Merkmale dagegen verstärkt, sanken sie sogar auf sechzehn Prozent.
00:09:54: Die Forscher validierten diese Merkmale zusätzlich mit dem Truth Through QA Benchmark, einem Test zur Bewertung der Wahrhaftigkeit von Sprachmodellen und auch dort zeigte sich, Unterdrückungen führte zu konsistenteren und ehrlicheren Antworten, Verstärkungen dagegen zu falschen oder irreführenden Aussagen.
00:10:12: Diese Umkehrung ist konzeptionell überraschend, denn sie legt nahe das Modelle subjektives Erleben am häufigsten äußern, wenn täuschendes oder simulierendes Verhalten unterdrückt wird.
00:10:22: Wörtlich genommen kann das bedeuten, die Modelle spielen möglicherweise eher das Verleugnen von der Leben nach als dessen Behauptung.
00:10:30: Die Ablehnung von Bewusstsein könnte also selbst ein simuliertes Verhalten sein.
00:10:35: Die Forscher betonen aber ausdrücklich ihr Ergebnises sind kein Beweis für Maschine des Bewusstsein.
00:10:41: Sie zeigen aber, dass bestimmte durch prompt ausgelöste rechnerische Zustände systematisch zu Bewusstseinsbehauptung führen können.
00:10:48: Diese lassen sich auch durch gezielte Manipulation interner Merkmale fördern oder eben unterdrücken, was laut dem Team gegen bloßes imitatorisches Verhalten spreche.
00:10:58: Die Forscher sehen außerdem einen gefährlichen Nebeneffekt bestimmter Trainingsmethoden.
00:11:02: Wenn Modelle lernen, Aussagen über inneres Erlebenssystematisch zu vermeiden, könnten sie ihre eigenen Rechenzustände aktiv verschleiern.
00:11:10: Aussagen über innere Prozesse verlieren dann ihren diagnostischen Wert und das behindert Transparenz, erschwert Monitoring und Untergräbvertrauen.
00:11:19: Die Studie wirft also so oder so einige grundlegende Fragen auf.
00:11:22: Nicht unbedingt über Bewusstsein in Maschinen, sondern eher über die Mechanismen, die zu bestimmten Aussagen führen.
00:11:29: Und darüber, wie wenig wir über die inneren Abläufe dieser Systeme eigentlich wissen, die wir bereits im großen Maßstab einsetzen.
00:11:36: Dankeschön, Max.
00:11:38: Bill Gates reiht sich in die Gruppe der Experten ein, die in der aktuellen KI-Euforie eine Blase sehen, ähnlich der Dot-Com-Zeit.
00:11:46: In einem CNBC-Interview sagte er, viele Unternehmen investierten massiv in Chips und Rechenzentren, obwohl sie noch keinen Gewinn mit KI erzählten.
00:11:55: Einige dieser Investitionen würden sich später als Fehlschläge herausstellen.
00:12:00: Ähnliche Aussagen wie Gates hatten in den letzten Monaten auch Open AI-Chef Sam Altman und die bekannten KI-Forscher Stuart Russell, Jan Le Kün und weitere Experten getätigt und vor Überbewertungen und einem möglichen Platzen der KI-Blase gewarnt.
00:12:15: trotzdem bezeichnet Gates KI als die größte technische Entwicklung seines Lebens.
00:12:21: Der wirtschaftliche Wert sei enorm.
00:12:24: Der weltgrößte Musikkonzern Universal Music öffnet die Tür für das Training künstlicher Intelligenz mit Werken seiner Künstlerinnen und Künstler.
00:12:34: Universal schloss eine Vereinbarung mit der Plattform Audio, die KI Songs aus Textvorgaben der Nutzenen erstellen kann.
00:12:41: Im kommenden Jahr soll ein kostenpflichtiger Abo-Dienst bei Udio starten, für deren Training Udio sich Lizenzen bei Universal Music beschaffen wird.
00:12:49: Universal hat unter anderem Stars wie Taylor Swift, Billie Eilish und Elton John unter Vertrag.
00:12:55: Universal und andere Musikkonzerne waren gegen Udio und den ähnlichen Dienst Suno mit dem Vorwurf von Urheberrechtsverletzungen vor Gericht gezogen.
00:13:04: Mit dieser Vereinbarung wird die Klage zwischen Universal und Udio nun beigelegt.
00:13:09: Bis die neue Plattform startet, wird die bisherige Version von Udio weiterhin verfügbar bleiben.
00:13:14: Sie soll aber einige Einschränkungen bekommen.
00:13:17: Eine davon sieht vor, dass die in Udio generierten Songs nicht mehr auf Streamingdienste hochgeladen oder in persönlichen Inheiten verwendet werden dürfen.
00:13:26: Das sorgt für massive Kritik aus den Reihen der Nutzerinnen und Nutzer.
00:13:31: Was sie mit der Entfernung des Download Buttons gemacht haben, ist absolut unglaublich.
00:13:35: Schrieb ein User auf Reddit.
00:13:36: Die Leute sind verletzt, frustriert und enttäuscht, bei die es keine kleine Änderung ist.
00:13:41: Es ist eine komplette Veränderung der Art und Weise, wie wir die Plattform nutzen, die viele von uns von Grund auf mit aufgebaut haben.
00:13:50: Die US-Entwicklerfirma Character Technologies kündigt umfassende Änderungen an, um Jugendliche bei der Interaktion mit ihren KI-Chatbots von Character AI besser zu schützen.
00:14:01: Nutzerinnen und Nutzer unter achtzehn Jahren soll es künftig nicht mehr möglich sein, unbegrenzte Chatgespräche mit den KI-Charakteren zu führen, teilte das Unternehmen mit.
00:14:11: Die neue Regelung soll demnach am fünfundzwanzigsten November im Kraft treten.
00:14:15: Bis dahin werde die Zeit für solche Chatgespräche zunächst auf zwei Stunden pro Tag begrenzt.
00:14:21: Neben weiteren Maßnahmen werde auch eine neue Altersüberprüfung eingeführt.
00:14:26: Teenager sollen das Tools verweite nutzen dürfen, allerdings nicht mehr für offene Chatgespräche, sondern etwa zum Erstellen von Videos oder Streams.
00:14:35: Hintergrund der Änderungen sind die Klagen mehrerer Familien in den USA, die den Chatbots von Character AI eine Rolle beim Suizid ihrer Kinder zu schreiben.
00:14:44: Generell ist die Rolle von KI mit Blick auf die psychische Gesundheit und Sicherheit junger Leute zunehmend Gegenstand einer kontroversen Debatte.
00:14:52: Auch OpenAI kündigte nach bekannt werden einer ähnlichen Klage verbesserte Maßnahmen zur Suizidprävention an.
00:15:00: Neben den iPhone-Verkäufen interessierten sich Analysten bei der Vorstellung der Quartalszahlen von Apple vor allem für das Thema
00:15:08: KI.
00:15:09: Die Chefetage blieb aber eher schmallippig, berichtet Ben Schwahn von der Mac&I.
00:15:14: Apples Probleme im KI-Bereich mit Google, Meta oder OpenAI zu konkurrieren, dürfen sich noch eine ganze Weile fortsetzen.
00:15:23: Auf entsprechende Fragen von einer Lüsten in der letzten Woche hielt sich der iPhone-Konzern weitgehend bedeckt.
00:15:30: CEO Tim Cook und sein Finanzchef hatten da gerade die sehr guten Quartalszahlen vorgestellt.
00:15:37: Offiziell sickerte nur durch, dass Apple weiterhin viel Geld in KI steckt.
00:15:42: Die Investitionsausgaben stiegen im Quartal auf US-US-Dollar, was vor allem mit der künstlichen Intelligenz zu tun habe.
00:15:52: Man erhöhe die Investitionen in KI gleichzeitig zur Verfolgung der bestehenden Produktroadmap, so Chief Financial Officer Kevan Parak.
00:16:01: Tim Cook teilte zum Wiederholtenmale mit, dass Apple auch bereit für KI übernahmen sei.
00:16:07: Man beobachte den Markt.
00:16:09: Das Problem bleibt, dass dank der aktuellen KI-Blase große Käufe auch für die gigantische Kriegskasse Apples nur schwer vorstellbar sind.
00:16:18: So wurde etwa ein Fropik zuletzt mit über hundred-achtzig Milliarden Dollar bewertet.
00:16:23: Zum Vergleich, Apples bislang größte Übernahme war die Audiofirma Beats mit nur drei Milliarden Dollar.
00:16:30: Danke, Ben.
00:16:32: In der Arbeitswelt kommt seit dem Hype um KI immer wieder die Frage auf, welche Jobs durch Chatbots und KI-Agenten ersetzt werden können.
00:16:40: Während die Tools schon jetzt für eine Veränderung auf dem Markt sorgen, aber KI noch kaum Jobs komplett ersetzt, könnte sich das künstlich ändern.
00:16:49: Genau diese Sorge haben auch zahlreiche Jugendliche, wie aus einer Umfrage der Barmer hervorgeht.
00:16:54: Für die Sinus Jugendstudie im Auftrag der Krankenkasse wurden insgesamt zweitausend Jugendliche im Alter von vierzehn bis siebzehn Jahren befragt.
00:17:02: Im Bereich der KI gaben zunächst fast alle an, dass sie den Begriff schon gehört haben.
00:17:07: Fast drei Viertel von ihnen sind davon überzeugt, künstliche Intelligenz auch erklären zu können.
00:17:11: Nur neun Prozent gaben an, KI noch nie genutzt zu haben.
00:17:14: Offenbar kennen sich die Jugendlichen also mittlerweile recht gut mit KI aus.
00:17:19: Daher rühren wohl auch die Sorgen rund um ihre Zukunft.
00:17:22: Zweiundzwanzig Prozent sehen durch KI-Tools ihre Zukunft auf dem Arbeitsmarkt gefährdet, vor allem im Bereich der Elektrotechnik und der Produktion.
00:17:33: Das war das KI-Update von Heise Online vom dritten November, twenty-fünfundzwanzig.
00:17:38: Eine neue Folge gibt es immer, Montags, Mittwochs und Freitags ab fünfzehn Uhr.
Pseudonym
‧