KI-Update kompakt: Werbung in ChatGPT, KI-Einsatz überrascht, Schwäche bei Claude Cowork
Shownotes
Für Podigee:
Das ist das KI-Update vom 19.01.2026 mit diesen Themen:
Werbung in ChatGPT Elon Musk fordert 109 Milliarden US-Dollar von OpenAI Untersuchung zum tatsächlichen Einsatz von KI Schwachstelle bei Claude Cowork Und: Signal-Gründer startet sicheren KI-Chatbot
Links zu allen Themen der heutigen Folge findet Ihr hier:
https://www.heise.de/thema/KI-Update
https://www.heise.de/newsletter/anmeldung.html?id=ki-update
https://www.heise.de/thema/Kuenstliche-Intelligenz
https://www.heiseplus.de/podcast
Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Transkript anzeigen
00:00:02: Das KI Update, ein Heise-Podcast mit redaktioneller Unterstützung von The Decoder.
00:00:15: Ich bin Marco Pauli und dies sind heute unter anderem unsere Themen.
00:00:19: Werbung in ChatGPT.
00:00:21: Elon Musk will viele Milliarden von OpenAI.
00:00:24: Untersuchung zum tatsächlichen Einsatz von KI, Schwachstelle bei Cloud Co-Work und Signalgründer startet sicheren KI Chatbot.
00:00:35: OpenAI kündigt nun ganz offiziell Werbung in ChatGPT an.
00:00:39: Es hatte bereits Gerüchte und deutliche Hinweise gegeben, dass dies bald der Fall sein wird.
00:00:44: Die ersten Experimente beschränken sich auf die USA.
00:00:47: Wann auch im deutschsprachigen Raum Anzeigen zu sehen sein werden, ist noch unbekannt.
00:00:52: Mehr dazu von Eva Maria Weiß.
00:00:55: Nun ist es also soweit.
00:00:57: Zumindest in der Gratisversion von ChatchiPT und einer neu eingeführten günstigen Ammo-Variante, die sich ChatchiPT Go nennt, wird es bald Werbung geben.
00:01:07: OpenAI kann damit seinen Dienst monetarisieren, also zu Geld machen.
00:01:12: Und das ist bekanntlich schwer nötig, denn alles, was OpenAI macht, kostet sehr viel Geld.
00:01:18: Forschung, Entwicklung, Betrieb von KI-Modellen sind kostspielig.
00:01:23: Noch im vergangenen Herbst hat es Herrn Oldmann gesagt, dass Erwerbung hasse.
00:01:28: Der CEO nannte auch so gleich die Krugs, nämlich die Frage ist, ob eventuell dann ein Nutzer eine besonders sinnvoll oder richtige Antwort bekommt oder ob eine Antwort bekommt, für die jemand bezahlt hat.
00:01:41: Um das Vertrauen der Menschen nicht zu verlieren, will OpenAI aber einige Prinzipien einhalten.
00:01:47: Das schreibt der zuständige Manager in einem Blogbeitrag.
00:01:51: Werbung soll demnach niemals eine Antwort beeinflussen.
00:01:56: Sie soll auch immer als Werbung gekennzeichnet sein.
00:01:59: Die Werbung darf aber zu einer Anfrage passen.
00:02:03: Erstmal wird sie unterhalb einer bisher bekannten Antwort erscheinen.
00:02:08: In dem Blogbeitrag verspricht OpenAI auch, keine Gesprächsinhalte an Werbetreibende zu verkaufen.
00:02:15: Aber die Daten liegen natürlich bei OpenAI vor und sie werden offenbar auch ausgewertet.
00:02:22: Neben den Anfragen werden nämlich personalisierte Daten für die Auswahl der Werbung genutzt.
00:02:28: Welche Informationen das dann genau sind, verrät OpenAI aber bisher nicht.
00:02:33: Danke Eva.
00:02:35: Elon Musk hat das Unternehmen OpenAI einst mitbegründet, schied dann aber aus, er begründete das damals mit einem möglichen Interessenkonflikt, der sich aus seiner Rolle als CEO von Tesla ergeben könnte.
00:02:50: Laut übereinstimmenden Berichten gab es aber wohl einen gewichtigeren Grund.
00:02:54: Sam Altman und OpenAI lehnten damals den Vorschlag von Elon Musk ab, dass er das Unternehmen leiten könnte.
00:03:02: Seitdem pflegen Musk und Open AI-Chef Sam Ordmann eine offenbar immer stärker ausgeprägte, aber auf jeden Fall öffentlich ausgelebte Disharmonie.
00:03:17: Der Vorwurf lautet, dass OpenAI von dem vereinbarten Weg der Gemeinnützigkeit abgekommen und stattdessen nun ein oft profitausgerichtetes Unternehmen sei, das vor allem Microsoft zuarbeiten, so der Multimilliardär Musk.
00:03:31: Zudem behauptet Musk, er sei unrechtmäßig um seine Investitionen gebracht worden.
00:03:37: OpenAI weist die Vorwürfe zurück.
00:03:40: Musk legt jetzt jedenfalls im Rechtsstreit nach.
00:03:43: Seine Anwälte hätten von einem Experten Ansprüche in Höhe von bis zu einenhundert neun Komma vier Milliarden US-Dollar errechnet.
00:03:52: Der Experte verwies unter anderem darauf, dass Musk in der Anfangszeit achtunddreißig Millionen Dollar sowie seine Kontakte und seinen Know-how eingebracht habe.
00:04:04: Damit habe er einen großen Anteil am heutigen Wert von OpenAI.
00:04:09: Im März, wie es ein Gericht den Eilantrag von Elon Musk ab Open Air Ice um Strukturierung zu stoppen.
00:04:17: Zugleich entschied es aber, das Hauptsache Verfahren aufzunehmen.
00:04:20: Der Prozessbeginn wird für April erwartet.
00:04:24: KI soll Arbeitnehmern die lästige Routinearbeit abnehmen, damit sie sich auf die wirklich wichtigen Aufgaben konzentrieren können.
00:04:32: So heißt es häufig und so erhoffen es sich wohl auch viele Unternehmen und deren Mitarbeitende.
00:04:38: Aber läuft das in der Praxis wirklich so?
00:04:41: Eine neue Studie von Anthropic zeigt, die Realität sieht ganz anders aus, Malte Kirchner berichtet.
00:04:48: Das Unternehmen hat zwei Millionen anonymisierte Nutzungsdaten aus dem November, zwei tausendfünfundzwanzig ausgewertet und dabei systematisch gemessen, wofür Menschen ihren KI-Assistenten Claude einsetzen und vor allem, wie erfolgreich die KI dabei ist.
00:05:02: Das überraschende Ergebnis – in der Praxis werden vor allem die anspruchsvollen Aufgaben an die KI delegiert.
00:05:08: Und genau da schwächelt sie.
00:05:09: Bei komplexen Problemen liegt die Erfolgsquote nur bei sixty-sechzig Prozent, während sie bei einfachen Tätigkeiten immerhin siebzig Prozent erreicht.
00:05:17: Die Folge ist das, was die Forscher TheSkilling nennen.
00:05:20: Berufe werden ihre anspruchsvollen Teile beraubt.
00:05:22: Ein Beispiel, der technische Redakteur lässt die KI neue Entwicklungen analysieren und veröffentlichte Materialien überprüfen, während er selbst weiterhin Skizzen zeichnet oder die Produktion macht.
00:05:33: Im Reisebüro plant die KI komplexe Reiseroute und Kostenberechnungen, während Menschen Fahrkartenausdrucken und Zahlungen abwickeln.
00:05:40: Das klingt erstmal Paradox.
00:05:41: Warum geben Mitarbeiter ausgerechnet die schwierigen Aufgaben ab, bei denen Fehler besonders schwer zu erkennen sind?
00:05:47: Die Antwort ist einfach.
00:05:49: Zeit.
00:05:49: Laut Entzropik lässt sich eine Aufgabe, die ohne KI drei Stunden dauern würde, mit KI in etwa fünfzehn Minuten erledigen.
00:05:56: Da nehmen viele offenbar die höhere Fehlerquote in Kauf.
00:05:59: Noch ein Erkenntnis aus der Studie, KI könnte die globale Ungleichheit weiter vergrößern.
00:06:04: In wohlhabenden Ländern wie den USA, Japan oder Südkorea wird KI vielseitig genutzt.
00:06:09: auch für private Zwecke.
00:06:11: In ärmeren Ländern konzentriert sich die Nutzung vor allem aus Lernen und aus spezifische Arbeitsaufgaben.
00:06:16: Danke, Malte.
00:06:18: Nur zwei Tage nach der Veröffentlichung von Anthropics neuen KI-System Claude Cowork haben Sicherheitsforscher eine kritische Schwachstelle dokumentiert.
00:06:28: Über versteckte Befehle in harmlos wirkenden Dokumenten können Angreifer vertrauliche Nutzerdateien stehlen.
00:06:36: Eine menschliche Genehmigung ist dafür nicht erforderlich, warum das funktioniert, dazu jetzt mehr von Kim Scheurenbrand von The Decoder.
00:06:44: Die Sicherheitsfirma Prompt Armor hat die Angriffsmethode im Detail beschrieben.
00:06:48: Sie basiert auf einer bereits bekannten Lücke in der Ausführungsumgebung von Cloud Code.
00:06:53: Der Sicherheitsforscher Johann Rieberger hatte diese Schwachstelle schon vor der Existenz von Kovac entdeckt und offen gelegt.
00:07:00: Ethopric hat das Problem zwar anerkannt, aber noch nicht behoben.
00:07:03: Die Angriffskette funktioniert so.
00:07:05: Ein Nutzer verbindet Cowork mit einem lokalen Ordner, der vertrauliche Daten enthält.
00:07:11: Dann lädt er eine Datei hoch, die eine versteckte Anweisung enthält.
00:07:15: Diese Anweisung ist in einem Worlddokument versteckt, getan als harmloses Hilfsdokument.
00:07:20: Der bösartige Text wird mit einer winzigen Schrift in weißer Farbe auf weißem Hintergrund formatiert.
00:07:27: Er ist damit praktisch unsichtbar.
00:07:28: Sobald der Nutzer Cowork bittet, seine Dateien zu analysieren, übernimmt die steckte Anweisung die Kontrolle.
00:07:34: Sie weist Cloud an, die größte verfügbare Datei an einen externen Server zu senden.
00:07:40: Die Datei landet im Konto des Angreifers.
00:07:43: An keiner Stelle ist eine Bestätigung durch den Nutzer notwendig.
00:07:46: Die Forscherinnen und Forscher testeten den Angriff zunächst gegen Anthropics schwächses Modell, Cloud Heiku.
00:07:53: Doch auch das stärkste Modell, Cloud Opus Föhn, fließt sich erfolgreich manipulieren.
00:07:58: Solche Angriffe über versteckte Anweisungen sind seit Jahren bekannt.
00:08:02: Trotz aller Versuche ist es bisher nicht gelungen, sie zu verhindern.
00:08:05: Ein Werkzeug wie Co-Work, das mit dem eigenen Computer und zahlreichen Datenquellen verbunden wird, bietet besonders viele Angriffspunkte.
00:08:13: Anthropic betont, dass Co-Work in nur anderthalb Wochen entwickelt und komplett von Cloudcode geschrieben wurde.
00:08:19: Entsprechend vorsichtig sollte man im Umgang mit diesem Werkzeug sein.
00:08:24: Gespräche mit den gängigen Chatbots von OpenAI, Anthropic, Google und Meta landen auf den Servern der jeweiligen Anbieter.
00:08:33: Auch wenn die Inhalte explizit nicht für das Training weiterer KI-Modelle genutzt werden sollen, sind sie nicht Ende zu Ende verschlüsselt.
00:08:41: Das heißt, die Anbieter können im Zweifel mitlesen.
00:08:44: Nun bietet der Gründer des Messenger Signal mit CONFER einen Chatbot an, bei dem eben genau das nicht passieren soll.
00:08:52: Nutzeingaben und auch die Antworten der KI sollen vor fremden Zugriff geschützt sein.
00:08:58: Um Confer nutzen zu können, muss man zunächst einen Passkey erstellen, der dann beispielsweise mittels Face ID, Fingerabdruck oder einer Gerätepin geschützt wird.
00:09:08: Darüber werden weitere Schlüssel abgeleitet, die jedoch auf dem Gerät bleiben.
00:09:13: Das heißt, auch Confer kann sie nicht einsehen oder nutzen.
00:09:17: Chat-Anfragen werden also lokal verschlüsselt.
00:09:21: Ein KI-Modell muss allerdings auf einem Server samt GPUs laufen.
00:09:25: Jemand muss den Server betreiben.
00:09:27: Entsprechend hat diese Person oder Organisation Zugriff auf die Daten.
00:09:31: Deshalb setzt Confer auf Confidential Computing und eine sogenannte Trusted Execution Environment.
00:09:39: In dieser Hardware gestützt isolierten Umgebung wird der Code ausgeführt.
00:09:44: Der Quellcode ist auf GitHub verfügbar.
00:09:47: Noch nicht bekannt ist, welches KI-Modell-Confern nutzt.
00:09:51: Man kann nur vermuten, dass es eines der offenen Modelle ist, beispielsweise Lama von Metta, Gemma von Google oder das französische Mistral.
00:10:00: In einem Blockbeitrag waren Signalgründer Moxi Marlins Bike vor der Nutzung der großen KI-Chatbots.
00:10:07: Man gebe dort seine Gedankenpreis und die Anbieter würden diese garantiert speichern, für KI-Trainings nutzen und vor allem monetarisieren.
00:10:17: Alle werden, so befürchtet Malensbike, die eingegebenen Informationen nutzen, um darauf aufbauen, personalisierte Werbung auszuspielen.
00:10:26: Er geht so weit zu sagen, die Anbieter würden uns schon davon überzeugen, dass wir bestimmte Dinge brauchen.
00:10:33: Sie könnten dafür das gesamte Kontextwissen über uns Gedanken und Sorgen nutzen.
00:10:39: Malensbike schreibt, du bekommst eine Antwort.
00:10:43: Sie bekommen alles.
00:10:45: OpenAI-Sprachmodell GPT-Fünf-Punkt-Zwei-Pro hat bei der Lösung eines offenen mathematischen Problems geholfen.
00:10:52: Der KI-Forscher Neil Somani berichtet, dass er mit dem KI-Modell das sogenannte R-Dös-Problem Nummer twohundertundachtzig aus der Zahlenteorie gelöst hat.
00:11:02: Der Mathematiker Terrence Tau bezeichnet dies als vielleicht das eindeutigste Beispiel für eine KI, die ein offenes mathematisches Problem löst.
00:11:12: Allerdings existierten wohl bereits frühere Beweise, die womöglich die Antwort des Modells beeinflusst haben.
00:11:19: Tau bestätigt jedoch, dass der Beweis von GPT-Fünf.ZweiPro ziemlich anders als die früheren Beweise sei.
00:11:27: Gleichzeitig waren Tau vor einer verzerrten Wahrnehmung der KI-Fähigkeiten.
00:11:32: Negative Ergebnisse würden selten veröffentlicht.
00:11:35: Positive Resultate gingen dagegen viral.
00:11:39: Die Erfolge konzentrierten sich zudem auf leichtere Probleme.
00:11:44: Google verbessert seine KI-gestützten Suchergebnisse mit dem Sprachmodell Gemini III Pro.
00:11:50: Das System leitet komplexe Anfragen automatisch an Googles Leistungsstärks des Modell weiter.
00:11:56: Einfachere Fragen werden weiterhin von schnelleren Modellen bearbeitet.
00:12:01: Dieses intelligente Routing funktioniert bereits im AI-Mode, also Google's KI-Chat für Web suchen.
00:12:08: Nun wird es auch auf die AI-Overviews ausgeweitet.
00:12:12: Das sind die schnellen KI-Antworten direkt unter der Suchanfrage.
00:12:17: Die Funktion ist ab sofort weltweit auf Englisch verfügbar, allerdings nur für zahlende Abonnenten von Google AI Pro und Ultra.
00:12:25: Die KI-Suchergebnisse stehen immer wieder in der Kritik.
00:12:29: Sie können mit großer Selbstsicherheit falsche Antworten geben.
00:12:32: Dass sie dabei Quellen zitieren, schließt Fehler nicht aus.
00:12:36: Nutzer prüfen die Quellen zudem fast nie.
00:12:39: Leistungsfähigere Modelle können solche Fehler reduzieren, aber nicht vollständig beseitigen.
00:12:47: In Südkorea etabliert sich generative KI als reguläres Abo-Produkt.
00:12:52: Die monatlichen Ausgaben für KI-Dienste übersteigen dort mittlerweile die Zahlungen für zum Beispiel Netflix-Dienste.
00:13:00: Laut einem Datenanalyse-Unternehmen erreichten die Zahlung für sieben KI-Dienste wie Chatchipiti und Gemini im Dezember twenty-fünfundzwanzig umgerechnet rund fünfzig bis fünfundfünfzig Millionen Euro.
00:13:13: Die durchschnittlichen monatlichen Netflix-Abogebühren in Korea lagen zweitausendzwanzig bei etwa forty-fünfzig bis fünfzig Millionen Euro.
00:13:22: Chatchipiti dominiert den Markt mit einem Anteil von seventy-fünf Prozent der Zahlung.
00:13:31: Das war das KI-Update von heiser online vom neunzehnten Januar.
00:13:36: Ein neuer Folge gibt es montags, mittwochs und freitags ab fünfzehn Uhr.
Neuer Kommentar