KI-Update kompakt: Gema vs. OpenAI, KI als Machtinstrument, räumliche KI, Country-KI
Shownotes
Das ist das KI-Update vom 12.11.2025 mit diesen Themen:
Gema gegen OpenAI KI ist auch Machtinstrument Räumliche Intelligenz als nächstes KI-Ziel KI-Song an der Spitze der Charts
Links zu allen Themen der heutigen Folge findet Ihr hier:
https://www.heise.de/thema/KI-Update
https://www.heise.de/newsletter/anmeldung.html?id=ki-update
https://www.heise.de/thema/Kuenstliche-Intelligenz
https://www.heiseplus.de/podcast
Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Transkript anzeigen
00:00:02: Das KI Update.
00:00:04: Ein Heise-Podcast
00:00:05: mit redaktioneller Unterstützung von
00:00:07: The Decoder.
00:00:15: Ich bin Marco Pauli und dies sind heute unter anderem unsere Themen.
00:00:19: GEMA gegen OpenAI.
00:00:21: KI ist auch Machtinstrument.
00:00:24: Räumliche Intelligenz als nächstes KI-Ziel und KI-Song an der Spitze der Countrycharts.
00:00:31: Die GEMA hat OpenAI verklagt.
00:00:33: Es geht um das Urheberrecht an mehreren deutschen Leadtexten.
00:00:36: Nun hat das Landgericht München geurteilt, zugunsten der GEMA.
00:00:40: Mehr dazu von Eva Maria Weiß.
00:00:43: OpenAI hat Leadtexte für das Training seiner KI-Modelle genutzt.
00:00:47: Diese Tatsache ist unstrittig.
00:00:49: Nun sagt die GEMA aber, manche Leadtexte, die urheberrechtlich geschützt sind, wurden quasi eins zu eins als Output von JetGPT wieder ausgegeben.
00:01:00: Hat man den Chatbot nach dem Text gefragt, hat dieser ihn also nahezu perfekt aufschreiben können.
00:01:06: Und es geht dabei um Liedtexte von unter anderem Helene Fischer, Atemlos oder in der Weihnachtsbäckerei von Rolf Zuckowski.
00:01:14: Diese Wiedergabe hält die GEMA für eine unzulässige Vervielfältigung.
00:01:19: Und dem hat das Landgericht München nun auch zugestimmt.
00:01:23: OpenAI muss diese Wiedergabe unterlassen und es wird sogar ein Schadensersatz fällig.
00:01:28: Dafür muss OpenAI allerdings noch Unterlagen zu den Finanzen vorlegen.
00:01:32: Nun ist es so, dass ChatGPT sowieso schon lange keine Liedtexte mehr wiedergibt, nämlich genau aus urheberrechtlichen Gründen.
00:01:40: Und das betrifft auch nicht jetzt bloß die Lieder wegen der, die Gema geklagt hat, sondern so ziemlich alle Lieder.
00:01:46: Open AI ist also irgendwie in der Zwischenzeit bewusst geworden, dass es vielleicht nicht die beste Idee war, wenn der Chatbot die Texte aufsagen kann.
00:01:55: In der Verhandlung hat OpenAI allerdings ganz anders argumentiert.
00:01:59: Die Vertreter des Unternehmens sagen da, KI-Modelle würden keine Texte speichern, sondern das Modell reflektiere in seinen Parametern, was es basierend auf den Trainingsdaten gelernt habe.
00:02:13: Das Gericht sagt aber, es kann kein Zufall sein, dass die Texte so exakt wiedergegeben wurden.
00:02:19: Der Text muss irgendwo im System memorisiert worden sein, also in irgendeine Formen gespeichert.
00:02:27: Und man muss auch dazu sagen, dass die Gehmer Lizenzverträge zum Beispiel anbietet.
00:02:31: Und auch wenn OpenAI immer wieder betont, man arbeite ja eng mit Urhebern zusammen und man sei ja im Austausch.
00:02:38: In diesem Fall hat es wohl vorher keinen Austausch gegeben.
00:02:41: Danke Eva.
00:02:43: Kann KI anhand der Gesichtszüge einer Person erkennen, ob diese vertrauenswürdig ist?
00:02:49: Eine Studie der University of Pennsylvania kommt zu dem Ergebnis, dass KI tatsächlich bestimmte Eigenschaften von Menschen prognostizieren kann, in dem sie deren Gesichtsmerkmale analysiert.
00:03:00: Dazu sollen auch Merkmale gehören, die mit beruflichem und finanziellem Erfolg in Verbindung stehen.
00:03:06: Das Forschungsteam hat dafür ein KI-System entwickelt, das auf früheren Studien zur Persönlichkeitsbestimmung anhand von Gesichtszügen basiert.
00:03:15: Für die Analyse wurden LinkedIn Profilfotos von rund sixundneunzigtausend MBA-Absolventen ausgewertet, von Akademikern also mit betriebswirtschaftlicher Qualifikation.
00:03:27: Fünf Persönlichkeitsmerkmale wurden abgeleitet, Offenheit, Gewissenhaftigkeit, Extraversion, Verträglichkeit und Neurotizismus.
00:03:37: Im nächsten Schritt wurde anhand der LinkedIn-Profile geprüft, wie sich die beruflichen Werdegänge dieser Person tatsächlich entwickelt hatten.
00:03:45: Dabei kam sie zu dem Schluss, dass es statistische Zusammenhänge zwischen den Merkmalen, die von der KI identifiziert wurden und dem späteren beruflichen Erfolg gibt.
00:03:55: So sei extraversion demnach der stärkste Faktor, von dem sich ein hohes Einkommen ableiten lasse.
00:04:02: Extravertierte Personen also sind demnach aus finanzieller Sicht im Vorteil.
00:04:08: Während ein hoher Wert bei Offenheit eher gegen eine überdurchschnittliche Vergütung spricht.
00:04:14: Gesichtserkennungstechnologien sind längst keine Neuheit mehr.
00:04:18: Insbesondere in der Strafverfolgung kommt sie zunehmend zum Einsatz.
00:04:22: Doch ist das sehr umstritten, da das erhebliche Risiken für Diskriminierung birgt.
00:04:28: Die Studie deutet jetzt daraufhin, dass der Einsatz solcher Technologien in Zukunft auch stattfinden könnte, um darüber zu entscheiden, wer einen Kredit, eine Wohnung oder einen Arbeitsvertrag erhält, allein basierend auf dem Gesicht.
00:04:42: Die Forscher merken dazu an, dass eine verbreitete Einführung von KI-Gesichtserkennung Einzelpersonen dazu motivieren könnte, ihre Gesichter mithilfe von Software zu retuschieren oder sogar ihr tatsächliches Aussehen durch kosmetische Eingriffe zu verändern, um zum Beispiel auf dem Arbeitsmarkt erfolgreicher zu sein.
00:05:03: Auf der KI-Woche des Baden-Württembergischen Datenschützers sprachen Experten unter anderem darüber, dass es notwendig sei, bei KI und der Datennutzung speziell bei großen Sprachmodellen Regulierung zu schaffen.
00:05:17: Es gab noch vieles weiteres kritisch Erhehlendes in Sachen KI dort zu hören.
00:05:22: Marie Claire Koch hat es fürs KI-Update zusammengefasst.
00:05:26: Der Philosoph Rainer Mühlhoff vertritt eine unbequeme These.
00:05:30: KI sei kein Werkzeug, sondern ein Machtinstrument.
00:05:33: Denn in jedem System, so Mühlhoff, stecke menschliche Arbeit, Datenspuren, Klickerbeit, alltägliche Interaktionen.
00:05:40: Maschinelle Intelligenz existiere gar nicht ohne menschliche Beteiligung.
00:05:44: Was aber dabei entstehe, sei eine neue Form digitaler Ausbeutung mit hohen Kosten.
00:05:49: Sein zentrales Stichwort lautet Vorhersage macht.
00:05:52: KI-Systeme erlauben es, aus riesigen Datenmengen Vorhersagen über Menschen zu treffen.
00:05:57: Auch über solche, die davon gar nichts wissen.
00:05:59: Im Fall haben sie nicht bewusst Daten bereitgestellt.
00:06:02: Das klassische Datenschutzrecht greife hier kaum, sagte Mühlhoff.
00:06:06: Es wurde auch über die wachsende Macht der Digitalkonzerne diskutiert.
00:06:10: Martin André, Autor und Medienforscher, sagte dazu, dass das freie Internet abgeschafft wurde.
00:06:16: Heute fließe fast der gesamte Datenverkehr durch geschlossene Konzernplattformen.
00:06:21: Big Tech schreibe faktisch die Spielregeln der Politik.
00:06:24: Hundertfünfzig Millionen Euro investieren die großen US-Konzerne laut Lobby-Control jedes Jahr in Brüssel allein für Lobbyarbeit.
00:06:32: Das ist mehr als jede andere Branche.
00:06:34: Wolfgang Kreisig, Präsident der Landesmedienanstalt Baden-Württemberg, warnte, dass von digitaler Souveränität gar keine Rede sein könne.
00:06:42: Juristischen und ökonomischen Strukturen der Konzerne seien inzwischen zu mächtig.
00:06:47: Sie können sich zum Beispiel bessere Anwälte leisten, wodurch sie sich teilweise auch der Regulierung entziehen können.
00:06:52: Junior-Professorin Paulina Jopesh kritisierte das Urteil des Oberlandesgerichts Köln im Verfahren gegen Metta als besonders problematisch, weil das Gericht offenbar nicht verstanden hat, was dort eigentlich trainiert wird.
00:07:04: Es habe ausgeblendet, dass Metta's KI-Systeme längst weit über einfache Übersetzungs- oder Chat-Funktionen hinausgehen und zu Sprachmodellen mit enormem Macht- und Missbrauchspotenzial heranwüchsen.
00:07:15: Außerdem würden bei Metas KI-Training auch die Daten minderjähriger nicht geschützt.
00:07:20: Die Entscheidung des OLG Köln sei ein Beispiel, wie Gerichte unter dem Druck des KI-Hypes zentrale technische und gesellschaftliche Fragen unterschätzen und damit den Schutz persönlicher Daten gefährlich schwächen.
00:07:31: Die Juristin Jessica Flynn erklärte das Plattformen wie Metta oder Google konsequent die Grenzen der Regulierung austesten, etwa beim politischen Targeting.
00:07:39: Eigentlich soll die neue EU-Verordnung für Transparenz sorgen und verhindern, dass Menschen personalisierte politische Botschaften erhalten, ohne es zu merken.
00:07:46: Doch viele Konzerne umgehen sie und schalten politische Werbung ganz aus oder tun, so als ob sie neutral sind.
00:07:52: Es gebe zwar bereits genug Gesetze wie den Digital Services Act, es fehle allerdings noch an der Durchsetzung.
00:07:58: Danke Marie.
00:07:59: Die Wikipedia und verwandte Projekte der Wikimedia-Stiftung sind ein gefundenes Fressen für KI-Firmen.
00:08:06: Sie grasen dort laufend wertvolle Daten ab, um damit ihre großen Sprachmodelle zu füttern.
00:08:11: Das verursacht Wikimedia erhebliche Kosten, weshalb sie die KI-Bots bremsen wollte.
00:08:16: Da sich die Bots aber zunehmend als Menschentan hat das nur bedingt funktioniert.
00:08:22: Jetzt drängt die Wikimedia Foundation öffentlich darauf, dass die KI-Firmen den seit dem Jahr-Zugang Wikimedia Enterprise nutzen und für die Inhalte bezahlen.
00:08:35: Und mit Geld allein ist es auch nicht getan.
00:08:37: Die Kunden müssen, wenn sie die von zahllosen Freiwilligen zusammengetragenen und strukturierten Daten nutzen, auch die Quelle angeben.
00:08:46: In einer Welt, die immer mehr in KI untergeht, ist das menschliche Wissen der Wikipedia für die Welt wertvoller denn je, heißt es in Wikimedias Erinnerung an das Enterprise-Angebot.
00:08:58: Es wird darin auch hervorgehoben, dass KI ohne von Menschen bereitgestellte Informationen sterben würde.
00:09:05: Mit der Zeit müssten nämlich überwiegend KI-generierte Inhalte zum KI-Training herangezogen werden, was zum Zusammenbruch der KI-Modelle führen würde.
00:09:16: Eine neue Studie von Forschenden der Tsinghua University und der Shanghai Jiaotong University hat untersucht, ob spezielle Trainingsmethoden wie Reinforcement Learning die vermeintlichen Denkfähigkeiten von KI-Modellen tatsächlich verbessern.
00:09:32: Das Ergebnis?
00:09:33: Das Verfahren steigert die Effizienz, führt aber nicht zu neuen Problemlösestrategien.
00:09:39: Untersucht wurden sogenannte Reasoning-Modelle, die logische oder mathematische Aufgaben lösen sollen.
00:09:45: Beim Reinforcement Learning mit verifizierbaren Belohnungen erhält ein Modell Punkte für korrekte Antworten, etwa funktionierende Programmierlösungen oder richtige Rechenergebnisse.
00:09:57: Das Verfahren soll dafür sorgen, dass Modelle häufiger zu validen Lösungen gelangen.
00:10:02: Laut der Studie gelingt das zwar beim ersten Versuch deutlich besser, doch Aufgaben, die das Basismodell nicht lösen kann, bleiben auch für Reasoning-Modelle unlösbar.
00:10:13: Das Training verändert laut den Forschenen vor allem die innere Gewichtung des Modells.
00:10:18: Statt neue Strategien zu entwickeln, konzentriert es sich stärker auf bekannte Lösungswege.
00:10:24: Diese Fokussierung senkt die Antwortvielfalt, erhöht aber kurzfristig die Erfolgswahrscheinlichkeit, wird ein Modell dagegen mehrfach geprüft, liefert das untrainierte Basismodell mit seinen vielfältigeren Ansätzen häufiger korrekte Antworten.
00:10:40: Die Forschenden überprüften ihre Ergebnisse in den Bereichen Mathematik, Programmierung und visuelles Denken.
00:10:46: In allen Fällen zeigte sich dasselbe Muster.
00:10:49: Reasoning-Modelle reagieren präziser, aber weniger flexibel.
00:10:53: Die erfolgreichen Lösungen stammen aus Mustern, die bereits im Basismodell vorhanden waren.
00:10:59: Meta hat ein neues KI-System vorgestellt, das gesprochene Sprache in mehr als one-tausend sechshundert Sprachen automatisch transkribieren kann.
00:11:08: Die Forschungsabteilung des Konzerns nennt das System Omnilingual ASR.
00:11:13: Es ist Quell offen und steht unter der Apache-II.null-Lizenz zur Verfügung.
00:11:18: Bisher konzentrierten sich Spracherkennungssysteme auf einige hundert Sprachen.
00:11:23: Omni-Lingual-ASR erweitert diese Abdeckung deutlich, darunter fünfhundert Sprachen, die bisher in keinem System vorkamen.
00:11:31: Laut Meta erreicht die KI für rund drei Viertel der Sprachen eine Fehlerquote von unter zehn Prozent.
00:11:38: Bei gut dokumentierten Sprachen sogar in ninety-fünf Prozent der Fälle.
00:11:42: Selbst bei Sprachen mit sehr wenig Material liegt der Anteil noch bei mehr als einem Drittel.
00:11:48: Eine Besonderheit des Systems ist der Bring Your Own Language Ansatz.
00:11:52: Sprecherinnen und Sprecher können mit wenigen Beispielen in ihrer eigenen Sprache das Modell anlernen ohne aufwendige Trainingsverfahren.
00:12:01: Diese Methode basiert auf In-Context Learning, einer Technik, die ursprünglich für große Sprachmodelle entwickelt wurde.
00:12:08: Theoretisch ließe sich das System damit auf über fünftausend vierhundert Sprachen erweitern.
00:12:14: Zusätzlich hat Metta einen Datensatz mit transkribierten Aufnahmen aus dreihundertfünfzig seltenen Sprachen veröffentlicht.
00:12:22: Die Sammlung soll Forscherinnen, Entwicklerinnen und Communities dabei helfen, eigene Spracherkennungssysteme zu bauen.
00:12:30: Die KI-Pionieren.
00:12:31: Fei-Fei Li sieht die räumliche Intelligenz als zentrale Herausforderung für die nächste Generation von KI.
00:12:39: Sprachmodelle wie Chatchi-PT oder Claude seien leistungsfähig beim Umgang mit Text hätten aber kaum Verständnis für Raum, Bewegung oder physikalische Zusammenhänge.
00:12:50: Li argumentiert, dass räumliche Intelligenz Erstmaschinen zu Partnern machen könnten, die wirklich in der Welt handeln und lernen.
00:12:58: Mehr zu diesem Thema und zu Fei-Fei Lee's Thesen von Kim Scheurenbrand von The Decoder.
00:13:17: In der Evolution war diese Fähigkeit laut Lee die Basis für höheres Denken.
00:13:22: Lee's Start-up World Labs entwickelt sogenannte Weltmodelle, neue Arten generativer KI-Systeme, die nicht nur Sprache, sondern auch physikalische und geometrische Aspekte einer Umgebung verstehen und simulieren sollen.
00:13:35: Diese Modelle sollen in der Lage sein, aus Texten, Bildern oder Videos konsistente dreidimensionale Szenen zu erzeugen und auf Aktionen zu reagieren.
00:13:43: Das Ziel der Weltmodelle ist, Systeme zu schaffen, die lernen sich wie in einer realen Welt zu verhalten.
00:13:49: Das erste Projekt von World Labs heißt MARBLE.
00:13:52: Es soll aus multimodalen Eingaben, also einer Kombination aus Text, Audio und Bildern, drei D-Umgebungen erzeugen, die physikalisch konsistent bleiben.
00:14:01: Noch ist die Technologie experimentell, doch lieh sie darin einen Schritt hin zu intelligenten Werkzeugen für Robotik oder wissenschaftliche Simulation.
00:14:09: Eine Anwendung könnten virtuelle Experimente sein, die in gefährlichen oder unerreichbaren Umgebung stattfinden.
00:14:16: Räumlich intelligente KI erfordert komplexe Trainingsdaten und neue Modellarchitekturen.
00:14:22: Klassische Sprachmodelle wie LLMs arbeiten mit Sequenzen von Wertern oder Tokens, doch physikalische Welten folgen dreidimensionalen Strukturen.
00:14:30: Auch andere Unternehmen forschen an ähnlichen Ansätzen.
00:14:33: Das Münchner Start-up Spatial entwickelt Spatial Foundation Models, die sowohl realer als auch ausgedachte Räume abbilden können.
00:14:41: Langfristig könnten Weltmodelle laut Li, Wissenschaft und Technik unterstützen, etwa bei der Simulation von Experimenten oder der Erkundung von Umgebungen jenseits menschlicher Reichweite.
00:14:52: Für sie ist räumliche Intelligenz damit nicht nur ein technisches, sondern ein grundlegendes Forschungsproblem.
00:14:57: Vergleichbar mit der Frage, wie Maschinen wahrnehmen und handeln lernen.
00:15:01: Danke, Kim.
00:15:03: Die Umstrukturierungen bei Meta im Bereich KI sollen nun dazu geführt haben, dass sich der langjährige Chefwissenschaftler und Touringpreisträger Jan Le Kuen aus dem Unternehmen verabschiedet.
00:15:14: Le Kuen soll ein Start-up gründen wollen, dass sich mit der Entwicklung eines Weltenmodells beschäftigt.
00:15:20: Im Unterschied zu den aktuellen Large-Language-Modellen soll ein Weltenmodell auch die physikalische Welt verstehen können.
00:15:28: Nur so könne man laut Lykyn eine Superintelligenz, wie es bei Metta heißt, oder eine generelle künstliche Intelligenz, wie es bei anderen zumeist heißt, erreichen.
00:15:38: Sprache, so sagt es Lykyn, könne die Welt nicht ausreichend wiedergeben.
00:15:43: In den USA hat sich erstmals ein KI-generierter Song an die Spitze einer Hitliste gesetzt.
00:15:49: Martin Holland hat ihn sich angehört.
00:15:52: Es handelt sich um den Titel Walk My Walk von einer Band oder einem Sänger namens Breaking Rust und es geht um die Spitze der Billboard-Charts für digitale Einnahmen, digitale Verkäufe mit Country Music.
00:16:07: Über die Hintergründe des Songs ist dabei gar nicht viel bekannt.
00:16:11: Der wird unter anderem über eine Instagram-Seite beworben, wo offensichtlich KI-generierte Videoaufnahmen eines einsam Cowboys im Hintergrund laufen und der Text davor eingeblendet wird.
00:16:25: Die Texte sind ansonsten sehr generisch.
00:16:28: Das klingt alles ziemlich gleich, aber nichtsdestotrotz ist das eine spannende Entwicklung, die sich aber angedeutet hat.
00:16:35: Erst vor ein paar Tagen hat das US-Magazin Billboard, das diese Hitliste zusammenträgt, eine Auflistung von mehreren Künstlern oder Gruppen oder Projekten.
00:16:46: veröffentlicht, die K.I.
00:16:48: generiert sind und die sich schon in Charts platziert haben.
00:16:50: Trotzdem ist natürlich etwas Besonderes, dass ihr nun ein Song an der Spitze einer Hitliste landet.
00:16:59: An dem Song selbst gibt es durchaus auch schon Kritik und Magazine und Experten sagen, dass das auf eine dystopische Zukunft hinweist.
00:17:07: Jetzt muss ich aber zeigen, wie die Entwicklung weitergeht.
00:17:12: Wie gesagt, der Titel klingt sehr generisch.
00:17:14: Wenn man einmal weiß, dass er kari generiert ist, dann kann man das auch nicht mehr weghören.
00:17:20: Außerdem ist natürlich noch offen, von wem genau dieser Song stammt.
00:17:24: Also Billboard selbst hat einen Songwriter genannt, aber selbst da ist nicht klar, ob die Person, die da für verantwortlich ist, tatsächlich so heißt.
00:17:32: Also da ist noch viel unklar.
00:17:34: Danke Martin.
00:17:37: Das war das KI-Update von Heise Online vom zwölften November, zwei tausendfünfundzwanzig.
00:17:42: Eine neue Folge gibt es montags, mittwochs und freitags ab fünfzehn Uhr.
Neuer Kommentar