KI-Update kompakt: CES 2026, Grok Deepfakes, Audio-KI, KI-Prüfungen

Shownotes

Das ist das KI-Update vom 05.01.2026 unter anderem mit diesen Themen:

Was von der CES 2026 zu erwarten ist xAIs Grok generiert sexuelle Deepfakes von Frauen und Kindern OpenAI setzt auf Audio-KI
und NYU-Professor lässt KI mündliche Prüfungen abnehmen

=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===

Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11129109

Weitere Links zu diesem Podast: https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki

Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.

Transkript anzeigen

00:00:02: Das KI-Update, ein Heise-Podcast mit redaktioneller Unterstützung von The Decoder.

00:00:14: Ich bin Isabel Grünewald und die sind heute unter anderem unser Thema.

00:00:18: Was von der CES-Sechs und zwanzig zu erwarten ist.

00:00:22: XAI's GROC generiert sexuelle Deepfakes von Frauen und Kindern.

00:00:28: OpenAI setzt auf Audio-KI und NYU-Professor lässt KI mündliche Prüfungen abnehmen.

00:00:36: Kurz nach Silvester setzt traditionell die Elektronikmesse CES die ersten Techniktrends des Jahres.

00:00:43: Offiziell geht es am Dienstag in Las Vegas los, doch viele Aussteller zeigen ihre Neuheiten schon in den Tagen davor.

00:00:51: Volker Briegelab aus unserem heise online Newsroom gibt einen Ausblick.

00:00:54: So wird es von Samsung ein Kühlschrank geben, den Google Jammer ausgestattet ist.

00:01:08: Daneben schafft die Messe mit der CES-Formware eine Plattform, in der sich die Branche austauschen soll.

00:01:13: Da sind Nvidia und ihr CEO Jensen Wang zugegen.

00:01:17: Das kann vielleicht eine Gelegenheit für die Branche sein, sich über sinnvolle Anwendungen und ein Geschäftsmodell Gedanken zu machen.

00:01:24: Vielen Dank, Volker.

00:01:25: Heise Online ist Medienpartner der CES-S-Sechs und zwanzig.

00:01:29: Auch in diesem Jahr sind viele meiner Kolleginnen und Kollegen in Las Vegas und berichten laufend über alle Neuigkeiten von der CES.

00:01:38: Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit hat die Handreichung KI in Behörden Datenschutz von Anfang an mitdenken veröffentlicht.

00:01:49: Damit will Prof.

00:01:50: Dr.

00:01:51: Luisa Specht-Riemenschneider öffentliche Stellen des Bundes beim Datenschutzkonform-KI-Einsatz unterstützen.

00:01:58: Datenschutzrechtliche Herausforderungen gibt es beim LLM-Einsatz viele.

00:02:02: Die Handreichung nennt unter anderem den Blackbox-Charakter, der das Nachvollziehen der Datenverarbeitung aufgrund der technischen Beschaffenheit der Systeme verhindert.

00:02:11: Auch das Halluzinieren stellt eine Herausforderung für den Grundsatz der Datenrichtigkeit dar.

00:02:16: Die Memorisierung oder das einprägen personenbezogener Daten in der KI kann unabsichtlich oder durch gezielte Attacken zur Datenausgabe führen.

00:02:26: Darüber hinaus muss der Aspekt der mangelnden Fairness bzw.

00:02:30: des Bayes bedacht werden.

00:02:32: Er entsteht aufgrund einer über- oder unterrepräsentation in den Trainingsdaten.

00:02:37: Die vollständigen Lösungsansätze für diese Probleme sind auf der Website der Bundesdatenschutzbeauftragten veröffentlicht.

00:02:45: Die KI-Grogg von Elon Musk's XAI hat in den vergangenen Tagen einen handfesten Skandal ausgelöst.

00:02:52: Nutzer haben die Bildbearbeitungsfunktion des generativen KI-Systems verwendet, um Fotos von Frauen und sogar Minderjährigen digital zu entkleiden und sexualisierte Version der Aufnahmen zu erzeugen.

00:03:06: Diese Deepfakes wurden öffentlich auf X gepostet, was zu beheftiger Empörung nicht nur bei den Opfern führte.

00:03:12: Vor allem in Frankreich reagierte die Politik prompt.

00:03:16: Die Hochkommissarin für Kinder Sarah El-Hayri zeigte sich empört und forderte den Medienregulierer Acom auf, die Fälle auf Grundlage des Digital Services-Erk der EU zu prüfen.

00:03:27: Darüber hinaus erstatteten die drei zuständigen Ministerinnen und Minister Frankreichs Anzeige bei der Pariser Staatsanwaltschaft.

00:03:35: XAI positioniert GROC mit Funktionen wie dem Spicy Mode für suggestive Inhalte bewusst freizügiger als Konkurrenzmodelle wie ChatGPT oder Gemini.

00:03:45: Doch Experten und Kinderschutzorganisationen waren seit langem voraus erwachsenen Risiken.

00:03:51: Die jüngsten Entgleisungen bei GROC unterstreichen erneut die problematische Seite generativer KI.

00:03:57: Auch nachdem über den GROC-Account bekanntgegeben wurde, dass das Problem behoben werden soll, Wurde das Problem mit den Deepfakes bis Montagvormittag nicht behoben.

00:04:06: Die GROKKI streitet das gegenüber meinen Kollegen allerdings ab und räumt ihre Fehler nur nach der Konfrontation mit entsprechenden Posts ein.

00:04:16: Bei Open AI ist angekündigter, aber bisher noch sehr ominöser Hardware soll Audio im Vordergrund stehen.

00:04:24: Dafür wird das interne Team massiv umgebaut.

00:04:27: Die Einzelheiten fasst Eva Maria Weiß von Heise Online zusammen.

00:04:30: Die

00:04:31: Information berichtet darüber, dass OpenAI seine Entwickler auf neue Audiumodelle angesetzt haben soll.

00:04:38: Bisher ist es ja auch schon möglich, mit ChatGPT zu sprechen, aber die Qualität der Antworten soll denen in Textform noch hinterher hinken.

00:04:49: Und gibt man den Text erst an ein Modell weiter, das dann eine gesprochene Version daraus macht, dauert es zu lange.

00:04:55: Also sollen jetzt neue Audio-Modelle oder Audio-First-Modelle entwickelt werden.

00:05:02: Audio scheint ja für alle KI-Unternehmen das nächste quasi höhere Ziel.

00:05:07: Zum einen setzen alle auf die smarten Brillen, die dank KI und großer Sprachmodelle überhaupt erst so richtig funktionieren.

00:05:15: Nur so können wir mit einer Brille jetzt eben sprechen.

00:05:19: Zum anderen wollen aber offenbar auch alle eine weitere Gerätekategorie schaffen.

00:05:25: Bei OpenAI geht es bekanntlich um ein Always-On-Gerät, also etwas, das dauerhaft mithört.

00:05:33: Viel mehr wissen wir über dieses geplante ominöse Gerät nicht.

00:05:37: Am Design arbeitet aber vor allem Joni Eif, der ehemalige Chefdesigner von Apple.

00:05:43: Und auch Meta hat zum Beispiel erst kürzlich Limitless gekauft.

00:05:47: Das ist ein Start-up, das ebenfalls an dauerhaft mithören Geräten arbeitet und diese auch schon anbietet.

00:05:54: Das wird allerdings nach der Übernahme jetzt stark eingeschränkt, also so ganz klar ist nicht, was Meta da jetzt eigentlich vorhat.

00:06:02: Denn man muss sich auch bewusst sein, ob immer angeschaltete Geräte wirklich auf Gegenliebe von Nutzen stoßen.

00:06:10: Das ist ein bisschen unklar.

00:06:12: Die Idee, dass der Computer immer mitliest, ist zum Beispiel bei Microsoft ja schon doch ein bisschen gescheitert.

00:06:19: Da gab es Proteste, als sie eine solche Funktion einführen wollten.

00:06:24: Eine abgeschlangte Version von Recall, wie das jetzt heißt, gibt es aber inzwischen doch.

00:06:29: Sie soll dann eben aber nur noch auf Wunsch mitlesen.

00:06:32: Danke Eva.

00:06:34: OpenAI hat in einem anderen Bereich eine neue Stelle ausgeschrieben.

00:06:39: Gesucht wird ein Head of Preparedness.

00:06:42: Das Gehalt beträgt mehr als eine halbe Million US-Dollar und Aktienoptionen.

00:06:46: Die Person soll ein kleines High-Impact-Team führen, das sich der Qualitätssicherung der KI-Modelle von OpenAI widmet.

00:06:54: Anhand des Preparedness-Frameworks untersucht das Unternehmen die Fähigkeiten und Risiken seiner Modelle.

00:07:00: Im Grunde übernimmt der oder die neue Head of Preparedness die Verantwortung dafür, dass OpenAI-Smodelle sich wie gewünscht und nicht schädlich verhalten.

00:07:09: Ob diese Anforderungen mit einem kleinen Team zu erfüllen sind, sei ihm dahingestellt.

00:07:14: Das Thema Sicherheit scheint für OpenAI zumindest aus repräsentativen Gründen wieder wichtiger zu werden, wie die Stellenaufschreibungen nun medienverksam zeigt.

00:07:22: Bisher schien OpenAI in dem Bereich eher Möglichkeiten zum Sparen zu sehen, Denn ähnliche Anforderungen wie der Head of Preparedness sollten die im Mai und Oktober-Zwz.

00:07:33: aufgelösten Teams zu Superalignment und der AGI Readiness erfüllen.

00:07:39: Ein Professor an der New York University hat thirty-six Studierende von einem KI-Sprachagenten mündlich prüfen lassen.

00:07:48: Die kosten für alle Prüfungen zusammen fünfzehn Dollar.

00:07:51: Das entspricht zweiundvierzig Cent pro Student, berichtet Max Schreiner von The Decoder.

00:07:56: Panosiparotes unterrichtet an der NYU Stern School of Business des Fach AI ML Product Management und hat als Anlass für das Experiment ein bekanntes Problem.

00:08:06: Die schriftlichen Hausarbeiten seiner Studierenden sahen einfach verdächtig gut aus.

00:08:11: Nicht wie die von starken Studenten geschrieben sagte, sondern einfach wie von einer Unternehmensberatung nach drei weiteren Überarbeitungsrunden.

00:08:19: Als Situatienten ihre Studierenden an zufälligem Unterricht aufrief und zeigte sich die erwartete Diskrepanz, viele konnten grundlegende Entscheidungen in ihren eigenen Abgaben gar nicht erklären.

00:08:30: Schriftliche Prüfungen dieser Art seien im Zeitalter von Chatbots daher tot, sagt der Professor.

00:08:36: Eine Lösung seien vor Ort Prüfungen mit Stift und Papier, eine andere mündliche Prüfung.

00:08:41: Beides hat der Professor eingesetzt, doch für die großen Klassen seien mündliche Prüfungen einfach ein logistischer Albtraum.

00:08:48: Seine Lösung, ein Sprachagent auf Basis der Plattform Eleven Labs.

00:08:52: Der Agent fragte zunächst nach dem Abschlussprojekt, dann wählte er einen im Kurs behandelten Fall und stellte Fragen dazu, die durchschnittliche Prüfungsdauer betrug, Die erste Version hat allerdings Probleme.

00:09:05: Einige Studierenden beschwerten sich über den strengenden Ton.

00:09:08: Die Professoren hatten die Stimme eines Kollegen geklohnt, durch die Studierenden empfanden diese als herablassend.

00:09:15: Ein Student schrieb sogar, der Agent habe ihn angeschrien.

00:09:19: Die Bewertungen übernahm dann drei KI-Modelle gemeinsam, Claude, Gemini und Chatchi Bt.

00:09:24: Und jedes Modell bewertete die Transkripte zunächst unabhängig, sah dann die Einschätzung der anderen und überarbeitete es seine Bewertungen.

00:09:32: Eine Umfrage zeigt gemischte Reaktionen.

00:09:35: Trinachtig Prozent empfanden die KI-Prüfung als stressiger als schriftliche Tests, aber sie stimmten immer hinzu, dass sie ihr tatsächliches Verständnis testet.

00:09:45: Der Professor will die KI-Lösungen weiterentwickeln mit diesem Feedback und anderen Ideen.

00:09:50: Er will sie etwas stärker zuschneiden auf Artefakte der Studierenden aus dem Kurs.

00:09:55: Und er schlägt vor die Chatbots den Studierenden schon vorher zur Verfügung zu stellen.

00:09:59: So könnten diese sich im Gespräch vorbereiten.

00:10:02: Der KI-Prüfer würde so auch direkt zum KI-Tutor.

00:10:07: Er fasst es kurz in einem Satz zusammen.

00:10:09: Er will Feuer mit Feuer bekämpfen.

00:10:12: Danke schön, Max.

00:10:14: Forschende vom Shanghai Artificial Intelligence Laboratory haben einen neuen Standard entwickelt, der KI-Systeme in der Wissenschaft besser zusammenarbeiten lassen soll.

00:10:24: Das sogenannte Science-Context Protocol, kurz SCP, soll ein globales Netz autonomer Forschungsagenten ermöglichen.

00:10:33: Bisherige KI-Systeme für die Forschung arbeiten meist isoliert voneinander.

00:10:37: Sie sind an spezifische Arbeitsabläufe gebunden und lassen sich nur schwer über Institutionsgrenzen hinweg einsetzen.

00:10:45: Der neue Standard baut konzeptionell auf Anthropics Model Context Protocol auf, das sich seit November, als Verbindungsstandard zwischen KI-Modellen und externen Datenquellen etabliert hat.

00:10:59: SCP erweitert diesen Ansatz um Funktionen für wissenschaftliche Arbeitsabläufe, reichhaltigere Experimentmetadaten, einen zentralen Hub für die Koordination und die Integration von Laborgeräten.

00:11:12: Im Zentrum steht der SCP Hub als globales Register für alle verfügbaren Tools, Datensätze und Instrumente.

00:11:20: Auf Basis von SCP hat das Team bereits eine Plattform mit über ein-tausend-sechsundert interoperablen Tools aufgebaut.

00:11:28: Biologie macht mit knapp sechsundvierzig Prozent den größten Anteil aus, gefolgt von Physik und Chemie.

00:11:34: Die Tools reichen von Proteinstrukturvorhersagen über Molekül-Docking bis zu automatisierten Pipettieranweisungen für Laborroboter.

00:11:44: Die Spezifikation ist als Open Source auf GitHub verfügbar.

00:11:49: KI-Systeme sollen künftig bei der Erstellung von Testshelfen und adaptive Lernsysteme steuern.

00:11:55: Dafür müssten sie allerdings einschätzen können, wie schwer Aufgaben für Menschen sind.

00:12:01: Eine Studie von Forschenden verschiedener US-Universitäten dämpft diese Hoffnung.

00:12:06: Sie testeten über zwanzig Sprachmodelle, darunter GPT-V und verschiedene Lama-Varianten.

00:12:11: Die Modelle sollten abschätzen, wie schwer Prüfungsfragen aus Medizin, Englisch und Mathematik für Menschen sind.

00:12:18: Doch die KI-Einschätzungen stimmten nur schwach mit der menschlichen Wahrnehmung überein.

00:12:24: Die Forschenden nennen das zentrale Problem den Fluch des Wissens.

00:12:28: Die Modelle sind schlicht zu gut, um die Schwierigkeiten schwächerer Lernender nachzumfinden.

00:12:34: Was für Medizinstudierende eine harte Nuss ist, lösen sie mühelos.

00:12:38: Sie können deshalb nicht einschätzen, wo Menschen straucheln.

00:12:42: Das Forschungsteam prüfte auch, ob sich die Modelle durch Anweisungen als schwache Studierende verhalten können, doch die Genauigkeit verschrub sich kaum.

00:12:51: Für den Einsatz in der Bildungstechnologie seien also neue Ansätze erforderlich, so das Fazit.

00:12:58: Meta macht Sermdrei, Dreidee Objects und Dreidee Body frei verfügbar.

00:13:04: Das sind die neuesten Segmentierungsmodelle.

00:13:06: Was sperrig klingt, bedeutet einfach, dass automatisierte Segmentieren von Objekten in Bildern und Videos.

00:13:13: So lassen sich Objekte erfassen und beispielsweise in neue Umgebungen einfügen.

00:13:18: Sam steht für Segment Anything-Model.

00:13:21: Meter sie daran einen wichtigen Schritt bei der Computer Vision.

00:13:24: Man kann die neue Version etwa über die App Edits nutzen oder den Playground, das ist eine extra eingerichtete Website.

00:13:32: Die Modelle sind aber auch frei auf den gängigen Plattform verfügbar.

00:13:35: Die Einsatzgebiete von SAM reichen neben der spaßigen Bild- und Videobearbeitung bis zu Robotik und dem Data Labeling.

00:13:43: Das Modell ist allerdings nicht darauf trainiert, etwa in der Medizin eingesetzt zu werden, hierfür bedürfte seines weiteren Fine-Tunings.

00:13:51: Neu ist auch das Modell SAM Audio.

00:13:54: Damit lassen sich Geräusche, Sprache und Musik segmentieren.

00:13:57: So lässt sich z.B.

00:13:58: aus einer Videoaufnahme von einer Band nur die Gitarre herausfiltern.

00:14:03: Es reicht auch hier ein simpler Prompt.

00:14:05: Meta spricht von einem Perception-Encoder Audio-Video, einem neuen, ebenfalls frei verfügbaren Modell.

00:14:13: Im europäischen Bankensektor könnten bis zu zwei Tausend Dreißig etwa zehn Prozent der Arbeitsplätze abgebaut und die wegfallende Arbeit von KI-Technik erledigt werden.

00:14:24: Das ist das Ergebnis einer Analyse der US-Bank Morgan Stanley.

00:14:28: Sie prognostiziert, dass Europas Banken in den nächsten fünf Jahren mehr als zweihundertzehn Tausend Jobs abbauen könnten, während sie zunehmend auf KI setzen.

00:14:38: Für den erwarteten Stellenabbau durften demnach aber auch Filialschließungen sorgen, da das Bankengeschäft immer stärker ins Internet verlagert wird.

00:14:45: Die verantwortlichen Erwarteneffizienzsteigerungen in Höhe von dreißig Prozent.

00:14:51: Wie die Financial Times ausführt, werden die Stellenstreichungen vor allem in zentralen Dienstleistungsbereichen erwartet, beispielsweise im Risikomanagement und in der Compliance.

00:15:01: Die Analyse von Morgan Stanley reiht sich in eine lange Liste von Warnungen vor den Folgen ein, die KI-Technik für den Arbeitsmarkt haben könnte.

00:15:09: Zwar ist es darum, nach den dramatischsten Prognosen zu Anfang wieder etwas ruhiger geworden, aber inzwischen dürfte dafür deutlicher geworden sein, wo KI tatsächlich Arbeit übernehmen kann.

00:15:20: und wohnen nicht.

00:15:23: Das war das KI-Update von Heise Online vom fünften Januar, im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.