KI-Update kompakt: OpenAI Musik, AirBnB, Amazon-Brillen, KI-Bilder

Shownotes

Das ist das KI-Update vom 27.10.2025 unter anderem mit diesen Themen:

OpenAI plant Musik-KI – und will ChatGPT in Unternehmen verankern Airbnb-CEO und Altman-Freund hält ChatGPT für nicht bereit Amazon-Paketboten bekommen smarte Zustellbrillen und KI-Bilder sind immer schwerer zu erkennen

=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===

Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-10910981

Weitere Links zu diesem Podast: https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki

Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.

Transkript anzeigen

00:00:02: Das KI Update, ein Heise-Podcast mit redaktioneller Unterstützung von The Decoder.

00:00:14: Ich bin Isabel Grünewalds und dies sind heute unter anderem unsere Themen.

00:00:18: OpenAI plant MusikKI und will ChatGPT in Unternehmen verankern.

00:00:23: Airbnb CEO und Altman-Freund hält ChatGPT für nicht bereit.

00:00:29: Amazon-Paketbooten bekommen smarte Zustellbrillen und KI-Bilder sind immer schwerer zu erkennen.

00:00:37: Nach ChatGPT und dem Video to Zora arbeitet OpenAI laut Insiderinformation nun auch an einem System zur Musikgenerierung.

00:00:45: Darüber hinaus will sich das Unternehmen für Firmen unersetzlich machen und hat eine neue Suche vorgestellt.

00:00:51: Max Schreiner von The Decoder hat sich beides angeschaut.

00:00:55: Laut dem Technologieportal The Information arbeitet OpenAI an einer KI, die Songs aus Text- oder Audiobefehlen erzeugen soll, etwa Gitarrenakorde zu einem Gesang.

00:01:05: Damit würde das Unternehmen indirekter Konkurrenz zu Startups wie Suno und Audio treten, die bereits ähnliche Tools anbieten.

00:01:12: Für das Training der KI arbeitet OpenAI offenbar mit Studierenden der Jury Art School zusammen, einer renommierten Privatschule für Künstlerinnen und Künstler, die Notenmaterial aufbereiten soll.

00:01:24: Die Idee, KI-Musik in den Alltag zu bringen, ist natürlich nicht neu.

00:01:27: Auch nicht bei Open

00:01:28: R.I.,

00:01:28: denn schon im Jahr ist das Unternehmen Jukebox vor, ein frühes KI-Musikmodell, das jedoch nie Marktreif wurde.

00:01:36: Jetzt könnte der erneute Versuch ein kommerzielles Produkt hervorbringen, etwa für Werbemusik, Social Media Clips oder als Plug-in in Chatchity.

00:01:44: Doch das birgt viele Risiken.

00:01:46: Große Musiklabels haben zuletzt ZUNO und Audio wegen mutmaßlicher Urheberrechtsverletzungen verklagt, auch ob mehr Eiwirt erklären müssen, auf welchen Daten die KI trainiert und wie Rechteinhaber beteiligt werden.

00:01:58: Sero Sam Altmann sprach zwar schon häufig, zuletzt etwa im Rahmen von Sorra II, von künftigen Einnahmebeteiligungen, konkrete Pläne gibt es aber immer noch nicht.

00:02:08: Während OpenAI also an KI klängen tüftelt, rückt das Unternehmen gleichzeitig auch tiefer ins Kerngeschäft vieler Firmen vor.

00:02:16: Denn mit Company Knowledge erweitert OpenAI Chatchivity jetzt um eine Funktion, die Geschäftskunden Zugriff auf Daten aus Slack, SharePoint, Google Drive und GitHub ermöglicht.

00:02:26: Das Werkzeug soll Chatchivity zur internen Suchmaschine machen, antworten, enthalten Quellenangaben und basieren auf GBT-Fünf.

00:02:33: Die Funktion muss jedoch manuell aktiviert werden und beherrscht weder Websuche noch Visualisierung.

00:02:38: Technisch ist das Konzept sehr anspruchsvoll, denn Systeme wird Cheche-Betien-Eigene dazu beim Zitieren, Macherer Quellen unklare und oft auch fehlerhafte Angaben zu produzieren, ein Phänomen, das Unternehmen bereits Geld kostet.

00:02:50: Studienwarten zuletzt etwa vor überladen Kontext, so viele schlecht strukturierte Informationen können die Genauigkeit der Antworten stark mindern.

00:02:58: Darum rückt dann sogenanntes Context Engineering in den Fokus, also die gezielte Auswahl und Struktur der relevanten Daten, die hier jetzt die KI irgendwie übernehmen muss.

00:03:08: Wer ChatGPT im Unternehmen nutzt, sollte also die eigenen Teams-Schulen denn geprüft werden muss weiterhin von Menschen.

00:03:14: Danke schön, Max.

00:03:16: Während ChatGPT also immer tiefer in Unternehmensanwendungen integriert werden soll, gibt es auch bedächtigere Töne.

00:03:24: So möchte Brian Chesky sein Dienst Airbnb noch nicht an ChatGPT als App anbinden.

00:03:30: Das sei nicht robust genug.

00:03:32: Eva Maria Weiß von Heise Online mit den Einzelheiten.

00:03:36: Brian Chesky ist eigentlich ein enger Freund und Vertreuter von Sam Altman und er sagt, er habe ihn sogar beraten, als es um die Anbindung anderer Dienste in ChatGPT ging.

00:03:48: Dennoch möchte Chesky seinen eigenen Dienst, Airbnb, noch nicht für ChatGPT zur Verfügung stellen.

00:03:55: Konkret geht es um die Apps, die Open AI ja erst vor wenigen Wochen vorgestellt hat, diese Art Nachfolge der Erweiterungen, die es mal gab und dann der GPTs, Dabei können Drittanbieter ein ChatGPT SDK nutzen, also ein Software Development Kit, das OpenAI zur Verfügung stellt, um ein möglichst einfache und reibungslose Verbindung zu schaffen.

00:04:19: Chesky hat nun aber in einem Interview gesagt, Airbnb basiere auf einer Community von verifizierten Mitgliedern.

00:04:26: Damit meint er wahrscheinlich, dass Nutzer viele private und auch sensible Daten von sich preisgeben müssen.

00:04:33: Dazu gehört nämlich beispielsweise auch die Steuernummer von Vermietern, die Adressen, Belegungen der Wohnungen und und und mehr.

00:04:42: ChatchiPities App und die agentischen Funktionen sind nicht besonders sicher.

00:04:48: Das hat auch schon einen Vorfall gezeigt, über den wir auch berichtet hatten.

00:04:52: Da gab ChatchiPity Informationen aus E-Mails an Angreifer weiter.

00:04:58: Und offenbar sorgt sich Chesky genau vor einem solchen Angriff.

00:05:02: Er sagt, er wartet mit der Integration von Airbnb für ChatGPT bis ChatGPT dafür eine Art abgeschlossene Umgebung bereitstellt.

00:05:12: Vielen Dank Eva.

00:05:15: Forschende der Stony Brook University und der Columbia Law School zeigen, dass ein Sprachmodell mit nur zwei Büchern den Stil eines Autors oder einer Autorin überzeugend emittieren kann.

00:05:28: In ihren Tests bevorzugten Expertinnen die so trainierten KI-Texte achtmal häufiger in puncto Stil und doppelt so oft in der Schreibqualität gegenüber menschlichen Nachahmungen.

00:05:39: Und Detektoren hielten sie zu ninety-seven Prozent für echte Texte.

00:05:45: Die Forschen waren angesichts dieser Ergebnisse vor rechtlichen Folgen.

00:05:49: Viele Trainingsdaten stammen aus illegal kopierten Büchern und erfolgreiche Stilkopien könnten den Markt für Originalwerke gefährden.

00:05:58: Als Gegenmaßnahme bringen sie Kennzeichnungspflichten oder verbote spezialisierter Modelle ins Gespräch.

00:06:06: Mit dem Wert von Originalen beschäftigt sich auch ein aktuelles Diskussionspapier für einen digitale Medienstaatsvertrag der Rundfunkkommission der Bundesländer.

00:06:16: Im Zentrum der Initiative steht die Bewältigung der Herausforderungen des KI-Zeitalters.

00:06:21: So schlagen die Rundfunkreferenten die Einführung eines eigenständigen gesetzlichen Vergütungsanspruchs für die Nutzung urheberrechtlich geschützter Werke beim Training und Einsatz von KI-Systemen wie ChatGPT, Gemini oder Claude vor.

00:06:37: Ziel ist ein Lizenzmodell, das durch kollektive Wahrnehmung über Verwertungsgesellschaften einen fairen Ausgleich zwischen Innovation und den Interessen der Rechteinhaberschaft.

00:06:49: Das gilt insbesondere für den journalistisch redaktionellen Bereich.

00:06:53: Gleichzeitig sollen die Transparenzpflichten für KI-Anbieter verschärft werden.

00:06:58: Diese müssten detailliert offenlegen, welche Werke konkret für das Training großer Sprachmodelle zum Einsatz kamen, sobald die Nutzung über eine bloße Zusammenfassung hinausgeht.

00:07:09: Eine klare Kennzeichnungspflicht soll auch für Crawler und Bots gelten.

00:07:14: Eine Studie der Europäischen Rundfunkunion zur Newsintegrität von KI-Chatbots kommt zu dem alarmierenden Ergebnis, dass künstliche Intelligenz weiterhin keine verlässliche Quelle für den Nachrichtenkonsum darstellt.

00:07:28: Die großangelegte Untersuchung bei der Zweiundzwanzig öffentlich-wächtliche Medienanstalten aus achtzehn Ländern und in vierzehn Sprachen führende KI-Assistenten wie ChurchGPT, Co-Pilot, Perplexity und Geminal-Bewerteten zeigt, Fehler im Umgang mit Nachrichten treten bei diesen nicht isoliert auf.

00:07:47: Sie sind systemisch und erstrecken sich über alle Sprachen und Plattformen.

00:07:52: Insgesamt erhielten laut der Untersuchung forty-fünf Prozent aller über dreitausend Antworten auf die dreißig Kernfragen zur aktuellen Ereignisse mindestens ein signifikantes Problem, das Leser in die Irre führen könnte.

00:08:06: Beim Einbezug von Antworten mit gewissen Mengeln weisen sogar eighty-fünf Prozent der Ergebnisse eine fehlerhafte Darstellung auf.

00:08:15: Der mit Abstand größter Problembereich ist die Quellennachverfolgung, die die Forschenden in einundreißig Prozent aller Antworten als signifikant fehlerhaft einstuften.

00:08:25: Diese Menge manifestieren sich darin, dass die Chatbots Behauptungen anführen, die nicht durch die angegebene Quelle gedeckt sind oder ganz auf Quellenangaben verzichten.

00:08:36: Amazon will den Zustellprozess für Pakete vereinfachen.

00:08:40: Smarte Brillen sollen Paketbooten helfen, in komplexen Umgebungen zu navigieren, ohne sich umzusehen oder das Handy zücken zu müssen.

00:08:48: Berichtet Nico Juran von der CT.

00:08:50: Technisch betrachtet lässt sich die Amazon-Brille mit den für November angekündigten Rocket-Lasses vergleichen.

00:08:57: Wie diese bietet sie eine Projektion auf die Innenseite der Gläser und wie bei Rocket sind alle Anzeigen monochrom in Grün.

00:09:04: Allerdings umfasst die Projektion bei dem Amazon-Modell nicht beide Gläser.

00:09:09: Also hier spiebt die Anzeige nicht mittig vor den Augen des Trägers, vielmehr beschränken sich die Einblendung auf die untere rechte Ecke des rechten Brillenglases.

00:09:18: Das Amazon-Modell hat auch eine integrierte Kamera, die sitzt allerdings nicht wie bei den meisten bislang erhältlichen smarten Brillen an einer Seite des Rahms, sondern mittig über dem Nasensteh.

00:09:28: Die Brille ist für Korrektur-Glesennah geeignet und verfügt über Selbsttönegleser, die sich automatisch an die Lichtverhältnisse anpassen.

00:09:36: Bei der Bedienung und der Stromversorgung geht Amazon einen eigenen Weg.

00:09:39: So gehört zur Brille ein kleiner Controller, den die Fahrer in der Weste tragen und der Bedienelemente und ein Notfallknopf enthält, über den die Lieferanten bei Bedarf unterwegs den Rettungsdienst alarmieren können.

00:09:51: Der Controller ersetzt somit praktisch das bei Smartlesses sonst übliche Smartphone mit Begleitapp.

00:09:57: Eine weitere Besonderheit ist, dass die Brille per Kabel mit dem Controller als Stromquelle verbunden werden kann, um den ganzen Tag durchzuhalten.

00:10:05: Die Brille wird automatisch aktiviert, wenn der Fahrer an einem Lieferort parkt.

00:10:09: Der Zusteller erhält dann Lieferinformation direkt in seinem Sichtfeld.

00:10:13: Und die integrierte KI hilft dabei, im Fahrzeug die richtigen Pakete zur entsprechenden Lieferadresse zu lokalisieren.

00:10:20: Das bedeutet, dass die Nummern der Pakete eingeblendet werden und es eine optische Rückmeldung gibt, wenn der Fahrer ein Paket in die Hand nimmt.

00:10:28: Hat er das Richtige erwischt oder ist es das Falsche?

00:10:30: Außerhalb des Fahrzeuges erhält der Fahrer turn-by-turn Navigationsinweise zur Lieferadresse eingeblendet, die Amazon auch mit komplexen Umgebungen wie großen Wohngebäuden zurechtkommt.

00:10:42: Das soll die Notwendigkeit reduzieren zwischen Smartphone-Umgebung hin und her zu schauen.

00:10:47: Stellt der Fahrer ein Paket am Zielort ab, kann er schließlich über die Brille ein Foto als Liefernachweis anfertigen.

00:10:54: Amazon plant noch eine Echtzeit, Fehlererkennung zu integrieren, damit die Brille den Fahrer benachrichtigt, wenn er versehnlich ein Paket vor einem Haus gestellt hat, das nicht mit der Haus- oder Wohnungsnummer auf den Paket übereinstimmt.

00:11:07: Weiterhin angedacht ist unter anderem ein Hinweis, wenn sich etwa Haustiere im Garten des Adressaten befinden.

00:11:14: Die Brille soll zunächst in den USA zum Einsatz kommen.

00:11:18: Ein Termin für den Deutschlandstaat gibt es aktuell noch nicht.

00:11:21: Vielen Dank, Nico.

00:11:22: Mehr zum Thema KI-Brillen hört ihr auch in unserem aktuellen Deep Dive vom Freitag.

00:11:28: Meta-Plattforms streicht ungefähr sechshundert Arbeitsplätze in der KI-Abteilung.

00:11:33: Dabei geht es offenbar weniger um Einsparungen, sondern mehr um Entschlackung.

00:11:38: Seit etwa drei Jahren hat Meta für seine Superintelligence Labs auf Teufelkom raus personal eingestellt.

00:11:44: In Summe laut Medien berichten rund dreitausend Menschen.

00:11:48: Das Ergebnis ist nicht unbedingt effizient.

00:11:51: Indem wir die Größe unserer Mannschaft reduzieren, werden weniger Gespräche notwendig sein, um Entscheidungen zu treffen, zittiert die New York Times aus einem internen Rundschreiben.

00:12:02: Jede Person wird mehr Last tragen, mehr Zuständigkeit und mehr Einfluss haben.

00:12:08: Die vom Stellenabbau betroffenen sind bereits verständigt worden.

00:12:11: Laut dem Rundschreiben will der Datenkonzern versuchen, ihn andere Stellen im Unternehmen anzubieten.

00:12:17: Metas Super Intelligence Labs haben vier Bereiche.

00:12:20: In drei wird Mitarbeitern gekündigt, bei der KI-Forschung, bei der KI-Infrastruktur und bei der Produktentwicklung.

00:12:28: Nicht betroffen von dem Stellenabbau ist jene Sparte, die sich tatsächlich mit Superintelligence befasst und zudem Metas große Sprachmodelle managt.

00:12:37: Letztere treiben Chatbots bei Facebook, Messenger, WhatsApp, Instagram und Threads an.

00:12:42: Der Einschnitt bei der KI-Belegschaft, so nicht als Rückzug oder gar zu Recht Stutzung der teuren KI-Bemühungen Metas verstanden werden, Vielmehr soll Bürokratie abgebaut und so die KI-Weiterentwicklung beschleunigt werden.

00:12:57: YouTube will offenbar stärker gegen die Verbreitung von Videos vorgehen, die mit künstlicher Intelligenz erstellt wurden oder in den Personen mit KI verändert wurden.

00:13:07: Dazu bietet die Plattform Videoschaffenden jetzt ein Tool zur Ähnlichkeitserkennung an.

00:13:12: Damit können Content-Creator bei YouTube nach Videos suchen, die das eigene Gesicht enthalten, etwa per KI DeepFake.

00:13:19: Dann darf die Anwenderin oder der Anwender entscheiden, ob sie die Entfernung dieses Videos beantragt oder es akzeptiert.

00:13:26: Für die Verifizierung solcher Ähnlichkeiten benötigt YouTube das Hochladen oder Fotografieren eines Ausweises oder Führerscheins mit Lichtbild sowie ein kurzes Video vom Gesicht der Person aus mehreren Perspektiven.

00:13:38: Die Überprüfung kann dann allerdings bis zu fünf Tage dauern.

00:13:42: Danach liefert YouTube Studio eine Liste gefundener Videos mit dem eigenen Gesicht oder Ähnlichkeiten, die dann selbst geprüft werden können.

00:13:51: Das System wird in den nächsten Wochen ausgerollt, aber YouTube bezeichnet es noch als experimentelle Funktion, um Feedback der Nutzenen zu sammeln.

00:13:59: Das Tool zur Ähnlichkeitserkennung wird zunächst auch nur in ausgewählten Ländern verfügbar sein, soll aber auf weitere Regionen ausgeweitet werden.

00:14:08: KI-Bilder und digitale Nachbearbeitung stellen auch die Glaubwürdigkeit von Fotos immer mehr in Frage.

00:14:15: Ein Finger zu viel an der Hand, Schriften voller Hieroglyphen.

00:14:18: Die Erdzeit lassen sich die Spuren der Täuschung in vielen Fällen noch erkennen.

00:14:22: Doch es wird immer schwerer, erklärt mein Kollege Thomas Hoffmann von der CT-Photografie im Gespräch mit Judy Hohmann im Podcast Klickboom Flash.

00:14:31: Ich fürchte allerdings, dass die fortschreitende Entwicklung der KI recht bald dazu führen wird, dass diese Fehler nicht mehr passieren.

00:14:40: Es ist ja heute schon sehr schwer, falsch von richtig zu unterscheiden, dass ich als großes Problem, weil es wirklich ein Propagandamittel ist, was es bis in etablierte Medien schafft, weil auch dort den Leuten das Know-how fehlt oder die Bilder einfach zu gut sind, um festzustellen, dass sie fake sind.

00:14:56: Mit dem passenden Prompt lässt sich da jedem Bild der entsprechenden Look geben, um vermeintliche Authentizität zu schaffen.

00:15:05: Also zuerst einmal für Bildagenturen oder Nachrichtenagenturen ist das Verbreiten von gefälschen Bildern natürlich das Schlimmste, was man sich vorstellen kann.

00:15:14: Die Leben vom Vertrauen.

00:15:16: und wenn so was passiert, ist das Vertrauen schnell dahin.

00:15:20: Und deswegen hat man da, glaube ich, relativ schnell die Notwendigkeit festgestellt, sicherzustellen, dass die veröffentlichten Bilder auch authentisch und nicht bearbeitet sind bzw.

00:15:31: dass man die Bearbeitung nachvollziehen kann.

00:15:34: Dafür gibt sie sogenannten Content Credentials.

00:15:37: Wie du schon sagtest, werden da die Metadaten, eine digitale Bildsignatur mit kryptografischen Methoden zusammen mit dem Bild gespeichert.

00:15:47: Das heißt, es lässt sich im Nachhinein nicht verändern, was da drin steht.

00:15:52: Und jede Veränderung am Bild wird da quasi gelockt, sodass man nachverfolgen kann, wo das Bild aufgenommen wurde, wann das Bild aufgenommen wurde, mit welcher Kamera, welcher Brennweite.

00:16:02: Wo lag der Fokuspunkt?

00:16:04: auch nicht ganz unwichtig, um sicherzustellen, dass nicht etwas abfotografiert wurde.

00:16:10: Es könnte natürlich auch sein, dass jemand das KI-Bild am Rechner bastelt und dann abfotografiert.

00:16:15: Und es fehlt einfach die Tiefe, wenn man sieht, dass die Fokusdistance fünf Zentimeter waren.

00:16:22: Ja, das wird nach und nach implementiert.

00:16:24: In Adobe-Produkten ist es bereits integriert.

00:16:28: Und die ersten Kamerahersteller wie Sony und Leica ... Führen das jetzt auch in ihren Kameras ein, sodass das gleich bei der Aufnahme des Bildes mit hineingeschrieben wird.

00:16:38: Ich gehe davon aus, dass wir bei den Topmodellen von allen Herstellern, wenn nicht in diesem Jahr, im nächsten Jahr überall dieses Feature sehen werden.

00:16:49: Die neueste Folge des CT-Pfotografie-Podcasts, Klickbum Flash, heißt zwischen Fakten und Fakes, die Macht der Bilder.

00:16:56: Ihr findet diesen wie alle anderen heise Podcasts auf der Plattform Eurowal.

00:17:02: Generative künstliche Intelligenz neigt bekanntlich zu Halluzination.

00:17:07: Oft fällt das nicht auf, vor allem dann, wenn das Ergebnis dem oder der Nutzen zusagt.

00:17:12: Von KI erfundene Behauptungen, Studien, Zitate oder Präzidentsfälle landen darum auch immer häufiger in Eingaben bei Gericht.

00:17:20: Dafür sind bereits mehrfach sich selbst vertretene Parteien und Anwälte bestraft worden.

00:17:24: Leider

00:17:25: sind auch Richter, nicht gegen die Versuchungen künstlicher Intelligenz gefeilt.

00:17:29: In den USA sind jetzt zwei Fälle kaiverschmutzter Urteile aufgeflogen.

00:17:35: Persönliche Verantwortung übernehmen die zuständigen Richter keine.

00:17:38: Ein Praktikanzilschuld, sagt der eine.

00:17:41: Der andere Richter schiebt es auf einen juristischen Mitarbeiter, der Peplexity genutzt habe.

00:17:46: Warum die mehrstufige Überprüfung der Entwürfe offenbar unterblieben ist, bleibt ungeklärt.

00:17:53: Das war das KI-Update von Heise Online vom siebenundzwanzigsten Oktober zwei-tausendfünfundzwanzig.

00:17:59: Eine neue Folge gibt es Montags, Mittwochs und Freitags ab fünfzehn Uhr.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.