KI-Update kompakt: GPT-5.1, Maschinen menschlich machen, Definierte KI, Anthropic-Invest
Shownotes
Das ist das KI-Update vom 14.11.2025 mit diesen Themen:
Chat GPT-5.1 ist da
Maschinen, die wie Menschen verstehen
EU-Abgeordnete wollen definierten KI-Einsatz
Anthropic investiert
Links zu allen Themen der heutigen Folge findet Ihr hier:
https://www.heise.de/thema/KI-Update
https://www.heise.de/newsletter/anmeldung.html?id=ki-update
https://www.heise.de/thema/Kuenstliche-Intelligenz
https://www.heiseplus.de/podcast
Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Transkript anzeigen
00:00:02: Das KI Update.
00:00:04: Ein Heise-Podcast mit redaktioneller Unterstützung
00:00:07: von
00:00:07: The Decoder.
00:00:14: Ich bin Marco Pauli und dies sind heute unter anderem unsere Themen.
00:00:18: ChatGPT-Fünf.Eins ist da.
00:00:21: Maschinen, die wie Menschen verstehen.
00:00:23: EU-Abgeordnete wollen definierten KI-Einsatz und Anthropic investiert.
00:00:30: OpenAI macht das KI-Modell GPT-Fünf.Eins verfügbar.
00:00:34: Zunächst wird es weltweit zum Standardmodell in Chat GPT.
00:00:38: Auch Entwickler können darauf via AP zugreifen, was GPT-Fünf-Punkteins kann.
00:00:43: Dazu jetzt mehr von Eva Maria Weiß.
00:00:46: Grundsätzlich ist das neue Modell ein verbessertes Modell.
00:00:50: Es ist aber nicht gänzlich neu im Aufbau oder in der Art, wie wir es nutzen.
00:00:54: Fünf Punkt Eins soll insgesamt intelligenter und unterhaltsamer sein, das schreibt OpenAI, stellt sich freilich die Frage, was genau intelligenter ist.
00:01:06: Zu den Neuerungen gehört zum Beispiel, dass die Reasoning-Version, also GPT-Fünf Punkt Eins Thinking, besser verständlich sein soll, gemeint ist, auch hier das leihen komplexere Themen besser verstehen können.
00:01:21: GPT-Fünf-Punkteins-Instant kann laut OpenAI Anweisungen besser verfolgen.
00:01:27: Grundsätzlich ist es weiterhin so, dass Chat-GPT bzw.
00:01:31: dann eben im Hintergrund GPT-Fünf-Punkteins-Auto selbst auswählt, welches Modell wann am geeigneten für eine Frage ist.
00:01:39: Darum müssen wir uns also weiterhin nicht kümmern.
00:01:42: ChatGPT wird automatisch auf das neue Modell jetzt aktualisiert, weil der letzte Wechsel von GPT-IVO auf GPT-V für Proteste sorgte, gibt es diesmal eine dreimonatige Übergangsfrist, in der beide Modelle noch nebeneinander genutzt werden können.
00:02:00: Bei dem Protest ging es darum, dass GPT-Fünf deutlich kühler und weniger menschlich reagiert hat als die Vorgängerversion.
00:02:09: Es gab Menschen, die glaubten, dadurch ihren Partner verloren zu haben, also ihren KI-Chatbot-Partner, weil der Chatbot nun eben ganz anders reagiert hat als vorher.
00:02:19: Dass diese Beziehungen zu einem Chatbot schwierig sind, das sagt auch Open AI ganz klar.
00:02:25: Man hat in letzter Zeit Änderungen vorgenommen bei den dazugehörigen Sicherheitsmaßnahmen.
00:02:30: Besonders ging es dabei um Menschen, die mentale Probleme haben, denen besser geholfen werden sollen.
00:02:36: Wie man jedoch grundsätzlich damit umgeht, wenn jemand meint, er führe eine Beziehung mit einem Chatbot.
00:02:42: Darauf weiß OpenAI noch keine Antwort.
00:02:44: So schreiben sie das auch.
00:02:46: Sie sagen auch, es werde immer wieder Herausforderungen geben, auf die man noch keine Antworten kennen.
00:02:53: Nun könnte man meinen, dass man erst für Sicherheit sorgt und dann eine neue Technologie auf die Menschen loslässt, aber auch darauf haben schon mehr Verführungspersonen von OpenAI gesagt, man glaube, dass der Weg andersrum besser ist.
00:03:07: Erst die Technologie verfügbar machen und dann schauen, wie die Menschen damit umgehen.
00:03:12: Neu ist auch, dass man bei GPT-Fünf-Punkteins quasi konfigurieren kann, wie der Chatbot reagieren soll.
00:03:19: Bisher gab es dafür ein paar voreingestellte Standard-Stile zur Auswahl.
00:03:24: Die wurden jetzt erweitert.
00:03:25: Es gibt zum Beispiel jetzt den Stil nerdig.
00:03:28: Man kann die Art aber nun auch weiter an die eigenen Bedürfnisse anpassen.
00:03:32: Danke Eva.
00:03:34: Ein Forschungsteam von Google.
00:03:35: DeepMind in Deutschland verfolgt das Ziel, dass Maschinen die Welt ähnlich wie Menschen sehen.
00:03:41: In der Fachzeitschrift Nature beschreibt das Team den Ansatz Alignet, der maschinelles Verständnis näher an menschliche Urteile heranführen soll und so auch einen Grundstein für verständlichere, robustere KI legt.
00:03:55: Max Schreiner von The Decoder hat sich die Studie angeschaut.
00:03:58: Im Kern versucht die Studie eine bekannte schwäche moderne Bilderkennungssysteme zu beheben.
00:04:03: Zwei erkenneuronale Netze-Muster in Millionenbildern fokussieren sich dabei aber eher auf lokale visuelle Ähnlichkeiten und erfassen zum Beispiel nicht, ob zwei Bilder eben abstraktere Zusammenhänge aufweisen, sondern orientieren sich eher, ob dort ähnliche Farben oder Formen vorliegen.
00:04:20: Wir Menschen denken da beispielsweise schon anders, wir gruppieren auch nach Bedeutung, also wir ordnen Objekte semantisch und nicht nur nach Pixeln.
00:04:28: Während einer KI zum Beispiel Fisch und Hund für völlig unterschiedlich hält, sieht der Mensch beide eben als belebt an und sieht sozusagen eine abstrakte Gemeinsamkeit zwischen diesen zwei visuell sehr unterschiedlichen Objekten direkt mit.
00:04:41: Genau hier setzt Align.net an.
00:04:43: Das Team um Lukas Muttenthaler von DeepMind trainiert ein bestehendes Modell so um, dass es aus menschlichen Ähnlichkeitsurteilen lernt.
00:04:51: Ein sogenanntes Surrogate-Teacher-Modell simuliert dafür, wie Menschenbilder genau eigentlich vergleichen und anschließend nutzen die Forscher diese pseudo-menschlichen Urteile des Modells, um andere etablierte Bildmodelle wie die Vision-Transformer, die bereits breit eingesetzt werden, präziser auf unsere Ähnlichkeiten abzustimmen.
00:05:09: Die angepassten Modelle lagen in den Tests an tatsächlich deutlich näher an menschlichen Einschätzungen als ihre Ausgangsversion und das besonders bei abstraktaren Aufgaben, also genau dort, wo Menschen ihre Stärken ausspielen können.
00:05:20: Die an menschliche Wahrnehmung angelehnten Modelle erwiesen sich dann auch insgesamt als robuster und allgemeiner, auch insbesondere dort, womit speziellen Datensätzen getestet wird, ob das Modell sich leicht täuschen lässt.
00:05:33: Ein Blick in die interne Struktur der Netze zeigte ebenfalls die Auswirkungen des Trainings, denn statt nur nach äußeren Muskeln zu gruppieren, begannen sie vermehrt, die Zusammenhänge nach Céman Charnier zu sortieren, also etwa Lebewesen enger beieinander zu bringen, als etwa nach Farbe zur Gruppe einer gleichfarbigen Pflanze.
00:05:51: Das Ziel ist es laut dem Team aber nicht, Menschen und Maschinen direkt anzugleichen, denn das wäre weder nötig noch wünschenswert, denn auch menschliche Urteile sind natürlich von kulturellen und individuellen Verzerrungen geprägt.
00:06:02: Die Trainingsdaten und die Modelle des Projekts allein sind offen verfügbar.
00:06:06: Danke, Max.
00:06:08: Der Ausschuss für Beschäftigung und soziale Angelegenheiten des EU-Parlaments hat sich in einer Abstimmung für einen Gesetzentwurf entschieden, mit dem der Einsatz von KI in Unternehmen definiert und eingegrenzt werden soll.
00:06:22: Die Parlamentarier betonen zwar, dass Algorithmen Prozesse optimieren können, sie fordern aber, dass die Technik unter menschlicher Aufsicht stehen muss.
00:06:31: Im Kern geht es darum Grundrechte und Datenschutz der Arbeitnehmer zu wahren.
00:06:35: Menschen sollen bei wichtigen Themen die Kontrolle behalten.
00:06:38: So sollen Beginn und Ende eines Arbeitsverhältnisses, die Verlängerung von Verträgen, Lohnanpassungen oder Disziplinarmaßnahmen stets von Menschen entschieden werden.
00:06:49: Auch Transparenz und das Recht auf Information werden hervorgehoben.
00:06:53: So müssen Arbeitnehmer darüber in Kenntnis gesetzt werden, wie sich KI auf ihre Arbeitsbedingungen auswirkt, wann sie zur Entscheidungsfindung eingesetzt wird, welche Art von Daten sie erfasst und wie die Kontrolle durch den Menschen sichergestellt ist.
00:07:08: Zudem sollen Mitarbeiter Zugang zu Schulungen im Umgang mit der Technik erhalten.
00:07:13: Um die Privatsphäre zu schützen, verlangt der Ausschuss ein Verbot der Verarbeitung sensibler Daten.
00:07:20: Dazu zählen zum Beispiel Informationen über den emotionalen, psychologischen oder neurologischen Zustand der Beschäftigten.
00:07:28: Das Parlamentsplenum wird im Dezember über die Initiative abstimmen.
00:07:32: Anschließend hat die EU-Kommission drei Monate Zeit, um auf den Appell zu reagieren.
00:07:38: Der OpenAI-Konkurrent Anthropic will US-Dollar in amerikanische KI-Infrastruktur investieren.
00:07:46: Geplant ist der Bau eigener Rechenzentren in Texas und New York.
00:07:50: Weitere Standorte sollen folgen.
00:07:52: Der Betrieb soll ab Jahrzehnte starten.
00:07:56: Anthropic Chef Dario Amodey sagt, man nähere sich einer KI die wissenschaftliche Entdeckungen beschleunigen und komplexe Probleme auf neue Weise lösen könne.
00:08:07: Die neuen Standorte sollen solche Fortschritte ermöglichen.
00:08:10: Gleichzeitig warnen Beobachter weiterhin vor einer möglichen Investitionsblase.
00:08:16: Der Trend zu immer größeren, oft schuldenfinanzierten Rechenzentren könnte primär darauf zielen möglichst viele Investoren und Partner, finanziell zu involvieren.
00:08:27: OpenAI und Anthropics sind weit davon entfernt, in die Gewinnzone zu kommen.
00:08:32: Nur ein massives Wachstum in kurzer Zeit könnte die Schuldenlast relativieren.
00:08:37: Dafür wird jedoch immer mehr Rechenleistung benötigt.
00:08:41: Google hat sein Tool Notebook LM aktualisiert.
00:08:44: Das neueste Update erlaubt es, die Video-Zusammenfassung per Texteingabe frei zu gestalten.
00:08:50: Zuvor konnte man nur aus vorgegebenen Stilen wählen.
00:08:54: Die freie Stileingabe macht aber auch Copyright-Verletzungen möglich.
00:08:58: In unserem Test generiert das System auf Anfrage eine Präsentation im Stil der Simpsons, ohne erkennbare Einschränkungen.
00:09:06: Bemerkenswert ist, dass Notebook LM alle Folien im Video mit einem eigenen Copyright-Vermerk versieht, selbst in Szenen, in denen ausschließlich Simpsons Inhalte zu sehen sind.
00:09:19: SAP's KI-Assistent Juul ist in der aktuellen Unternehmens-Software von SAP integriert.
00:09:25: Er soll dabei helfen, Geschäftsprozesse zu vereinfachen, zu digitalisieren und in Echtzeit zu analysieren.
00:09:32: Eine aktuelle Studie zeigt jedoch, dass sechs von zehn Firmen sich noch in der Umstellung auf das aktuelle SAP-System befinden und dass die KI-Funktion dabei oft nicht genutzt werden.
00:09:44: Die Studie der Unternehmensberatung Horvat kommt zu dem Schluss, dass sich die Unternehmen nicht agil, leistungsfähig und flexibel genug zeigen, das Thema ganzheitlich und fundiert anzugeben.
00:09:55: Der naheliegende Grund, eine Systemumstellung der SAP Software in Pub sich häufig auch ohne umfangreiche KI Ad-Ons schon als herausfordernder als zunächst angenommen.
00:10:07: Die Studie empfiehlt, Unternehmen sollten schon jetzt schauen, wie KI-Funktionen visual in ihre Prozesse passen, nicht erst nach Abschluss der Umstellung auf die Software.
00:10:18: Dabei sollte man am besten gezielt mit wenigen klaren Automatisierungsprozessen beginnen.
00:10:24: Der Schauspieler Matthew McConaughey wird sein Newsletter künftig auch in flüssigem Spanisch vorlesen, obwohl er die Sprache gar nicht spricht.
00:10:32: Dafür arbeitet er mit dem KI-Audiounternehmen Eleven Labs zusammen, das eine künstlich generierte Version seiner Stimme erstellt.
00:10:41: Auf diese Weise könne er ein noch größeres Publikum erreichen, begründete der Schauspieler den Schritt.
00:10:46: McCarney Hay ist schon seit einigen Jahren finanziell an Eleven Labs beteiligt.
00:10:52: Auch Leiser Minnelli, der Musiker Art Garfankel und der Schauspieler Michael Cain arbeiten mit Eleven Labs zusammen, um eine KI-Version der eigenen Stimme erstellen zu lassen, die dann einen beliebigen Text, mit dem sie gefüttert wurde, sprechen kann.
00:11:07: So lässt Eleven Labs auch Verstorbene wieder aufleben, zumindest deren Stimmen, z.B.
00:11:12: die des Informatikers Alan Turing oder des Schauspielers John Wayne.
00:11:17: Michael Cain sagt dazu, ich hab mein ganzes Leben lang Geschichten erzählt.
00:11:21: Eleven Labs wird der nächsten Generation helfen, ihre Geschichten zu erzählen.
00:11:27: Das war das KI-Update von Heise Online vom vierzehnten November, ein neue Folge gibt es montags, mittwochs und freitags ab fünfzehn Uhr.
00:11:36: Untertitel im Auftrag des ZDF.
00:11:36: im Auftrag des ZDF.
Neuer Kommentar