KI-Update kompakt: Grok, ChatGPT, Mistral, DeepL

Shownotes

Das ist das KI-Update vom 03.09.2025 unter anderem mit diesen Themen:

KI-Chatbot Grok nach Elon Musks "Korrekturen" immer konservativer ChatGPT soll sicherer für Menschen in psychischen Krisen werden Mistral erweitert Le Chat um Tool-Anbindungen und Gedächtnis und DeepL stellt eigenen KI-Agenten für Unternehmen vor

Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-10630252

https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki

Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.

Transkript anzeigen

00:00:02: Das KI-Update, ein Heise-Podcast mit redaktioneller Unterstützung von The Decoder.

00:00:14: Ich bin Isabel Grünewald und die sind heute unter anderem unsere Themen.

00:00:18: Grog wird nach Elon Musk's Korrekturen immer konservativer.

00:00:23: Chaichipiti soll sicherer für Menschen in psychischen Krisen werden.

00:00:27: Mistral erweitert Le Chat um Toolanbindungen und Gedächtnis.

00:00:32: Und DeepL stellt eigenen KI-Agenten für Unternehmen vor.

00:00:37: In den vergangenen Monaten wurde der KI-Chatbot Grock mehrfach überarbeitet.

00:00:42: Und zwar immer, wenn Elon Musk mit dem Chatbot unzufrieden war.

00:00:46: Einer Analyse der New York Times stellte nun da, wie sich die Antworten jeweils verändert haben.

00:00:52: Martin Holland von Heise Online mit den Einzelheiten.

00:00:55: Das KI-Werkzeug von XAI, dem KI-Unternehmen von Elon Musk, heißt GROCK und das kann man entweder direkt abrufen oder in Form eines Accounts auf X jemals Twitter ansprechen und erregt deswegen Aufmerksamkeit, weil Elon Musk sich sehr häufig dazu äußert.

00:01:18: was da für Antworten rauskommen, weil es oft Beschwerden gibt, dass der zu links sei oder dass die Antworten nicht nicht genehm sein.

00:01:26: Und jetzt hat eine Analyse der New York Times dargelegt, dass tatsächlich jedes Mal, wenn Elon Musk sagt, da muss es aber Korrekturen geben, auch da braucht es ein Update, die Antworten dieser KI merklich konservativer geworden sind.

00:01:42: Interessanterweise, aber nicht durch die Bank.

00:01:45: Also die Zeitung hat standardisierte Fragen genommen, die sie dann regelmäßig gestellt haben, der KI und die Antworten verglichen haben.

00:01:52: Und aufgefallen ist eben, dass wenn es um wirtschaftliche Themen geht und sie weg, das sind so staatsbürgerliche Sachen, dass er da merklich nach rechts quasi getriftet, getriftet ist in der Zeit, aber gleichzeitig parallel bei Fragen zu sozialen Themen linker geworden ist.

00:02:10: Und das deutet halt darauf hin, dass es gar nicht so einfach ist, so ein Chatbot gezielt zu manipulieren, dass er eine bestimmte Antwortrichtung gibt, aber gleichzeitig, dass es eben doch geht dem großen Ganzen den zu verändern.

00:02:29: Das haben Sie mitgekriegt, dass das jedes Mal passiert ist, wenn Elon Musk das gesagt hat.

00:02:35: Der auffälligste Fall war Anfang Juli als Grog für wenige Tage antisemitische Beiträge gepostet hat sich als Also Hitler gelobt hat und in Holocaust verteidigt hat und solche Geschichten.

00:02:49: Danach wurde auch ein Update versprochen.

00:02:51: In der Folge ist dieser Chatboard für eine kurze Zeit linker geworden, laut dieser Analyse.

00:02:57: Das wurde dann aber wieder korrigiert und danach hat sich es dann wieder in die andere Richtung verschoben.

00:03:03: Vielen Dank, Marty.

00:03:05: OpenAI kündigt neue Sicherheitsfunktionen für ChatGPT an.

00:03:10: In den kommenden vier Monaten sollen Verbesserungen für den Chatboard ausgerollt werden, damit der Angemessener auf psychische Krisen reagiert und Jugendliche stärker schützt.

00:03:20: Dafür arbeitet das Unternehmen unter anderem mit Psychaterinnen und Kinderärzten aus dreißig Ländern zusammen.

00:03:26: Ihre Rückmeldungen fließen in die Entwicklung der Sicherheitsfunktionen ein.

00:03:30: Auch ein neu gegründeter Beirat beschäftigt sich mit Fragen des psychischen Wohlbefindens.

00:03:36: Kernstück der Neuerungen ist ein automatisches Routing-System.

00:03:40: Es erkennt Anzeichen akuter psychischer Belastung und leitet Gespräche an spezielle Reasoning-Models wie GPT-Five-Sinking weiter.

00:03:49: Diese Modelle wurden mit einer Methode namens Deliberative Alignment trainiert.

00:03:53: Sie denken länger nach, bevor sie antworten und befolgen Sicherheitsrichtlinien konstanter.

00:03:59: Diese Modelle sind laut OpenAI auch Widerstandsfähiger gegen manipulative Promps.

00:04:05: Für Eltern gibt es künftig neue Kontrollmöglichkeiten.

00:04:08: Sie können ihre Konten mit denen ihrer Kinder verknüpfen, das ermöglicht das festlegen altersgerechter Regeln, die Deaktivierung bestimmter Funktionen und Benachrichtigungen bei erkanter psychischer Belastung.

00:04:20: Diese Funktionen sollen innerhalb eines Monats verfügbar sein.

00:04:24: Die Maßnahmen sind eine Reaktion auf mehrere öffentlich gewordene Fälle.

00:04:29: In Kalifornien verklagen Eltern OpenAI, nachdem sich ihr sechzehnjähriger Sohn das Leben genommen hat.

00:04:35: Chatchi P.T.

00:04:36: war zuvor in seine Suizidgedanken involviert.

00:04:40: In einem anderen Fall tötete ein Mann seinem Mutter und sich selbst, nachdem Chatchi P.T.

00:04:45: seine paranoiden Wahnvorstellungen bestätigt hatte.

00:04:50: Der französische KI-Anbieter Mestral startet seine KI-Plattform Le Chat mit zwei neuen Funktionen aus.

00:04:57: Über das Model-Context-Protocol lassen sich externe Tools einbinden.

00:05:01: Eine Memory-Funktion speichert Gesprächenhalte über mehrere Sitzungen hinweg, erklärt Kim Schorrenbrand von The Decoder.

00:05:09: Mit dem neuen Connector-Verzeichnis können Nutzerinnen und Nutzer auf über zwanzig Plattformen zugreifen.

00:05:15: Darunter sind Tools für Datenanalyse, Softwareentwicklung und Produktivität.

00:05:20: Die Anbindung erfolgt über das Model-Context-Protocol, kurz MCP.

00:05:25: Diese standardisierte Schnittstelle für große Sprachmodelle stellt Ampropic Ende twenty-vierundzwanzig vor.

00:05:31: Inzwischen hat sie sich als Industrieständer detailliert.

00:05:35: Zu den unterstützten Plattformen zählen Databricks, Snowflake, Notion, GitHub, Asana und Jira.

00:05:42: Die Connectors ermöglichen erst direkt in Le Chat heraus, Daten zu durchsuchen und Aktionen auszulösen.

00:05:48: Nutzer und Nutzer können etwa Jira Tickets erstellen oder Aufgaben in Asana anlegen.

00:05:53: Die zweite Neuerung ist die Memories Funktion.

00:05:56: Sie speichert Informationen aus vergangenen Chats.

00:05:59: Das System soll sich an Präferenzen erinnern und bereits getroffene Entscheidungen berücksichtigen.

00:06:04: Mistral verspricht, nur relevante Inhalte dauerhaft zu speichern.

00:06:07: Früchtige oder sensible Informationen sollen ausgespart werden.

00:06:12: Damit reagiert das Unternehmen auf Kritikpunkte am Memoriesystem wie bei TechGPT.

00:06:18: Dort besteht das Risiko, dass unerwünscht der Kontext in professionell Gespräche übernommen wird.

00:06:23: Nutzerinnen und Nutzer können gespeicherte Einträge jederzeit hinzufügen, bearbeiten oder löschen.

00:06:28: Beide Funktionen stehen allen Lüchett-Nutzerinnen und Nutzern zur Verfügung, unabhängig vom gewählten Tarif.

00:06:34: Danke schön, Kim.

00:06:37: Mit Hilfe von KI-Technik hat eine Gruppe von Informatikern mehr als ein tausend angebliche wissenschaftliche Fachmagazine entdeckt, die von mindestens fragwürdiger Qualität sind.

00:06:48: Das hat die University of Colorado Boulder jetzt publik gemacht.

00:06:52: Wie Studienleiter Daniel O'Connor erklärt, ist es bei renommierten Wissenschaftsmagazinen üblich, dass Forscher und Forscherinnen arbeiten einreichen und diese dann unabhängig von Fachleuten geprüft werden.

00:07:05: Diese Peer Review soll sicherstellen, dass die Arbeit inhaltlich den qualitativen Ansprüchen des Magazins und der Wissenschaft insgesamt entspricht.

00:07:15: Zuletzt seien aber immer mehr Magazine aufgetaucht, die sich oft direkt an Forschende außerhalb der USA und Europas wenden und ihnen versprechen, ihre Arbeiten gegen Bezahlung zu veröffentlichen.

00:07:26: Unter dem Druck, so viel wie möglich zu publizieren, würden die das unter Umständen annehmen.

00:07:32: Die zugesagte Prüfung gebe es dann aber gar nicht.

00:07:35: Stattdessen würden einfach PDF-Dateien online gestellt.

00:07:39: Um gegen diese Raubjournale vorzugehen, hat Cunha's Team nun eine KI anhand von geprüften Fachmagazinen trainiert und die insgesamt fast fünfzehntausend zweihundert Titel prüfen lassen.

00:07:52: Von Anfangs mehr als ein Tausend Vierhundert von der KI als potenziell problematisch eingestuften Titeln blieben nach einer manuellen Überprüfung immerhin über ein Tausend übrig, die als zweifelhaft eingestuft wurden.

00:08:05: Vor dem Hintergrund zunehmender Angriffe auf die Wissenschaft müsse die Zunahme solcher Publikationen gestoppt werden, begründet das Team die eigene Arbeit und will das KI-Werkzeug für die Forschung freigeben.

00:08:18: Das Kölner Unternehmen Deep Elm stellt einen KI-Agenten für Unternehmen vor.

00:08:24: Er ist zunächst als Beta-Version für einige Partner verfügbar, soll aber schon bald frei zugänglich sein.

00:08:30: Mehr dazu weiß Eva-Maria Weiß von Heise Online.

00:08:33: Der KI-Agent von Dieb L richtet sich an Unternehmen.

00:08:37: Er soll repetitive Aufgaben übernehmen, wie alle gängigen KI-Agenten.

00:08:42: Dieb L nennt als Beispiele des Errechnungen in der Finanzabteilung automatisieren können, aber auch Erkenntnisse aus Vertriebsteams zusammenfassen.

00:08:52: Laut des Gründers von Dieb L, Jaroslav Kutlowski hat das Unternehmen einen großen Vorteil bei der Entwicklung solcher KI-Agenten, weil diese ja sehr exakt umsetzen.

00:09:02: müssen, was ihnen sprachlich mitgegeben wird.

00:09:05: Und Sprache ist nun mal das Steckenpferd von DeepAle.

00:09:09: Die sind ja bisher vor allem durch den gleichnamigen Übersetzer bekannt oder durch die Schreibhilfe DeepAleRide.

00:09:16: Der Agent ist autonom und soll vollständig innerhalb der digitalen Umgebung des Nutzers arbeiten.

00:09:24: Freilich ist er auch bedingt anpassbar und erlernt aus bisherigen Aufgaben, wird also immer klüger.

00:09:31: Und es gibt eine Reihe Sicherheitsmaßnahmen.

00:09:33: Atmins können zum Beispiel Aufgaben überwachen und natürlich ist auch gedacht, dass der Mensch hier und da eingreifen soll.

00:09:40: Bei DeepL ist alles im eigenen Haus entwickelt.

00:09:44: Mehr als tausend Menschen arbeiten inzwischen weltweit für das Unternehmen aus Deutschland, wie DeepL genau aufgestellt ist.

00:09:52: Darüber spreche ich übrigens auch diesen Freitag mit ihrem Chief Scientist Stefan Mesken in unserem DeepDive des KI-Updates.

00:10:00: Danke Eva.

00:10:02: Aktuelle KI-Agenten versprechen in der Softwareentwicklung vollständig autonom zu agieren.

00:10:08: Aber sind sie auch soweit, dass sie es hinsichtlich Know-how mit Entwicklerinnen und Entwicklern aufnehmen können?

00:10:14: Nein, heißt es in einer aktuellen Studie einer Forschungsgruppe der Cornell University des MIT, der Stanford University und der UC Berkeley.

00:10:23: Aktuelle LLM-Modelle haben noch nicht den Punkt erreicht, dass man mit ihnen so zusammenarbeiten kann wie mit Kolleginnen aus Fleisch und Blut.

00:10:31: Viele KI-Tools sind mittlerweile so leistungsstark geworden, dass sie Developern einen echten Mehrwert bringen.

00:10:37: Komplexe Coding-Aufgaben können sich für Kollege Kai jedoch laut der Studie als Stolperstein herausstellen.

00:10:43: Darunter fallen etwa Aspekte wie das Kontextverständnis für sehr umfangreiche Codebasen, höhere logische Komplexitätsgrade sowie die Fähigkeit, Code-Strukturen so zu planen und umzusetzen, dass ihre Qualität auch langfristig auf dem gleichen Niveau bleibt.

00:11:00: Programmieraufgaben lassen sich über eine effektivere Kommunikation zwischen Mensch und Maschine am besten lösen.

00:11:07: Kommunikationsbarrieren könnten sich laut Studie abbauen lassen, wenn KI-Systeme lernen, bei Wagenanweisungen oder unklaren Szenarien proaktiv, um zusätzliche Informationen zu bitten.

00:11:19: Direkte Hinweise können KI-Systeme dann in die Lage versetzen, die Absichten von Entwicklerinnen und Entwicklern besser zu erfassen und unzusetzen.

00:11:29: Das KI-Unternehmen Eleven Labs hat Version zwei seines Sound-Effekt-Modells veröffentlicht.

00:11:35: Es erzeugt Sound-Effekte per Textanweisung.

00:11:38: Die generierten Geräusche können jetzt bis zu dreißig Sekunden dauern und sich nahtlos wiederholen.

00:11:43: Nutzerinnen und Nutzer können das Modell über die Benutzeroberfläche oder eine API steuern.

00:11:49: Die Loop-Effekte sind auch direkt im hauseigenen Audio-Editor Eleven Labs Studio verfügbar.

00:11:55: Zum Schluss noch der Hinweis, dass HeiseKI Pro über ein kostenloses Kennenlernangebot verfügt.

00:12:01: Unser Fachdienst zum Thema künstliche Intelligenz begleitet Dich und ein Team Schritt für Schritt bei der Entwicklung und Implementierung einer zukunftssicheren KI-Strategie.

00:12:12: Profitiere von fundiertem Fachwissen, Live-Webinar und Talks mit KI-Experten, praxisnahen Anleitungen sowie dem Austausch mit unserer stetig wachsenden KI-Business-Community.

00:12:23: Erfahre mehr auf!

00:12:24: pro.heise.de.

00:12:28: Und melde dich jetzt an für das kostenlose Kennenlernangebot von HeiseKI Pro.

00:12:35: Das war das KI-Update von Heise Online vom dritten September, für nun zwanzig.

00:12:40: Eine neue Folge gibt es montags, mittwochs und freitags, ab fünfzehn Uhr.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.