KI-Update kompakt: OpenAI Mathe, Reddit, Salesforce, Apple

Shownotes

Das ist das KI-Update vom 20.10.2025 unter anderem mit diesen Themen:

OpenAI feiert Mathe-Durchbruch – und muss schnell zurückrudern Reddit antwortet mit KI Salesforce veröffentlicht KI-Plattform für Unternehmen und Apple verliert nun auch KI-Suchechef an Meta

Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-10780090

https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki

Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.

Transkript anzeigen

00:00:02: Das KI Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.

00:00:13: Ich bin Isabel Grünewalds und die sind heute unter anderem unsere Themen.

00:00:18: OpenAI feiert Mathe-Durchbruch und muss schnell zurück rudern.

00:00:22: Reddit antwortet mit KI.

00:00:25: Salesforce veröffentlicht KI-Plattformen für Unternehmen.

00:00:28: Und Apple verliert nun auch KI-Suche-Chef an Metta.

00:00:33: Forscher von OpenAI haben einen mathematischen Durchbruch gefeiert, den es gar nicht gab.

00:00:40: Mehr dazu von Max Schreiner von The Decoder.

00:00:43: Ein gelöschter Tweet des OpenAI-Managers Kevin Weil behauptete, gebt ihr fünf habe zehn ungelöste Probleme aus der zahlen Theorie endlich geknackt, sogenannte Erdorschprobleme.

00:00:54: Diese Aufgaben gelten als besonders knifflig und beschäftigen Mathematiker seit Jahrzehnten.

00:00:59: Die Nachricht sorgte daher für Aufsehen, denn Sie erweckte den Eindruck, ein KI-System habe eigenständig neue Mathematischupperweise gefunden.

00:01:07: Doch diese Euphorie hielt nicht lange, denn der britische Mathematiker Thomas Ploum, der Betreiber der Webseite erdorschproblems.com, widersprach umgehend.

00:01:16: Die Kennzeichnung offen auf seiner Webseite, auf die sich das Open-I-Team beruf, bedeutete lediglich, dass ihm persönlich keine Lösung bekannt sei und eben nicht, dass diese Probleme tatsächlich ungelöst sind.

00:01:29: GBD-Fünf habe also keine neuen Beweise geliefert, sondern lediglich bestehende Arbeiten gefunden, die Plum übersehen hatte.

00:01:37: Der Vorfall blieb in der Fachcommunity nicht unbemerkt, dieb mein Chef Demis Hassabis nannte, die den Vorgang sogar peinlich und Metaforscher Jan Le Künn warnte vor einem Hype, der Open AI zunehmend selbst in die Falle lockte.

00:01:49: Die betreffenden Tweets wurden inzwischen gelöscht oder stark relativiert.

00:01:53: Zurück bleibt der Eindruck einer Organisation, die sich von ihrem eigenen Erfolg plänten lässt.

00:01:59: Dabei steckt eigentlich in dem Vorgang ein durchaus reales Potenzial.

00:02:04: GBD-Fünf zeigte sich als nützliches Werkzeug für wissenschaftliche Recherche.

00:02:08: Es ist halb relevante Publikation zu finden, eine Aufgabe, die in der Mathematik oft mühsam ist.

00:02:14: Da Begriffe, Beweise und Notation stark variieren, der renommierte Mathematiker Terence Tao sieht darin übrigens genau, dass kurzfristig Potenzial solcher Systeme weniger im Lösen der ganzen großen Probleme, sondern eher in der maschinellen Beschleunigung der täglichen Forschungsarbeit und Recherche.

00:02:32: Der vermeintliche Durchbruch war also gar keiner, doch der Vorfall zeigt, wie schnell der Grad zwischen wissenschaftlichem Fortschritt und überzogene Erwartung geworden ist.

00:02:41: Besonders in diesem Feld, in dem die Versuchung groß ist, jede neue KI-Leistung als Sensation zu verkaufen.

00:02:47: Eine zentrale Rolle, dabei spielt natürlich auch Open-Eis angestrebtes Wachstum, das selbst in der Tech-Branche außergewöhnlich wäre.

00:02:55: Die Analysefirma Epoch AI berichtete kürzlich, das Unternehmen will sein Umsatz von US-Dollar im Jahr im Jahr, auf US-Dollar im Jahr, auf US-Dollar im Jahr, auf US-Dollar im Jahr, auf US-Dollar im Jahr, auf US-Dollar im Jahr, auf US-Dollar im Jahr, auf US-Dollar im Jahr, auf US-Dollar im Jahr, auf US-Dollar im Jahr, auf US-Dollar im Jahr, auf US-Dollar im Jahr, auf US-Dollar im Jahr, auf US-Dollar im Jahr, auf US-Dollar im Jahr, auf US-Dollar im Jahr, auf US-D.

00:03:08: Ein Sprung, den historisch, sagt das Unternehmen, nur wenige US-Firmen geschafft haben und nur sehr, sehr wenige in dieser Zeit.

00:03:15: Danke, Max.

00:03:17: Amazons Clouddienst Amazon Web Services zeigte zum Wochenbeginn Störungen, die sich weltweit auswirkten.

00:03:25: Zahlreiche Internetdienste ließen sich am Montag vormittag nicht nutzen.

00:03:29: Nachvollziehen konnten wir den Ausfall zumindest einiger Content-Delivery-Notes von Amazon Prime, sodass z.B.

00:03:35: Videotitel auf Fire TV Sticks nach erfolgreicher Auswahl nicht abgespielt wurden.

00:03:41: Gleiches ließ sich bei Amazons Echo-Geräten feststellen.

00:03:44: Sprachbefehle erkannten diese zwar, dass Abspielen von Playlists schlug jedoch fehl.

00:03:49: Auch die KI-Suchmaschine Perplexity war mehrere Stunden wegen des AWS-Ausfalls down, berichtet CEO Aravind Srinivas.

00:03:58: Seit FU-III scheint sich die Dienste zu erholen.

00:04:01: Zu den Auswirkungen und Hintergründen des AWS-Ausfalls informieren wir euch fortlaufend auf heise.de.

00:04:09: Reddit führt eine neue KI-Funktion ein.

00:04:12: Es ist eine Art Suchfunktion für die Plattform.

00:04:15: Answers soll Antworten geben.

00:04:17: Warum sich diese von einer regulären Suchmaschine aber grundlegend unterscheiden, weiß Eva Maria Weiß von Heise Online.

00:04:24: Die Antworten in Answers sind KI-generiert.

00:04:27: Aber sie sollen dennoch keine KI-generierten Fließtexte sein, wie wir das etwa von den Antworten bei Google oder ChatGPT kennen.

00:04:36: Bei Reddit basieren die Antworten direkt auf den Beiträgen, die Menschen in Subreddits geschrieben haben.

00:04:43: Und so verweisen die Antworten auch direkt auf diese Beiträge.

00:04:47: Man kann dort also in den Thread einsteigen und dann nochmal genauer nachlesen, was die Menschen dort alles geschrieben haben.

00:04:54: Bei anderen Chatbots und Such- oder Antwortmaschinen, wie es inzwischen oft heißt, weiß man laut Reddit manchmal einfach gar nicht, woher die Informationen stammen.

00:05:04: Und klar, ein Teil kann ja auch immer halluciniert sein.

00:05:08: Und auch wenn es links gibt zu Quellen, sind das sicherlich nicht immer alle Quellen.

00:05:13: Reddit will das nun also besser machen und ganz nah dran bleiben an den menschlich verfassten Beiträgen.

00:05:21: Der Plattform ist grundsätzlich sehr bewusst, wie viel die Beiträge der Menschen dort wert sind.

00:05:27: Die Nutzungszahlen sind zuletzt immer weiter gestiegen und außerdem lässt sich Reddit auch ziemlich gut dafür bezahlen, dass Google und Co.

00:05:34: die Inhalte der Plattform für das KI-Training nutzen dürfen.

00:05:38: Beim diesjährigen OMR-Festival in Hamburg, da trifft sich jedes Jahr die Marketing- und Werbebranche, da war auch Reddit's Chief Operative Officer, Jen Wong, auf der Bühne.

00:05:49: Und sie hatte unter anderem erklärt, dass KI eben nur so gut sei wie die Inhalte, die die Modelle finden.

00:05:57: KI, so ihr Beispiel, könne keinen Kindersitz testen.

00:06:01: Das müssten halt Menschen tun.

00:06:03: Und die müssen darüber schreiben, was für Erfahrungen sie gemacht haben.

00:06:06: Und dann kann die KI eben erst darauf zurückgreifen.

00:06:10: Und da haben wir auch mal wieder die Crux.

00:06:12: KI braucht Inhalteersteller.

00:06:15: Wenn die kein Geld mehr verdienen mit ihren Inhalten, weil zum Beispiel niemand mehr auf ihre Webseite geht und dort niemand mehr Werbung anschaut, dann brechen diese Inhalteersteller irgendwann vielleicht komplett weg, weil sich das Geschäft nicht mehr lohnt.

00:06:31: Aber die Chatbots haben dann eben auch keine Inhalte mehr, auf die sie zurückgreifen können.

00:06:36: Nehmen wir einfach mal an, wenn alle tagesaktuellen lokalen Medien ihre Inhalte für KI-Bots sperren würden, also wären Chatchi-PT und Gemini ausgeschlossen, dann wären sie eben auch eine ziemlich schlechte Adresse, um etwas zu erfahren über das, was in der eigenen Stadt los ist.

00:06:54: Vielen Dank Eva.

00:06:56: Das Ausmaß automatisierter Zugriffe auf der Online-Enzyklopädie Wikipedia ist wohl deutlich größer als gedacht.

00:07:04: Neue Auswertungsmethoden haben ergeben, dass ein Teil der Zugriffe, welche die Wikimedia Foundation zunächst menschlichen Besuchern zuordnete, eigentlich durch Bots kamen.

00:07:15: Diese seien aber gezielt darauf ausgelegt, Wikipedia's Erkennungssysteme mit ihrem Verhalten zu umgehen.

00:07:22: Nach Angaben der Wikimedia Foundation hat das Portal im Mai und Juni deutlich höhere Zugriffszahlen verzeichnet.

00:07:29: Nach einem Update der Systeme zur Bot-Erkennung bei Website-Besuchern führt sie nun aber ein Großteil des zusätzlichen Traffics auf automatisierte Zuckerfetts zurück.

00:07:39: Diese Bots dienen häufig dazu, Wikipedia-Artikel zu scrapen und zum KI-Training zu verwenden.

00:07:46: Der CRM-Hersteller Salesforce hat auf seiner Konferenz Dreamforce in San Francisco eine neue KI-Strategie angekündigt.

00:07:54: Kern der Ankündigungen ist die Plattform Agent Force, mit der Unternehmen eigene KI-Agenten bauen und steuern können.

00:08:03: Die Chatsoftware Slack soll dabei zur zentralen Kommandozentrale werden, in der Mensch und Maschine zusammenarbeiten, berichtet Kim Schorrenbrand von Z Decoder.

00:08:12: Ja, ich war für euch vor Ort in San Francisco und konnte die Präsentation live verfolgen.

00:08:17: Das war schon eine riesige Show, bei der auch zum Beispiel Erführungskräfte von Open AI und Enthropic auf der Bühne standen.

00:08:24: Die neue Plattform Aidenforce Three Sixty soll das Unternehmen ermöglichen, KI-Agenten tief in ihre Prozesse zu integrieren.

00:08:31: Diese Agenten können dann weitgehend eigenständig Telefonate führen, Kundenanfragen per Text bearbeiten und bei Bedarf nahtlos an menschliche Kollegen übergeben.

00:08:38: Es gab Insgesamt drei interessante Neuerungen.

00:08:41: Erstens Agent Script, eine JSON-basierte Programmiersprache für KI-Verhalten.

00:08:46: Zweitens Agent Force Voice, hier verspricht Salesforce KI-Agenten, mit denen man natürliche Gespräche führen kann.

00:08:52: Und drittens ein überarbeiteter Slackbot.

00:08:54: Er soll als persönlicher KI-Assistent direkt ins Slack agieren, aus Unterhaltungen und Dateien lernen und so jedem Mitarbeiter und Mitarbeiter einen kontextbezogene Hilfe anbieten.

00:09:04: Wie radikal solche KI-Agenten die Arbeitswelt verändern könnten, zeigt ein Kundenbeispiel aus Deutschland.

00:09:10: Hier wurde berichtet, dass durch die Automatisierung von Backoffice-Aufgaben bei einer Hotelkette die Belegschaft in einem der Hotels von dreißig auf nur noch sieben Vollzeitstellen reduziert werden konnte.

00:09:21: Die verbleibenden Mitarbeiterinnen und Mitarbeiter hätten nun mehr Zeit für die direkte Betreuung der Gäste.

00:09:26: Trotz eucher Beispiele herrscht gerade in Deutschland noch Skepsis.

00:09:29: Alexander Wallner, Deutschland-Chef von Salesforce, erklärte mir gegenüber im Gespräch.

00:09:34: Das Problem sei weniger die Technik oder der Datenschutz.

00:09:37: Vielmehr fehlt die Bereitschaft, im Management bestehende Prozesse grundlegend zu verändern und auf KI auszurichten.

00:09:43: Die neuen Funktionen werden gestaffelt eingeführt.

00:09:45: Die Wäußagenten starten im Oktober, und der erneute Slackbot ist für Herr Neuer, ist für Herr Neuer, ist für Herr Neuer, ist für Herr Neuer, ist für Herr Neuer, ist für Herr Neuer, ist für Herr Neuer, ist für Herr Neuer, ist für Herr Neuer, ist für Herr Neuer, ist für Herr

00:09:53: Neuer, ist für Herr Neuer, ist für Herr Neuer, ist für Herr Neuer, ist für Herr Neuer, ist für Herr Neuer, ist für Herr Neuer, ist für Herr Neuer, ist für.

00:09:56: Sprachmodelle klingen oft gleich und genau das wollen Forscher aus den USA ändern.

00:10:01: Ihre Methode mit dem Titel Verbeleist Sampling sorgt dafür, dass KI-Modelle wieder vielfältiger und kreativer antworten.

00:10:10: Die Eintönigkeit kommt normalerweise daher, dass in der Trainingsphase Menschen bewerten, welche KI-Antworten besser sind.

00:10:17: Dabei bevorzugen sie tendenziell bekannte Formulierungen und trainieren die Modelle so auf Sicherheit statt Originalität.

00:10:24: Das Ergebnis sind Antworten, die alle gleich klingen.

00:10:28: Verbaleist-Sampling setzt genau bei diesem Problem an.

00:10:31: Statt nur eine Antwort zu verlangen, bittet der Promptas-Modell, mehrere Varianten samt geschätzter Wahrscheinlichkeit zu erzeugen.

00:10:39: Aus diesen Vorschlägen kann die Anwendung dann zufällig auswählen.

00:10:43: Ganz ohne zusätzliches Training.

00:10:45: In Tests für kreative Schreibaufgaben stieg die Vielfalt der Texte fast auf.

00:10:50: Stopp bitte.

00:10:51: Selbst einfache Witzpromz, die zuvor immer dieselbe Porenze erzeugten, führten plötzlich zu völlig unterschiedlichen Ergebnissen.

00:10:59: Auch bei Dialogen oder offenen Fragen wie Nenner einen US-Bundesstaat zeigten die Modelle, mehr Variation ohne Angenauigkeit oder Sicherheit zu verlieren.

00:11:10: Mittlerweile ist es zu einer Art Treppenwitz im Silicon Valley geworden.

00:11:14: Regelmäßig kündigen Mitarbeiter aus Appels KI-Abteilung und gehen zur Konkurrenz.

00:11:20: Nachdem zuletzt bekannt geworden war, dass ein wichtiger Apple-Robotik-Forscher zum Meta abgewandert ist, trifft es nun die Sucherabteilung von Apple Intelligence, erklärt Ben Schwahn von Heise Online.

00:11:31: Diesmal ist es Ke Yang, der Berichten zur Folge erst vor wenigen Wochen das Ruder übernommen hatte, nachdem schon sein Vorgänger Robbie Walker zum Meta gegangen war.

00:11:41: Appels KI-Abteilung bleibt damit in Aufruhr und ein Ende ist nicht abzusehen.

00:11:47: Am Wochenende hieß es dann, Apples kontextsensitive Siri, die im Frühjahr nach einer Verzögerung von über einem Jahr endlich erscheinen soll, sei intern auf Bedenken gestoßen.

00:11:58: Angeblich ist die Funktionalität immer noch nicht so, wie sich das Apples Softwarechef Craig Federighi wünscht.

00:12:05: Die kontextsensative Siri soll Inhalte auf dem iPhone auslesen können, beherrscht zudem eine App-Steuerung und kann erkennen, was Apple-Schirm derzeit anzeigt, um damit dann zu arbeiten.

00:12:16: Ein echter Chatbot ist das aber noch nicht, eine LLM-Siri plant Apple erst später.

00:12:23: Derzeit sieht wenig danach aus, dass Apple einen Befreiungsschlag in Sachen KI gelingen könnte.

00:12:28: Dies wäre höchstens möglich, wenn extern zugekauft würde.

00:12:32: Doch die großen KI-Player wie Enthropic sind selbst für Apple inzwischen zu teuer geworden.

00:12:37: Möglicherweise wartet der Konzern ja darauf, dass etwas Luft aus der KI-Blase genommen wird.

00:12:44: Die Berliner Verkehrsbetriebe starten ihr bislang größtes Pilotprojekt für autonomes Fahren.

00:12:50: Künftig sind im Nordwesten der Hauptstadt fünf vollelektrische Kleinbusse unterwegs.

00:12:55: Zunächst absolvieren sie Tests und Vermessungsfahrten ohne Fahrgäste.

00:13:00: Im ersten Halbjahr, im Jahr, soll dann der Probebetrieb mit Fahrgästen und einer Sicherheitsperson an Bord beginnen.

00:13:07: Dazu will die BVG feste Testgruppen bilden.

00:13:10: Wer Lust hat, mitzumachen, kann sich ab Anfang kommenden Jahres bewerben.

00:13:14: Auf einer Gesamtstrecke von fünfundfünfzig Kilometern sollen die Schattels rund achtzig Bushaltestellen und andere Haltepunkte anfahren.

00:13:22: Kunden der Testgruppe können sie mit Hilfe einer App bestellen und Fahrten buchen, um zum Beispiel zum nächsten S- oder U-Bahnhof zu kommen.

00:13:30: Die Fahrzeuge sind die autonome Variante des VW ID-Bus.

00:13:34: Sie sind mit zahlreichen Kameras, Sensoren und viel Elektronik ausgestattet.

00:13:39: Damit sind sie in der Lage, auf dem sogenannten Autonomielevel IV zu fahren.

00:13:44: Dieses Level ist Voraussetzung für einen komplett fahrerlosen Betrieb.

00:13:49: Während der Testfahrten ist allerdings noch eine Person auf dem Fahrersitz dabei, um die Abläufe zu kontrollieren und im Notfall einzugreifen.

00:13:56: Zusätzlich werden die Fahrzeuge aus einer Projektleitstelle fernüberwacht.

00:14:01: Die Level-Vier-Technologie inklusive Software-System und Services kommen von der Volkswagen-Tochter Moja, die aktuell in Hamburg autonomenfahrende Shuttles testet.

00:14:11: Die BVG hat sich das Ziel gesetzt, den autonomen Fahrbetrieb nach Abschluss des Pilotprojekts Mitte- Twenty-seven auf Basis der bis dahin gesammelten Erfahrungen auszuweiten und zu verstätigen.

00:14:24: Der autonome Vortritt soll dann zum festen Bestandteil der Hauptstadt Mobilität werden.

00:14:31: Das war das KI-Update von heise online vom zwanzigsten Oktober.

00:14:36: Eine neue Folge gibt es montags, mittwochs und freitags ab fünfzehn Uhr.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.