KI-Update kompakt: KI-Stethoskop, Alexa+, Claude Sonnet 4.5, Apple

Shownotes

Das ist das KI-Update vom 01.10.2025 unter anderem mit diesen Themen:

KI-Stethoskop soll Herzkrankheiten in 15 Sekunden erkennen können Amazon zeigt mehr von seiner neuen KI-Assistentin Alexa+ Anthropics Claude Sonnet 4.5 mit mehr Ausdauer und Apple zeigt erste lokale KI-Apps

Links zu allen Themen der heutigen Folge findet Ihr hier: https://heise.de/-10689551

https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki

Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.

Transkript anzeigen

00:00:02: Das KI-Update, ein Heise-Podcast mit redaktioneller Unterstützung von The Decoder.

00:00:14: Ich bin Isabel Grünewald und die sind heute unter anderem unsere Themen.

00:00:18: KI-Stätoskop soll Herzkrankheiten in fünfzehn Sekunden erkennen können.

00:00:22: Amazon zeigt mehr von seiner neuen KI-Assistentin Alexa Plus.

00:00:27: Anthropics Cloud Sonnet, vier Punkt fünf mit mehr Ausdauer.

00:00:31: Und Apple zeigt erste lokale KI-Apps.

00:00:36: Ein Forschungsteam des Imperial College London NHS Trust hat zusammen mit der Firma EcoHealth ein intelligentes Stethoskop entwickelt.

00:00:45: Es soll mithilfe von Algorithmen schwere Herzkrankheiten in nur fünfzehn Sekunden erkennen.

00:00:51: Mit dem Gerät lassen sich demnach Herzschwäche, Herzklappen, Erkrankungen und Vorhoflimmern diagnostizieren, Erkrankungen, die sonst erst im fortgeschrittenen Stadium entdeckt werden.

00:01:01: Dr.

00:01:01: Philipp Breitbart von der Deutschen Gesellschaft für Kardiologie ist Sprecher der Young DGK und beschäftigt sich mit der Digitalisierung der Kardiologie.

00:01:10: Er hat sich die Studie der Londoner Kollegen genauer angeschaut und erklärt im Gespräch mit Heise Online.

00:01:17: Die Idee ist ja, dass man solche Erkrankungen frühzeitig erkennt, dass man sie dann frühzeitig zum Fachabschick und dass man dann quasi zum einen eine Therapieambulant rechtzeitig anfangen kann, bevor dann jemand jetzt dekompensiert über den Notaufnahmestationär aufgenommen werden muss, aber dass man auch Ereignisse vermeiden kann.

00:01:33: Also in dem Moment, wenn ich manche Erkrankungen rechtzeitig erkenne und entsprechende Maßnahmen treffe, kann ich natürlich schwerwiegende Folgen vermeiden.

00:01:41: Die Studie hat das Potenzial unterstrichen, dass wir durch KI-Gestütze stetoskope Früher mit einer größeren Wahrscheinlichkeit Herzschwäche, Herzklappenerkrankung und Rhythmusstörung dedektieren können.

00:01:56: Die große Frage bleibt für den Alltag in Deutschland, wie wir es gut, technisch, aber auch zeitlich und budgetär in den Alltag integrieren, in die es herfahrenden Abläufe.

00:02:09: Ein großes Problem der Studie bleibt aber, dass wir eine relevante Rate an zahlspositiven Befunden haben, also sprich Patienten, die von diesem KI-Gestützungsstätoskop als krankdetektiert werden, die dann in den Kontrollen im Endeffekt gar nicht krank sind.

00:02:28: Das heißt, das Problem dadurch ist, dass wir Patienten zwischenzusehen sich verunsichern und zu kranken Menschen machen, die es eigentlich gar nicht sind.

00:02:37: Auf der anderen Seite haben die Daten aber gezeigt, dass die Patienten, die wirklich was haben, mit einer sehr hohen Sicherheit von dem Stätoskop entsprechend detektiert werden.

00:02:48: Dr.

00:02:48: Breitbart untersteigt daher noch einmal die Empfehlung der Studienautoren, dass ein solches KI-Stethoskop nur bei Menschen mit Symptomen wie Atemnot, Müdigkeit oder geschwollenen Beinen zum Einsatz kommen sollte.

00:03:01: Es gibt bereits Pläne, die neuen Stethoskope des Imperial College in Hausarztpraxen in Südlondon, Sussex und Wales einzuführen.

00:03:09: Alexa bekommt endlich ihr großes Update.

00:03:12: Mit dem Erfolg von ChatGPT und Co.

00:03:14: war es nur eine Frage der Zeit, bis Amazon sein klassisches Sprachassistenzsystem mit einem neuen KI-Modell pimpt.

00:03:21: Doch es dauerte bis zum Frühjahr, bis Amazon seine Alexa Plus genannte verbesserte Sprachassistentin offiziell auflegte.

00:03:31: Und selbst das geschah bislang nur im Rahmen eines Beta-Tests und nur in den USA.

00:03:37: Mit der Vorstellung der neuen Hardware am Dienstag, die extra auf Alexa Plus angepasst ist, ist Amazon nun einen großen Schritt weiter.

00:03:44: Es gibt zwei wesentliche Unterschiede zur bisherigen Alexa.

00:03:49: Zum einen soll Alexa Plus insgesamt stärker im Hintergrund arbeiten und nur bei Bedarf einspringen, ohne ständig von der Nutzerin ausgerufen zu werden.

00:03:57: Zum anderen soll sie sich vollkommen mit natürlicher Sprache bedienen lassen, was das Auswendiglernen von Kommandos überflüssig macht.

00:04:05: Der erste ambient AI genannte Ansatz findet sich bei den Ring-Kameras etwa in einer Personenerkennung.

00:04:12: Dank derer, die Ring-Video-Türklingeln mit Alexa künftig Bekannte und Freunde automatisch grüßen, wären sie Fremde von sich aus über den Grund des Besuchsausfragen und die Informationen an den Nutzer weitergeben.

00:04:26: Ein anderes Beispiel, Alexa nutzt die Ring-Kamera in der Küche, um zu erkennen, wenn der Sohn des Hauses diese betritt.

00:04:33: Und dann erinnert ihn die verbesserte Sprachassistentin etwa daran, dass er den Hund noch füttern muss.

00:04:39: Auch Routinen im Smart Home lassen sich mit natürlicher Sprache programmieren, indem man etwa zu Alexa Plus sagt, ich möchte, dass alle Lichter ausgehen, wenn ich die linke Taste auf der Fernbedienung drücke.

00:04:51: Amazon erhofft sich davon, dass Alexa Plus auch von Menschen genutzt wird, die bislang mit Sprachsteuerungen nichts anfangen können.

00:04:58: Offiziell befindet sich Alexa Plus in den USA noch im Status Early Access, dennoch betont das Unternehmen bei seinem Hardware-Event noch einmal, dass Deutschland und Österreich folgen.

00:05:09: Keine Angaben macht Amazon bislang aber zum Termin.

00:05:12: Klar ist nur, dass es auch hier wieder mit einer Beta losgeht.

00:05:17: OpenAI will für die Welt nichts Geringeres sein als das Tor zum Internet.

00:05:22: Dafür hat das KI-Unternehmen gemeinsam mit dem Bezahldienst Leister Stripe ein Agente-Commerce-Protokoll entwickelt, das nun Open Source gemacht wird.

00:05:31: Neben der Informationssuche sollen Menschen, die den KI-Chatbot auch zum Shoppen benutzen, diesen auch für den Bezahlvorgang nicht mehr verlassen müssen.

00:05:41: Etwas, dass beispielsweise auch Metta und TikTok bereits für ihre Social-Media-Dienste in Petto haben.

00:05:46: OpenAI schreibt, wir helfen den Menschen nicht nur Produkte zu finden, sondern auch dabei, sie direkt im Chat via ChatGPT zu kaufen.

00:05:55: Damit der Einkauf per Chatbot funktioniert, ist der Einsatz des Agente Commerce Protocol nötig.

00:06:01: Und dann müssen die Händler eine kleine Gebühr für den Kaufvorgang an OpenAI bezahlen.

00:06:07: Das Protokoll kann als eine Erweiterung des Model-Context-Protokolls gelesen werden.

00:06:12: Das MCP macht Webseiten für KI-Agenten les- und nutzbar.

00:06:17: In der Regel haben jedoch Händler ein eigenes Werbeumfeld auf ihren Webseiten und rund um ihre Produkte und Kaufabschlüsse gestaltet.

00:06:25: Dieses würde mit dem Checkout im Chatbot jegliche Relevanz verlieren.

00:06:29: Chat-GPT-Nutzerinnen und Nutzer in den USA können bereits den Bezahlvorgang im Chat für Shops von Etsy abschließen.

00:06:37: Anthropec hat mit Claude SONNET-IV.V sein bisher stärkstes Sprachmodell vorgestellt.

00:06:43: Das Unternehmen verspricht Verbesserungen in den Bereichen Softwareentwicklung, Computerbedienung und Automatisierung.

00:06:50: Was das neue Modell können soll, erklärt Kim Scheurenbrand von The Decoder.

00:06:54: SONNET-IV.V soll nicht nur besseren Code schreiben, sondern auch deutlich länger arbeiten können.

00:07:00: Interne Tests zeigen, dass das Modell über dreißig Stunden an komplexen Aufgaben arbeiten kann.

00:07:05: In einem wichtigen Programmier-Benchmark, dem SVE-Bench Verified, erreicht der Sonnet-Fürpunkt-Fünf laut Anthropik die besten Ergebnisse aller getesteten Modelle.

00:07:15: Hier geht es darum, reale Programmieraufgaben zu lösen und Fehler in Open-Source-Code zu beheben.

00:07:21: Auch im OS World Benchmark, bei dem KI-Systeme reale Computersysteme bedienen müssen, legte Sonnet-Führpunkt-Fünf stark zu.

00:07:29: Der Wert stieg von forty-two Prozent beim Vorgängermodell auf sixty-one Prozent.

00:07:34: Anthropic will hier klar die eigene Stärke ausbauen und weiter auf die Entwicklergemeinschaft setzen.

00:07:40: Nach Angaben von Anthropic zeigen zudem Fachtests aus den Bereichen Medizin, Recht, Finanzen und Naturwissenschaften ebenfalls bessere Ergebnisse als die Vorgänger.

00:07:49: Für Kundinnen und Kunden steht Sonnet-Fürpunkt-Fünf sofort über die Cloud API zur Verfügung.

00:07:54: Die Preise bleiben bei drei bzw.

00:07:56: fünfzehnt Dollar pro einer Million Token.

00:07:59: Parallel zum Modell hat Infopic auf seine Entwickler-Werkzeuge erweitert.

00:08:03: Mit Cloud Code gibt es jetzt Checkpoints, die den Stand einer Aufgabe speichern.

00:08:08: Eine überarbeitete Terminaloberfläche soll die Bedienung erleichtern und eine Erweiterung für Visual Studio Code integriert Cloud direkt in die Entwicklungsumgebung.

00:08:16: Eine weitere Neuerung ist das Cloud Agent SDK.

00:08:20: Es bietet erstmals die gleiche Infrastruktur, die im Topic für eigene KI-Agenten nutzt.

00:08:25: Entwicklerinnen und Entwickler können damit Systeme bauen, die Langzeitaufgaben verwalten, Berechtigung kontrollieren und mehrere Teilagenten koordinieren.

00:08:33: Neue Werkzeuge für Speicherverwaltung und Context-Jourgen sollen helfen, langlaufende KI-Agenten prozesse stabil zu betreiben.

00:08:41: Neben den strukturellen Erweiterungen startet Anthropic auch ein Experiment.

00:08:45: Mit Imagine with Claude können Abonnenten eine Echtzeit-Demo von Sonet.v ausprobieren.

00:08:52: Das Modell soll hierbei live Software generieren.

00:08:55: Die Demo steht aber nur auf Max Abonnenten für fünf Tage zur Verfügung.

00:08:59: Danke schön, Kim.

00:09:01: Google führt neue Funktionen für seinen AI-Mode ein.

00:09:05: Nutzerinnen und Nutzer können künftig Suchanfragen in natürlicher Sprache formulieren, Bilder hochladen und passende visuelle Ergebnisse erhalten.

00:09:14: Jedes Bild ist dabei mit der Originalquelle verknüpft.

00:09:17: Suchen lassen sich durch Folgefragen verfeinern.

00:09:20: Technisch basiert das System auf den multimodalen Fähigkeiten des Sprachmodells Gemini.

00:09:26: Eine neue Technik mit dem Namen Visual Search Fanout soll Haupt- und Nebenelemente eines Bildes erkennen und parallel mehrere Hintergrundsuchen starten, um umfassendere Ergebnisse zu liefern.

00:09:39: Besonderes Augenmerk liegt natürlich hierbei auf Shopping-Anwendungen.

00:09:44: Stattherkömmlicher Filter können Nutzerinnen und Nutzer ihre Wünsche beschreiben, etwa bestimmte Schnitte oder Längen von Kleidung.

00:09:51: Der AI-Mode zeigt dazu passende Produkte an.

00:09:54: Die Grundlage ist Google's Shopping Graph mit mehr als fünfzig Milliarden Einträgen, die laufend aktualisiert werden.

00:10:01: Der neue visuelle AI-Mode startet zunächst in den USA auf Englisch.

00:10:06: Google ergänzt damit frühere Erweiterungen wie personalisierte Ergebnisse, Anno-Funktionen und Shopping-Integration.

00:10:14: OpenAI hat eine überarbeitete Version seines Texts zu Videomodells ZORA veröffentlicht.

00:10:19: Zora II soll im Vergleich zum im Februar-Zweißen-Vierundzwanzig vorgestellten Vorgänger eine verbesserte physikalische Genauigkeit und eine höhere fotorealistische Qualität aufweisen.

00:10:32: Als Beispiel nennt OpenAI einen Basketballwurf.

00:10:35: Anstatt dass ein Verfehl dabei zum Korb teleportiert, soll er nun physikalisch korrekt vom Brett abprallen.

00:10:42: Die wesentliche Neuerung ist jedoch die Fähigkeit des Systems, Videos mit synchronisierten Dialogen, Soundeffekten und Hintergrundgeräuschen zu generieren.

00:10:51: Auch die Steuerbarkeit und die technischen Möglichkeiten wurden erweitert.

00:10:55: Parallel zur Vorstellung des Modells führt OpenAI eine neue iOS-App namens Sora ein.

00:11:01: Nutzerinnen und Nutzer können dort mit Sora II eigene Videos erstellen, Inhalte anderer verändern und in einem Feed entdecken.

00:11:09: Der Feed der Sora-App soll auf Kreativität anstatt auf Verweildauer optimiert sein.

00:11:15: Eine zentrale Funktion der Apps sind Cameos.

00:11:17: Damit können Nutzer nach einer einmaligen Aufnahme von Video und Audio ihr eigenes Abbild in von Sora-generierte Szenen integrieren.

00:11:26: OpenAI verspricht, dass die volle Kontrolle beim Ersteller bleibt.

00:11:30: Cameos können jederzeit gelöscht oder gesperrt werden.

00:11:34: Für Jugendliche gelten zudem erweiterte Schutzmaßnahmen.

00:11:38: Die Sora App wird zuerst in den USA und Kanada über ein Einladungssystem eingeführt und ist zunächst kostenlos, allerdings mit Limits.

00:11:46: Nur Abonnenten von ChatGPT Pro erhalten Zugang zu einem als Sora II Pro bezeichneten höherwertigen Modell.

00:11:54: Eine API ist in Vorbereitung.

00:11:56: Mit dem neuen Modell will OpenAI zeigen, dass KI-gestützte Videotechnik nicht nur experimentell, sondern praktisch nutzbar wird.

00:12:05: Mit dem neuesten iOS Update hat Apple die Voraussetzungen geschaffen, dass Dritt-Apps das lokale KI-Modell Apples auf dem Gerät nutzen können.

00:12:15: Jetzt hat der iPhone-Hersteller einige Beispiele dafür präsentiert, was Entwickler aus dieser Möglichkeit gemacht haben.

00:12:22: Malte Kirchner von Heiße Online hat sie sich angeschaut.

00:12:24: Apple öffnet seine KI-Werkzeuge für Entwickler und die ersten Apps zeigen eindrucksvoll, was damit möglich ist.

00:12:31: Mit dem neuen Foundation Models Framework können Drittanbieter erstmals auf Apples hauseigene KI-Modelle zugreifen.

00:12:37: Das besondere, die KI läuft komplett lokal auf dem Gerät, ohne Cloud, ohne Datenübertragung an externes Server.

00:12:44: Und das nutzt den Entwickler bereits kreativ aus.

00:12:46: Die Video App Detail erstellt aus Stichpunkten automatisch fertige Teleprompter, Skripte und generiert für fertige Videos passende Titel, Beschreibungen und Hashtags.

00:12:56: Die Fitness App Smart Gym verwandelt einfache Beschreibung wie Ich will Arme trainieren in strukturierte Trainingspläne komplett mit Setzen, Wiederholungen und Pausen.

00:13:05: Und die App lernt dabei aus den bisherigen Trainings und gibt personalisierte Empfehlungen ab.

00:13:10: Auch die Tagebuch-App Stoik wird intelligenter.

00:13:13: Sie schlägt Journal-Proms vor, die auf früheren Einträgen und Stimmung basieren und fast vergangene Einträge thematisch zusammen.

00:13:21: Selbst für Kinder gibt's was.

00:13:22: Lil Artest kombiniert Text-KI mit Bildgenerierung und erstellt illustrierte Kindergeschichten.

00:13:28: Für Entwickler ist die lokale Apple-KI aus mehreren Gründen attraktiv.

00:13:32: Neben dem Datenschutz funktioniert die KI auch offline, sodass Funktionen noch ohne Internetverbindung bereitstehen.

00:13:38: Und es sind Fallen, die kosten für externe KI-Dienste wie JetGPT oder Claude.

00:13:43: Allerdings, das Ganze läuft erst ab iOS, iPad, Mac OS und Mac OS und nur auf Geräten die Apple Intelligence unterstützen.

00:13:53: Die KI muss aktiviert sein, damit Apps darauf zugreifen können.

00:13:56: Apple setzt damit vorerst voll auf lokale KI-Verarbeitung ein klarer Gegenentwurf zu den verbreiteten cloud-basierten Lösungen.

00:14:04: Und die ersten App zeigen, die Entwickler können offenbar etwas damit anfangen.

00:14:08: Danke, Malte.

00:14:10: Obwohl Donald Trump jegliche Regulierung untersagt hat, die zu Lasten von KI-Unternehmen gehen könnte, gibt es in Kalifornien nur ein neues KI-Gesetz.

00:14:20: Es richtet sich konkret an KI-Unternehmen, von denen die meisten ihren Sitz in dem Bundesstaat haben.

00:14:26: Dabei geht es vor allem um Transparenzanforderungen an KI-Anbieter und um Sicherheitsvorkehrungen, die OpenAI, Meta, Anzropik, Google und Co.

00:14:35: für ihre KI-Modelle treffen.

00:14:37: Zudem besagt SB-AAF, dass Sicherheitsvorfälle und Vorfälle im Zusammenhang mit Straftaten von den KI-Unternehmen gemeldet werden müssen.

00:14:47: Dazu gehört etwa betrügerisches Verhalten eines KI-Modells selbst, etwas, das nicht mal der Europäische AI-Akt vorschreibt.

00:14:55: Außerdem gibt es einen gesetzlichen Schutz für Whistleblower der KI-Unternehmen.

00:15:00: Die Reaktionen auf das Gesetz vonseiten der KI-Anbieter sind, wie zu erwarten, eher negativ.

00:15:06: Das kalifornische KI-Gesetz drohe Innovationen zu verhindern.

00:15:10: Grundsätzlich wird schon lange kritisiert, dass in den USA zu viele verschiedene Gesetze in den einzelnen Bundesstaaten KI regulieren und sich dabei zum Teil widersprechen.

00:15:20: So liegt in Kalifornien noch ein weiterer Gesetzesentwurf vor, in dem es um die Chatbots, die explizit einen Freundschaftsmodus haben geht.

00:15:28: Es werden auch hier Sicherheitsmechanismen verlangt und KI-Anbieter sollen haftbar gemacht werden können, wenn diese Mechanismen nicht greifen.

00:15:36: New York arbeitet an einem ähnlichen Gesetzesvorschlag wie SB-AA.

00:15:41: Und in Texas untersucht der Generalstaatsanwalt KI-Unternehmen.

00:15:45: Ihm geht es konkret um die Sicherheit von Kindern und Jugendlichen.

00:15:50: Neon Money Talks war vergangene Woche auf iPhones in den USA die vierte meist installierte Anwendung, noch vor Google und WhatsApp.

00:15:58: Das lag allein am Geld.

00:15:59: Neon zeichnet mit Hilfe der App initiierte Telefongespräche auf und schüttet dafür fünfzehn US-Send pro Minute aus.

00:16:07: Die Aufnahmen, so sehr Betreiber, würden dann für trainingskünstliche Intelligenzen weiterverkauft, bereinigt um personenbezogene Daten.

00:16:15: Inzwischen ist Neon offline.

00:16:18: weil die Aufnahmen samt Transkripten und User-Identitäten allesamt frei im Netz gelandet sind.

00:16:25: Das war ausdrücklich kein Verstoß gegen die Vertragsbedingungen, in denen sich die Betreiberfirma Neon Mobile unter anderem herausnimmt, alle Aufnahmen öffentlich aufzuführen.

00:16:34: Doch es ist ein Verstoß gegen das eigene Geschäftsmodell.

00:16:38: Betreiber großer KI-Firmen haben keines Gruppe, sich auch ohne Lizenz an fremden Werken aus dem Internet zu bedienen.

00:16:45: Stehen die Nihon-Aufnahmen frei im Netz, haben solche Leute keinen Anreiz dafür zu bezahlen.

00:16:50: Damit wiederum könnte Nihon Mobile die eigenen Kunden nicht für ihre Gespräche bezahlen.

00:16:55: Aufgedeckt hat das Problem TechCrunch bei einem Kurztest-App.

00:16:59: Es reichte die App zu installieren, um Zugriff auf den gesamten Cloud-Speicher aller Teilnehmer zu erlangen.

00:17:07: Das war das KI-Update von Heise Online vom ersten Oktober für nun zwanzig.

00:17:12: Eine neue Folge gibt es Montags, Mittwochs und Freitags ab fünfzehn Uhr.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.