KI-Update kompakt: Grok, Claude Opus 4.7, Robo-Blindenhund, KI-Influencer

Shownotes

Das ist das KI-Update vom 17.04.2026 unter anderem mit diesen Themen:

Grok stand angeblich kurz vor App-Store-Rauswurf Anthropic veröffentlicht Claude Opus 4.7
Roboter-Blindenhund lernt sprechen und KI-Influencer sind überall beim Coachella Festival

=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===

Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11261765

Weitere Links zu diesem Podast: https://www.heiseplus.de/audio https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.ct.de/ki

Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.

Transkript anzeigen

00:00:02: Das KI-Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.

00:00:13: Ich bin Isabel Grünewald und dies sind heute unter anderem unsere Themen.

00:00:17: Grog stand angeblich kurz vor Appstoreauswurf.

00:00:21: Anthropic veröffentlicht Claude Opus vier Punkt sieben.

00:00:24: Roboter blinden Hund lernt sprechen – und körperlos zum Coachella!

00:00:30: Einem Medienbericht zufolge stand die KI-App Grog kurz vor dem Ausschluss aus Apples App Store.

00:00:36: Grund war Anfang des Jahres der Wirbel um Deepfakes.

00:00:39: Davon, dass es hinter den Kulissen brodelte, bekam die Öffentlichkeit allerdings nichts mit, berichtet Malte Kirchner aus dem heise online Newsroom.

00:00:46: Durfte Grog wirklich einfach so im App Store bleiben?

00:00:49: Obwohl das KI-Modell von Elon Musk's XAI uneinvernehmliche Deepfake Nacktbilder erstellt hat möglicherweise sogar von Kindern?

00:00:58: Diese Frage hat zuletzt für erhebliche Kritik gesorgt und Apple hat jetzt reagiert.

00:01:03: In einem bislang nicht öffentlichen Brief an US-Szenatoren, den NBC News publik gemacht hat, stellt Apple klar man sei nicht untätig geblieben.

00:01:12: Sowohl XAI als Entwickler von GROC als auch EX als das soziale Netzwerk Das GROCK integriert wurden demnach nach ersten Beschwerden und Medienberichten kontaktiert.

00:01:23: Apple habe Verstöße gegen die eigenen App Store Richtlinien festgestellt und ein Ultimatum gestellt.

00:01:28: Umgesetzt werden musste ein konkretes Maßnahmenpaket zur besseren Inhaltskontrolle.

00:01:33: Andernfalls drohte der Rauswurf aus dem App Store.

00:01:36: Und das war offenbar keine leere Drohung, laut dem Bericht soll Grog tatsächlich kurz vor der Entfernung gestanden haben.

00:01:42: X reagierte dabei deutlich schneller als der Grog-Anwickler selbst.

00:01:45: XCI versprach Apple schließlich unter anderem eingeschränkte Bildbearbeitungsfunktionen und stärkere Zugriffbeschränkungen.

00:01:52: Ob das ausreicht?

00:01:53: Bleib fraglich.

00:01:54: NBC News berichtet, dass die Schutzmechanismen weiterhin umgehbar sein sollen – auch wenn Veröffentlichungen in dem Ausmaß wie noch vor einigen Monaten zuletzt nicht mehr aufgefallen sind.

00:02:03: Interessant ist auch die politische Dimension.

00:02:05: In den USA wird bereits über ein gesetzliches Verbot von KI-Systemen diskutiert, die solche Deep Fakes ohne Zustimmung der Betroffenen ermöglichen.

00:02:13: Kritiker lassen sich von Apples Brief dennoch nicht vollständig überzeugen.

00:02:17: Ihr Vorwurf wäre das ein kleiner Indie-Entwickler gewesen, statt ein milliardenschweres Unternehmen wie XAI hätte Apple die Regeln von Anfang an konsequenter durchgesetzt.

00:02:27: Als Beleg verweisen sie darauf, dass Apple zuletzt Updates für sogenannte Wipecoding Apps blockiert hat – wegen deutlich weniger schwerwiegender technischer Verstöße.

00:02:37: Nachdem Anthropag mit dem KI-Modell Mythos in den vergangenen Tagen bis in höchste Regierungskreise für Aufregung sorgt hat, bringt nun OpenAI – mit GPT-Fünf-Punktv Cyber ein eigenes KI- Modell für Cybersicherheit.

00:02:51: Wie bei der Konkurrenz bleibt der Zugang zunächst eingeschränkt und erfolgt über das im Februar gestartete Programm Trusted Access for Cyber.

00:02:59: OpenAI will es in den kommenden Wochen auf tausende verifizierte Sicherheitsforschende sowie hunderte Teams, die für den Schutz kritischer Software verantwortlich sind – ausweiten.

00:03:10: OpenAI sieht GPT-Fünfpunkt vier Cyber als ersten Schritt hin zu weiteren speziell auf Cybersicherheit zugeschnittenen KI-Modellen.

00:03:18: Die derzeitigen Schutzmechanismen hält das Unternehmen für ausreichend um aktuelle Modelle breiter zugängig zu machen während Varianten fürs Cybersichertsarbeit zunächst unter strengeren Kontrollen bleiben sollen.

00:03:30: Langfristig geht OpenAI davon aus dass für noch leistungsfähigere Modelle deutlich umfangreicher Schutzmaßnahmen nötig werden.

00:03:39: OpenAI hat auch sein Entwicklertool Codex umfassend erweitert – das agentische KI-System kann nun den Computer bedienen, Bilder generieren und über Wochen hinweg eigenständig an Projekten arbeiten.

00:03:52: Damit zielt OpenAI direkt auf Anthropics Programmierassistenten ClaudeCode!

00:03:57: Die auffälligste Neuerung heißt Background Computer Use.

00:04:01: Codex kann damit den Bildschirm sehen, klicken und mit einem eigenen Cursor tippen.

00:04:06: Mehrere KI-Agenten sollen parallel auf dem Rechner arbeiten können ohne die eigene Arbeit der Nutzerin zu stören.

00:04:13: Codex kannt sich laut OpenAI selbst zukünftige Aufgaben einplanen und automatisch an langfristigen Projekten weiterarbeiten.

00:04:21: Die Funktion ist zunächst nur auf macOS verfügbar.

00:04:24: dazu kommen Automatisierungsfunktion.

00:04:27: Außerdem hat OpenAI mehr als neunzig neue Plugins veröffentlicht, darunter Anbindungen an Atlassian Jira, GitLab, Microsoft Suite und Slack.

00:04:36: Für uns in der EU und den Großbritannien sollen einige Funktionen allerdings erst später verfügbar werden.

00:04:43: Anthropic wiederum hat sein Spitzmodell Claude Opus aktualisiert.

00:04:47: Version vier Punkt sieben legt vor allem beim Autonomen Programmieren deutlich zu!

00:04:52: Gleichzeitig hat das Forschungslabor erstmals gezielt versucht, bestimmte Cyber-Sicherheitsfähigkeiten des Modells einzuschränken.

00:05:00: Was das Modell laut Anthropic kann, erklärt uns Kim Scheurenbrand von The Decoder.

00:05:13: Der Vorgänger Opus vier Punkt sechs kam auf dreieinfünfzig Prozent.

00:05:17: Auch OPMI-ASGPT fünf Punkt vier liegt mit fast achtundfünftig Prozent darunter.

00:05:22: An Propics eigenes Forschungsmodell, Mrs Preview bleibt mit knapp achtundsebzig Prozent allerdings weiterhin klar vorne.

00:05:29: Der Benchmark testet wie gut KI Modelle echte Programmeaufgaben eingeständig lösen.

00:05:33: Neben dem Coding verbessert an Propic auch die Bildverarbeitung.

00:05:37: Opus-Fierpunkt sieben verarbeitet Bilder mit bis zu drei Komma sieben fünf Megapixeln, mehr als dreimal so viel wie frühe Cloudmodelle.

00:05:44: Das soll vor allem Kairgänden helfen die Screenshots lesen und Benutzeroberflächen bedienen müssen.

00:05:50: Bei der Analyse komplexer Dokumente steigt die Trefferquote laut Anthropik von siehundfünfzig auf über achtzig Prozent.

00:05:57: Besonders auffällig ist der Umgang mit Cyber Sicherheit.

00:06:00: Anthropic hat beim Training experimentell versucht riskantes Cyberfähigkeiten gezielt zu reduzieren.

00:06:06: Zusätzlich blockieren neue Schutzmaßnahmen automatisch Anfragen, die auf verbotene oder hohe riskante Nutzung hindeuten.

00:06:13: Etwas teurer könnte die Arbeit mit dem Modeller bewerten – die Stückpreise bleiben zwar gleich bei fünf Dollar pro Million Input-Token und twentyfünf Dollar pro Millionen Output-Token, doch ein neuer Tokenizer bildet denselben Text auf bis zu fünfundreißig Prozent mehr Tokens ab!

00:06:28: Die tatsächlichen Kosten könnten pro Anfrage dadurch spürbar steigen, obwohl sich an den offiziellen Preisen nichts ändert….

00:06:35: Wie sich das Modell im Alltag schlägt, werden wir über die nächsten Wochen testen.

00:07:06: Während früherer Ausgaben des Radars die wachsenden Fähigkeiten von KI im Software Engineering beleuchteten, verschiebt sich der Fokus nun auf die Risiken beim Skalieren und im produktiven Einsatz.

00:07:17: Der Unterschied zu klassischen technischen Schulden ist dabei wesentlich – technische Schulden stecken im Code selbst, kognitive Schulden dagegen in den Köpfen der Entwicklerinnen und Entwickler!

00:07:28: Die Kluft zwischen Mensch und System wird größer, wenn KI-generierter Code schneller entsteht als Teams ihn durchdringen können.

00:07:36: Der Technology Raider fordert daher eine Rückbesinnung auf Engineering Grundlagen um die wachsenden Fähigkeiten von KI nachhaltig nutzen zu können.

00:07:46: Die Sprachmodelle von Apple sind potenziell angreifbar.

00:07:50: Forschende haben jetzt mehrere neue Eingriffsmethoden auf Apple Intelligence demonstriert.

00:07:55: Ben Schwahn von der Mac&I mit den Einzelheiten.

00:07:59: Apples lokale Sprachmodelle sollen über einen längeren Zeitraum anfällig für Prompt Injections gewesen sein.

00:08:05: Dabei gelang es Sicherheitsforschern von RSAC aus den USA, Apple Intelligence dazu zu bringen seine Sicherheitsfilter und Guardrails umgehen.

00:08:15: Es wurde also Output geliefert, der eigentlich verboten ist – etwa Schimpfwörter.

00:08:20: Die Umgehung erfolgt über mehrere Methoden.

00:08:22: Eine davon waren sogenannte Neural-Execs, bei denen Prompt-Injections anscheinbar unsinnigen Prompts versteckt werden.

00:08:29: Methode zwei nutzte Unicode Sprachen die von rechts nach links geschrieben werden um böswillige Prompts auszuführen.

00:08:37: Apple ist über das Problem bereits seit Monaten informiert und soll bereits Apple vergeschaffen haben, hieß es.

00:08:43: Apple Intelligence setzt auf einen kombinierten Ansatz aus lokalen Sprachmodellen und verschlüsselten Cloud-Servern der sogenannten Private Cloud Compute.

00:08:52: Die lokalene Sprachmodele übergeben an die Cloud sobald eine Aufgabe zu komplex wird.

00:08:57: Es ist allgemein bekannt dass sich lokale Modelle leichter angreifen lassen als die leistungsfähigeren Server-Modelle.

00:09:06: Und wir bleiben bei Apple.

00:09:08: Hier muss ein Teil des Siri-Teams zurück auf die Schulbank!

00:09:11: Etwa zweihundert Programmiererinnen und Programmierern sollen in einem mehrwöchigen Bootcamp lernen, wie sie Werkzeuge wie Anthropics Cloud Code oder Opening Ice Codex beim Programmieren einsetzen – das berichtet das Branchenportal The Information.

00:09:25: Warum das Bootcamp?

00:09:27: Nun, das Siri Team gilt bei Apple intern seit Jahren als Träge und soll den Anschluss an moderne KI.

00:09:33: Entwicklungen verpasst haben….

00:09:34: Der Zeitpunkt ist brisant – schon im Juni will Apple auf seiner Entwicklerkonferenz WWDC eine komplett überarbeitete Version von Siri vorstellen.

00:09:44: Die neue Siri soll auf Google's Gemini-Modell basieren und deutlich gesprechfähiger sein!

00:09:50: Nach dem Bootcamp bleiben rund sechzig Entwicklerin und Entwickler im Kernteam, weitere sechszig sollen Siris Leistung und Sicherheit überwachen.

00:10:00: Vier beinige Roboter taugen nicht nur als Wachhunde, sondern womöglich auch als blinden Hunde.

00:10:06: In der Vergangenheit gab es bereits mehrere Studien und Versuche, blinden Menschen einen Roboter-Hund an die Seite zu stellen – der sie sicher von A nach B navigiert!

00:10:15: Eine neue Entwicklung von Forschen in der Binghamton University in New York geht jetzt einen Schritt weiter.

00:10:21: Was genau neu ist?

00:10:22: erklärt Jenny Lippies von der MIT Technology Review

00:10:25: Das Besondere an dem neu entwickelten Roboterhund?

00:10:28: dass er seine Besitzer nicht nur führen kann, sondern dank großer Sprachmodelle auch mit ihnen sprechen kann.

00:10:34: Das hat unser Autor Eike Kühl für uns herausgefunden.

00:10:38: Diese Fähigkeit steht natürlich einen großen Vorteil da – so kann der Hund etwa den Wegverlauf beschreiben, den seinen Begleiter und er gerade gehen!

00:10:47: Als Roboter hat das Team ein Unitree GoToPro verwendet.

00:10:51: Das ist ein vergleichsweise simples Modell aus China, das es für Privatpersonen bereits für wenige als viertausend Euro zu kaufen gibt.

00:11:00: Ein ausgebildeter Blindenhund dagegen kann gut und gerne das fünf bis zehnfache kosten!

00:11:06: Als KI-Modell nutzten die Forscher GPT IV von OpenAI, dass sie mit einem eigens entwickelnden Dialogsystem ausgestattet haben – das besteht im Kern aus zwei Modulen einer Planverbalisierung, dabei stimmen sich Mensch und Roboter gemeinsam ab – was die Aufgabe ist und wohin sie laufen möchten.

00:11:26: Das zweite Modul ist die Szenenverbalisierung.

00:11:29: Dabei beschreibt der Roboter während des Weges seinem Besitzer die Umwelt so dass dieser bei Betaf reagieren und den ursprünglichen Plan anpassen kann.

00:11:38: Beide Module funktionieren über Sprachbefehle.

00:11:41: Ein Beispiel sagt der Besitzer das er durstig ist, überprüft der Robotter Blindenhund zunächst ob sich in der Nähe eine Küche, ein Getränkautomat oder einen Wasserspender befindet.

00:11:52: Teilt diese Option mit und fragt dann nach wohin es gehen soll.

00:11:57: Dabei informiert der Roboter auch, ob es auf dem Weg Hindernisse gibt etwa Türen- oder Reutreppen.

00:12:03: Sieben blinde Menschen haben den Roboterhund bereits getestet allerdings im begrenzten Rahmen – in diesem Fall einem großen Bürogebäude.

00:12:11: Das Sprachmodell hatte vorab Informationen von Räumlichkeiten erhalten.

00:12:16: Daher ist nicht klar, wie der Roboterhund in komplexeren Situationen funktioniert – etwa im Trubel einer Großstadt.

00:12:23: Das soll in ein Erfolgestudio untersucht werden.

00:12:25: Das Feedback in einem Testseiber grundsätzlich positiv gewesen, berichten die Forscher und trotzdem kann einen Roboter-Hund einen ausgebildeten Blindenhund vorerst nicht ersetzen, denn die natürlichen Vierbeiner können auch Gefahrensituation einschätzen bei Stürzen reagieren oder auch Befehle des Heiters

00:12:43: verweigern.".

00:12:44: Nicht zuletzt vermittelt er das Gefühl von Vertrauen und Verlässlichkeit, und das lässt sich nicht so einfach von den Roboterhunden simulieren.

00:12:51: Danke Jenny!

00:12:53: Drei ehemalige und für Halbleiter-Entwicklung bei Apple, Intel & Qualcomm bekannte Mitarbeiter haben ein neues Startup gegondet.

00:13:01: Bei NuvaCore wollen Gerard Williams der Dritte John Bruno und Ramstra Nivasan einen neuen Prozessorkern entwickeln, der als General Purpose CPU zwar alles berechnen Aber insbesondere KI-Berechnungen schnell und effizient ausführen soll.

00:13:17: Dazu wollen sie nichts anderes als die Regeln von Silicium komplett neu schreiben, wie Sie versprechen!

00:13:24: Noch gibt es weder ein Produkt noch Spezifikationen – NuvaCore bleibt bislang Waage und hat auch die Befehltsatsarchitektur des neuen CBU-Kerns nicht verraten.

00:13:33: aber immerhin haben die drei Gründer mit Sequoia Capital schon einen prominenten Investor gefunden.

00:13:40: Ab heute startet das zweite Wochenende des Corchella-Festivals.

00:13:44: Nicht alle Social Media-Beiträge vom Festival sind allerdings echt, in den sozialen Netzwerken fluten KI-Influencer die Feeds – beobachtet mein Kollege Robin Ahrens aus der ZT Redaktion.

00:13:56: Es ist das Riesen-Event in der Kalifornischen Wüste!

00:13:59: Das Corchela-Fesival ist seit langem schon ein Sammelbecken für Promis-, Influencerinnen und Content-Creator.

00:14:05: Aber nicht alle Bekanntheiten sind wirklich vor Ort….

00:14:08: Laut dem US-Nachrichtenportal The Verge stammen immer mehr Social Media Beiträge von KI-Influencerinnen, also nur virtuell existierenden Persönlichkeiten.

00:14:18: Die posten dann vermeintliche Arm in Arm Fotos mit Justin Bieber, Kylie Jenner und Co.

00:14:23: In Wirklichkeit wurden die Bilder aber mit KI-Tools erstellt oder manipuliert – und sie wirken ganz schön echt!

00:14:30: Vor allem auch deshalb weil die Hintergründe der KI-Fotos teils real existierende Gebäude Auf Instagram binden die KI-Influencerinnen ganz schön viel Aufmerksamkeit.

00:14:42: Dem Account Granny Spilts etwa folgen Stand April mehr als zwei Millionen Menschen.

00:14:47: Die Coachella-Beiträge der Marke losgestalten KI Oma von vergangenem Wochenende sammelten mehrere hunderttausend Likes.

00:14:55: Andere bekannte KI Influenzerin haben zwar deutlich weniger Anhänger, mit ihren häufig mehr als hundert tausend Follower in erreichen sie aber noch immer ein großes Publikum!

00:15:05: Problematisch ist, dass die meisten KI-Beiträge nicht als Seuche gekennzeichnet werden.

00:15:10: In den Bildunterschriften der Coachella-Posts etwa finden sich keine Hinweise auf KI-Tools – erst in den Profiebeschreibungen der Account sind manchmal Anhaltspunkte auf KI zu lesen.

00:15:19: Die Profile besuchen die meisten Social Media Nutzerinnen aber vermutlich gar nicht, denn die KI- Beiträge werden meist wahrlos in den eigenen Feed gespült.

00:15:27: Die Bilder der vermeintlichen Influencerinnen vom Coachella bestätigen einen Trend, der sich ja schon länger abzeichnet.

00:15:34: Sogenanter AI-Slop flutet seit Monaten das Internet.

00:15:37: Schätzungszufolge sind mittlerweile ein bis zwei Fünftel der Onlineinhalte nicht mehr Mensch gemacht – und es bringt gleich etliche Probleme mit sich!

00:15:46: Erst mal frisst die Produktion von KI-Content große Mengen an Energie.

00:15:50: Ist er einmal online ausgespielt, findet er sehr viel Aufmerksamkeit.

00:15:54: Die fehlt dann an anderen Stellen, zum Beispiel für menschliche Kreativerzeugnisse.

00:15:58: Und KI-Generite Fake News lassen natürlich das Vertrauen in seriöse Medien sinken – auch weil Medienhäuser zu oft blind vertrauen und sie einfach übernehmen!

00:16:08: Mal sehen was da noch auf uns zukommt….

00:16:11: Sophie kann gesagt sein es hilft genau hinzuschauen.

00:16:14: Danke schön Robin!

00:16:19: Der neue Eigentümer der kriselnden Schufirma All Birds aus San Francisco hat einen Weg gefunden, den Aktienkurs innerhalb von Stunden fast zu verzehnfachen.

00:16:29: Er gab bekannt, künftig GPUs an die KI-Branche vermieten zu wollen um am KI Boom teilzuhaben.

00:16:36: Dafür will ein institutioneller Investor wohl fünfzig Millionen US Dollar bereitstellen – im Zuge dessen soll die Firma in New Bird AI unbenannt werden!

00:16:45: Vor der Bekanntmachung wurde eine Aktie von Allbirds für gerade mal zwei Dollar fünfzig gehandelt.

00:16:51: Kaum war die Meldung draußen, sprang der Preis vorübergehend auf fast vierundzwanzig US-Dollar – später hat er sich bei rund siebzehn Dollar eingependelt!

00:17:00: Ob diese bizarre Änderungen der Geschäftsstrategie eines Schuhändlers tatsächlich funktionieren kann und die Euphorie an der Börse gerechtfertigt ist?

00:17:09: Ist zumindest zweifelhaft….

00:17:13: Das war das KI-Update von HeiseOnline vom siebzehnten April, im Jahr zum nächsten Mal.

00:17:17: Eine neue Folge gibt es immer montags, mittwochs und freitags um fünfzehn Uhr!

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.