KI-Update kompakt: Grok, Claude Opus 4.7, Robo-Blindenhund, KI-Influencer
Shownotes
Das ist das KI-Update vom 17.04.2026 unter anderem mit diesen Themen:
Grok stand angeblich kurz vor App-Store-Rauswurf
Anthropic veröffentlicht Claude Opus 4.7
Roboter-Blindenhund lernt sprechen
und KI-Influencer sind überall beim Coachella Festival
=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===
Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11261765
Weitere Links zu diesem Podast: https://www.heiseplus.de/audio https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.ct.de/ki
Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Transkript anzeigen
00:00:02: Das KI-Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.
00:00:13: Ich bin Isabel Grünewald und dies sind heute unter anderem unsere Themen.
00:00:17: Grog stand angeblich kurz vor Appstoreauswurf.
00:00:21: Anthropic veröffentlicht Claude Opus vier Punkt sieben.
00:00:24: Roboter blinden Hund lernt sprechen – und körperlos zum Coachella!
00:00:30: Einem Medienbericht zufolge stand die KI-App Grog kurz vor dem Ausschluss aus Apples App Store.
00:00:36: Grund war Anfang des Jahres der Wirbel um Deepfakes.
00:00:39: Davon, dass es hinter den Kulissen brodelte, bekam die Öffentlichkeit allerdings nichts mit, berichtet Malte Kirchner aus dem heise online Newsroom.
00:00:46: Durfte Grog wirklich einfach so im App Store bleiben?
00:00:49: Obwohl das KI-Modell von Elon Musk's XAI uneinvernehmliche Deepfake Nacktbilder erstellt hat möglicherweise sogar von Kindern?
00:00:58: Diese Frage hat zuletzt für erhebliche Kritik gesorgt und Apple hat jetzt reagiert.
00:01:03: In einem bislang nicht öffentlichen Brief an US-Szenatoren, den NBC News publik gemacht hat, stellt Apple klar man sei nicht untätig geblieben.
00:01:12: Sowohl XAI als Entwickler von GROC als auch EX als das soziale Netzwerk Das GROCK integriert wurden demnach nach ersten Beschwerden und Medienberichten kontaktiert.
00:01:23: Apple habe Verstöße gegen die eigenen App Store Richtlinien festgestellt und ein Ultimatum gestellt.
00:01:28: Umgesetzt werden musste ein konkretes Maßnahmenpaket zur besseren Inhaltskontrolle.
00:01:33: Andernfalls drohte der Rauswurf aus dem App Store.
00:01:36: Und das war offenbar keine leere Drohung, laut dem Bericht soll Grog tatsächlich kurz vor der Entfernung gestanden haben.
00:01:42: X reagierte dabei deutlich schneller als der Grog-Anwickler selbst.
00:01:45: XCI versprach Apple schließlich unter anderem eingeschränkte Bildbearbeitungsfunktionen und stärkere Zugriffbeschränkungen.
00:01:52: Ob das ausreicht?
00:01:53: Bleib fraglich.
00:01:54: NBC News berichtet, dass die Schutzmechanismen weiterhin umgehbar sein sollen – auch wenn Veröffentlichungen in dem Ausmaß wie noch vor einigen Monaten zuletzt nicht mehr aufgefallen sind.
00:02:03: Interessant ist auch die politische Dimension.
00:02:05: In den USA wird bereits über ein gesetzliches Verbot von KI-Systemen diskutiert, die solche Deep Fakes ohne Zustimmung der Betroffenen ermöglichen.
00:02:13: Kritiker lassen sich von Apples Brief dennoch nicht vollständig überzeugen.
00:02:17: Ihr Vorwurf wäre das ein kleiner Indie-Entwickler gewesen, statt ein milliardenschweres Unternehmen wie XAI hätte Apple die Regeln von Anfang an konsequenter durchgesetzt.
00:02:27: Als Beleg verweisen sie darauf, dass Apple zuletzt Updates für sogenannte Wipecoding Apps blockiert hat – wegen deutlich weniger schwerwiegender technischer Verstöße.
00:02:37: Nachdem Anthropag mit dem KI-Modell Mythos in den vergangenen Tagen bis in höchste Regierungskreise für Aufregung sorgt hat, bringt nun OpenAI – mit GPT-Fünf-Punktv Cyber ein eigenes KI- Modell für Cybersicherheit.
00:02:51: Wie bei der Konkurrenz bleibt der Zugang zunächst eingeschränkt und erfolgt über das im Februar gestartete Programm Trusted Access for Cyber.
00:02:59: OpenAI will es in den kommenden Wochen auf tausende verifizierte Sicherheitsforschende sowie hunderte Teams, die für den Schutz kritischer Software verantwortlich sind – ausweiten.
00:03:10: OpenAI sieht GPT-Fünfpunkt vier Cyber als ersten Schritt hin zu weiteren speziell auf Cybersicherheit zugeschnittenen KI-Modellen.
00:03:18: Die derzeitigen Schutzmechanismen hält das Unternehmen für ausreichend um aktuelle Modelle breiter zugängig zu machen während Varianten fürs Cybersichertsarbeit zunächst unter strengeren Kontrollen bleiben sollen.
00:03:30: Langfristig geht OpenAI davon aus dass für noch leistungsfähigere Modelle deutlich umfangreicher Schutzmaßnahmen nötig werden.
00:03:39: OpenAI hat auch sein Entwicklertool Codex umfassend erweitert – das agentische KI-System kann nun den Computer bedienen, Bilder generieren und über Wochen hinweg eigenständig an Projekten arbeiten.
00:03:52: Damit zielt OpenAI direkt auf Anthropics Programmierassistenten ClaudeCode!
00:03:57: Die auffälligste Neuerung heißt Background Computer Use.
00:04:01: Codex kann damit den Bildschirm sehen, klicken und mit einem eigenen Cursor tippen.
00:04:06: Mehrere KI-Agenten sollen parallel auf dem Rechner arbeiten können ohne die eigene Arbeit der Nutzerin zu stören.
00:04:13: Codex kannt sich laut OpenAI selbst zukünftige Aufgaben einplanen und automatisch an langfristigen Projekten weiterarbeiten.
00:04:21: Die Funktion ist zunächst nur auf macOS verfügbar.
00:04:24: dazu kommen Automatisierungsfunktion.
00:04:27: Außerdem hat OpenAI mehr als neunzig neue Plugins veröffentlicht, darunter Anbindungen an Atlassian Jira, GitLab, Microsoft Suite und Slack.
00:04:36: Für uns in der EU und den Großbritannien sollen einige Funktionen allerdings erst später verfügbar werden.
00:04:43: Anthropic wiederum hat sein Spitzmodell Claude Opus aktualisiert.
00:04:47: Version vier Punkt sieben legt vor allem beim Autonomen Programmieren deutlich zu!
00:04:52: Gleichzeitig hat das Forschungslabor erstmals gezielt versucht, bestimmte Cyber-Sicherheitsfähigkeiten des Modells einzuschränken.
00:05:00: Was das Modell laut Anthropic kann, erklärt uns Kim Scheurenbrand von The Decoder.
00:05:13: Der Vorgänger Opus vier Punkt sechs kam auf dreieinfünfzig Prozent.
00:05:17: Auch OPMI-ASGPT fünf Punkt vier liegt mit fast achtundfünftig Prozent darunter.
00:05:22: An Propics eigenes Forschungsmodell, Mrs Preview bleibt mit knapp achtundsebzig Prozent allerdings weiterhin klar vorne.
00:05:29: Der Benchmark testet wie gut KI Modelle echte Programmeaufgaben eingeständig lösen.
00:05:33: Neben dem Coding verbessert an Propic auch die Bildverarbeitung.
00:05:37: Opus-Fierpunkt sieben verarbeitet Bilder mit bis zu drei Komma sieben fünf Megapixeln, mehr als dreimal so viel wie frühe Cloudmodelle.
00:05:44: Das soll vor allem Kairgänden helfen die Screenshots lesen und Benutzeroberflächen bedienen müssen.
00:05:50: Bei der Analyse komplexer Dokumente steigt die Trefferquote laut Anthropik von siehundfünfzig auf über achtzig Prozent.
00:05:57: Besonders auffällig ist der Umgang mit Cyber Sicherheit.
00:06:00: Anthropic hat beim Training experimentell versucht riskantes Cyberfähigkeiten gezielt zu reduzieren.
00:06:06: Zusätzlich blockieren neue Schutzmaßnahmen automatisch Anfragen, die auf verbotene oder hohe riskante Nutzung hindeuten.
00:06:13: Etwas teurer könnte die Arbeit mit dem Modeller bewerten – die Stückpreise bleiben zwar gleich bei fünf Dollar pro Million Input-Token und twentyfünf Dollar pro Millionen Output-Token, doch ein neuer Tokenizer bildet denselben Text auf bis zu fünfundreißig Prozent mehr Tokens ab!
00:06:28: Die tatsächlichen Kosten könnten pro Anfrage dadurch spürbar steigen, obwohl sich an den offiziellen Preisen nichts ändert….
00:06:35: Wie sich das Modell im Alltag schlägt, werden wir über die nächsten Wochen testen.
00:07:06: Während früherer Ausgaben des Radars die wachsenden Fähigkeiten von KI im Software Engineering beleuchteten, verschiebt sich der Fokus nun auf die Risiken beim Skalieren und im produktiven Einsatz.
00:07:17: Der Unterschied zu klassischen technischen Schulden ist dabei wesentlich – technische Schulden stecken im Code selbst, kognitive Schulden dagegen in den Köpfen der Entwicklerinnen und Entwickler!
00:07:28: Die Kluft zwischen Mensch und System wird größer, wenn KI-generierter Code schneller entsteht als Teams ihn durchdringen können.
00:07:36: Der Technology Raider fordert daher eine Rückbesinnung auf Engineering Grundlagen um die wachsenden Fähigkeiten von KI nachhaltig nutzen zu können.
00:07:46: Die Sprachmodelle von Apple sind potenziell angreifbar.
00:07:50: Forschende haben jetzt mehrere neue Eingriffsmethoden auf Apple Intelligence demonstriert.
00:07:55: Ben Schwahn von der Mac&I mit den Einzelheiten.
00:07:59: Apples lokale Sprachmodelle sollen über einen längeren Zeitraum anfällig für Prompt Injections gewesen sein.
00:08:05: Dabei gelang es Sicherheitsforschern von RSAC aus den USA, Apple Intelligence dazu zu bringen seine Sicherheitsfilter und Guardrails umgehen.
00:08:15: Es wurde also Output geliefert, der eigentlich verboten ist – etwa Schimpfwörter.
00:08:20: Die Umgehung erfolgt über mehrere Methoden.
00:08:22: Eine davon waren sogenannte Neural-Execs, bei denen Prompt-Injections anscheinbar unsinnigen Prompts versteckt werden.
00:08:29: Methode zwei nutzte Unicode Sprachen die von rechts nach links geschrieben werden um böswillige Prompts auszuführen.
00:08:37: Apple ist über das Problem bereits seit Monaten informiert und soll bereits Apple vergeschaffen haben, hieß es.
00:08:43: Apple Intelligence setzt auf einen kombinierten Ansatz aus lokalen Sprachmodellen und verschlüsselten Cloud-Servern der sogenannten Private Cloud Compute.
00:08:52: Die lokalene Sprachmodele übergeben an die Cloud sobald eine Aufgabe zu komplex wird.
00:08:57: Es ist allgemein bekannt dass sich lokale Modelle leichter angreifen lassen als die leistungsfähigeren Server-Modelle.
00:09:06: Und wir bleiben bei Apple.
00:09:08: Hier muss ein Teil des Siri-Teams zurück auf die Schulbank!
00:09:11: Etwa zweihundert Programmiererinnen und Programmierern sollen in einem mehrwöchigen Bootcamp lernen, wie sie Werkzeuge wie Anthropics Cloud Code oder Opening Ice Codex beim Programmieren einsetzen – das berichtet das Branchenportal The Information.
00:09:25: Warum das Bootcamp?
00:09:27: Nun, das Siri Team gilt bei Apple intern seit Jahren als Träge und soll den Anschluss an moderne KI.
00:09:33: Entwicklungen verpasst haben….
00:09:34: Der Zeitpunkt ist brisant – schon im Juni will Apple auf seiner Entwicklerkonferenz WWDC eine komplett überarbeitete Version von Siri vorstellen.
00:09:44: Die neue Siri soll auf Google's Gemini-Modell basieren und deutlich gesprechfähiger sein!
00:09:50: Nach dem Bootcamp bleiben rund sechzig Entwicklerin und Entwickler im Kernteam, weitere sechszig sollen Siris Leistung und Sicherheit überwachen.
00:10:00: Vier beinige Roboter taugen nicht nur als Wachhunde, sondern womöglich auch als blinden Hunde.
00:10:06: In der Vergangenheit gab es bereits mehrere Studien und Versuche, blinden Menschen einen Roboter-Hund an die Seite zu stellen – der sie sicher von A nach B navigiert!
00:10:15: Eine neue Entwicklung von Forschen in der Binghamton University in New York geht jetzt einen Schritt weiter.
00:10:21: Was genau neu ist?
00:10:22: erklärt Jenny Lippies von der MIT Technology Review
00:10:25: Das Besondere an dem neu entwickelten Roboterhund?
00:10:28: dass er seine Besitzer nicht nur führen kann, sondern dank großer Sprachmodelle auch mit ihnen sprechen kann.
00:10:34: Das hat unser Autor Eike Kühl für uns herausgefunden.
00:10:38: Diese Fähigkeit steht natürlich einen großen Vorteil da – so kann der Hund etwa den Wegverlauf beschreiben, den seinen Begleiter und er gerade gehen!
00:10:47: Als Roboter hat das Team ein Unitree GoToPro verwendet.
00:10:51: Das ist ein vergleichsweise simples Modell aus China, das es für Privatpersonen bereits für wenige als viertausend Euro zu kaufen gibt.
00:11:00: Ein ausgebildeter Blindenhund dagegen kann gut und gerne das fünf bis zehnfache kosten!
00:11:06: Als KI-Modell nutzten die Forscher GPT IV von OpenAI, dass sie mit einem eigens entwickelnden Dialogsystem ausgestattet haben – das besteht im Kern aus zwei Modulen einer Planverbalisierung, dabei stimmen sich Mensch und Roboter gemeinsam ab – was die Aufgabe ist und wohin sie laufen möchten.
00:11:26: Das zweite Modul ist die Szenenverbalisierung.
00:11:29: Dabei beschreibt der Roboter während des Weges seinem Besitzer die Umwelt so dass dieser bei Betaf reagieren und den ursprünglichen Plan anpassen kann.
00:11:38: Beide Module funktionieren über Sprachbefehle.
00:11:41: Ein Beispiel sagt der Besitzer das er durstig ist, überprüft der Robotter Blindenhund zunächst ob sich in der Nähe eine Küche, ein Getränkautomat oder einen Wasserspender befindet.
00:11:52: Teilt diese Option mit und fragt dann nach wohin es gehen soll.
00:11:57: Dabei informiert der Roboter auch, ob es auf dem Weg Hindernisse gibt etwa Türen- oder Reutreppen.
00:12:03: Sieben blinde Menschen haben den Roboterhund bereits getestet allerdings im begrenzten Rahmen – in diesem Fall einem großen Bürogebäude.
00:12:11: Das Sprachmodell hatte vorab Informationen von Räumlichkeiten erhalten.
00:12:16: Daher ist nicht klar, wie der Roboterhund in komplexeren Situationen funktioniert – etwa im Trubel einer Großstadt.
00:12:23: Das soll in ein Erfolgestudio untersucht werden.
00:12:25: Das Feedback in einem Testseiber grundsätzlich positiv gewesen, berichten die Forscher und trotzdem kann einen Roboter-Hund einen ausgebildeten Blindenhund vorerst nicht ersetzen, denn die natürlichen Vierbeiner können auch Gefahrensituation einschätzen bei Stürzen reagieren oder auch Befehle des Heiters
00:12:43: verweigern.".
00:12:44: Nicht zuletzt vermittelt er das Gefühl von Vertrauen und Verlässlichkeit, und das lässt sich nicht so einfach von den Roboterhunden simulieren.
00:12:51: Danke Jenny!
00:12:53: Drei ehemalige und für Halbleiter-Entwicklung bei Apple, Intel & Qualcomm bekannte Mitarbeiter haben ein neues Startup gegondet.
00:13:01: Bei NuvaCore wollen Gerard Williams der Dritte John Bruno und Ramstra Nivasan einen neuen Prozessorkern entwickeln, der als General Purpose CPU zwar alles berechnen Aber insbesondere KI-Berechnungen schnell und effizient ausführen soll.
00:13:17: Dazu wollen sie nichts anderes als die Regeln von Silicium komplett neu schreiben, wie Sie versprechen!
00:13:24: Noch gibt es weder ein Produkt noch Spezifikationen – NuvaCore bleibt bislang Waage und hat auch die Befehltsatsarchitektur des neuen CBU-Kerns nicht verraten.
00:13:33: aber immerhin haben die drei Gründer mit Sequoia Capital schon einen prominenten Investor gefunden.
00:13:40: Ab heute startet das zweite Wochenende des Corchella-Festivals.
00:13:44: Nicht alle Social Media-Beiträge vom Festival sind allerdings echt, in den sozialen Netzwerken fluten KI-Influencer die Feeds – beobachtet mein Kollege Robin Ahrens aus der ZT Redaktion.
00:13:56: Es ist das Riesen-Event in der Kalifornischen Wüste!
00:13:59: Das Corchela-Fesival ist seit langem schon ein Sammelbecken für Promis-, Influencerinnen und Content-Creator.
00:14:05: Aber nicht alle Bekanntheiten sind wirklich vor Ort….
00:14:08: Laut dem US-Nachrichtenportal The Verge stammen immer mehr Social Media Beiträge von KI-Influencerinnen, also nur virtuell existierenden Persönlichkeiten.
00:14:18: Die posten dann vermeintliche Arm in Arm Fotos mit Justin Bieber, Kylie Jenner und Co.
00:14:23: In Wirklichkeit wurden die Bilder aber mit KI-Tools erstellt oder manipuliert – und sie wirken ganz schön echt!
00:14:30: Vor allem auch deshalb weil die Hintergründe der KI-Fotos teils real existierende Gebäude Auf Instagram binden die KI-Influencerinnen ganz schön viel Aufmerksamkeit.
00:14:42: Dem Account Granny Spilts etwa folgen Stand April mehr als zwei Millionen Menschen.
00:14:47: Die Coachella-Beiträge der Marke losgestalten KI Oma von vergangenem Wochenende sammelten mehrere hunderttausend Likes.
00:14:55: Andere bekannte KI Influenzerin haben zwar deutlich weniger Anhänger, mit ihren häufig mehr als hundert tausend Follower in erreichen sie aber noch immer ein großes Publikum!
00:15:05: Problematisch ist, dass die meisten KI-Beiträge nicht als Seuche gekennzeichnet werden.
00:15:10: In den Bildunterschriften der Coachella-Posts etwa finden sich keine Hinweise auf KI-Tools – erst in den Profiebeschreibungen der Account sind manchmal Anhaltspunkte auf KI zu lesen.
00:15:19: Die Profile besuchen die meisten Social Media Nutzerinnen aber vermutlich gar nicht, denn die KI- Beiträge werden meist wahrlos in den eigenen Feed gespült.
00:15:27: Die Bilder der vermeintlichen Influencerinnen vom Coachella bestätigen einen Trend, der sich ja schon länger abzeichnet.
00:15:34: Sogenanter AI-Slop flutet seit Monaten das Internet.
00:15:37: Schätzungszufolge sind mittlerweile ein bis zwei Fünftel der Onlineinhalte nicht mehr Mensch gemacht – und es bringt gleich etliche Probleme mit sich!
00:15:46: Erst mal frisst die Produktion von KI-Content große Mengen an Energie.
00:15:50: Ist er einmal online ausgespielt, findet er sehr viel Aufmerksamkeit.
00:15:54: Die fehlt dann an anderen Stellen, zum Beispiel für menschliche Kreativerzeugnisse.
00:15:58: Und KI-Generite Fake News lassen natürlich das Vertrauen in seriöse Medien sinken – auch weil Medienhäuser zu oft blind vertrauen und sie einfach übernehmen!
00:16:08: Mal sehen was da noch auf uns zukommt….
00:16:11: Sophie kann gesagt sein es hilft genau hinzuschauen.
00:16:14: Danke schön Robin!
00:16:19: Der neue Eigentümer der kriselnden Schufirma All Birds aus San Francisco hat einen Weg gefunden, den Aktienkurs innerhalb von Stunden fast zu verzehnfachen.
00:16:29: Er gab bekannt, künftig GPUs an die KI-Branche vermieten zu wollen um am KI Boom teilzuhaben.
00:16:36: Dafür will ein institutioneller Investor wohl fünfzig Millionen US Dollar bereitstellen – im Zuge dessen soll die Firma in New Bird AI unbenannt werden!
00:16:45: Vor der Bekanntmachung wurde eine Aktie von Allbirds für gerade mal zwei Dollar fünfzig gehandelt.
00:16:51: Kaum war die Meldung draußen, sprang der Preis vorübergehend auf fast vierundzwanzig US-Dollar – später hat er sich bei rund siebzehn Dollar eingependelt!
00:17:00: Ob diese bizarre Änderungen der Geschäftsstrategie eines Schuhändlers tatsächlich funktionieren kann und die Euphorie an der Börse gerechtfertigt ist?
00:17:09: Ist zumindest zweifelhaft….
00:17:13: Das war das KI-Update von HeiseOnline vom siebzehnten April, im Jahr zum nächsten Mal.
00:17:17: Eine neue Folge gibt es immer montags, mittwochs und freitags um fünfzehn Uhr!
Neuer Kommentar