KI-Update kompakt: Demokratie schützen, Prism, Wettervorhersage, KI in Autos
Shownotes
Das ist das KI-Update vom 28.01.2026 unter anderem mit diesen Themen:
Demokratien müssen sich vor ihrer eigenen KI schützen KI-Tool Prism für wissenschaftliches Schreiben Nvidia veröffentlicht drei KI-Modelle für die Wettervorhersage und Ist KI in Autos ausreichend gegen Angriffe von außen gefeit?
=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===
Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11157001
Weitere Links zu diesem Podast: https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki
Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Transkript anzeigen
00:00:02: Das KI-Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.
00:00:13: Ich bin Isabel Grünewald und dies sind heute unter anderem unsere Themen.
00:00:17: Demokratien müssen sich vor ihrer eigenen KI schützen.
00:00:21: KI-Tool Prism für wissenschaftliches Arbeiten.
00:00:25: Nvidia veröffentlicht drei Modelle für die Wettervorhersage.
00:00:29: und ist KI in Autos ausreichend gegen Angriffe von Außengefeid?
00:00:35: Der Chef des KI-Modellherstellers Anthropic Dario Amodei hat in einem neuen Blog-Post vor den Gefahren mächtiger KI-Systeme gewarnt.
00:00:44: Seine zentrale Forderung, Demokratien sollten KI nur so einsetzen, dass sie nicht zu dem werden, was sie bekämpfen.
00:00:53: Was genau er damit meint, erklärt Kim Scheurenbrand von The Decoder.
00:01:15: drittens personalisierte Propaganda über Jahre hinweg und viertens strategische KI-Berater, eine Art virtueller Bismarck.
00:01:23: Bei zwei dieser Anwendungen zieht er eine absolute Grenze.
00:01:27: Massenüberwachungen im Inland und Massenpropaganda gegen die eigene Bevölkerung seien für Demokratien vollkommen illegitim.
00:01:34: Er räumt ein, dass die Massenüberwachung in den USA durch den vierten Verfassungszusatz bereits illegal sei.
00:01:39: Doch der schnelle Fortschritt der KI könnte Situationen schaffen, für die bestehende rechtliche Rahmenbedingungen nicht ausgelegt sind.
00:01:46: Amodell befürwortet daher neue Gesetzgebungen zum Schutz bürgerlicher Freiheiten und sogar einen Verfassungszusatz.
00:01:52: Nach außen gegen autokratische Gegner hält er dieselben Werkzeuge für Legitimen.
00:01:57: Er befürwortet explizit, dass Demokratien ihre Geheimdienste nutzen sollten, um Autokratien von innen zu und zu schwächen.
00:02:04: Kritiker wie der KI-Forscher Jan Le Kuen werfen an Tropic Four mit zugespitzten Risikoszenarien gezielt Ängste zu schüren.
00:02:12: Das Ziel sei, Regulierungen durchzusetzen, die vor allem offene KI-Modelle benachteiligen und damit Konkurrenz begrenzen.
00:02:19: Gleichzeitig besteht ein Vertrag zwischen der Firma und dem US-Verteidigungsministerium über bis zu Zwarhundert Millionen US-Dollar.
00:02:25: Anthropics-Sprachmodell Claude wird zudem über Partner wie Palantir eingesetzt.
00:02:29: Palantir wird unter anderem von der US-Einwanderungsbehörde Eis genutzt, um Migranten zu verfolgen.
00:02:35: In seinem Versuch, die Demokratie vor autokratischen Gegner zu schützen, könnten Amodeis-Produkte, also ironischerweise dabei
00:02:47: Auch OpenAI-Chef Sam Altman warnt vor einer schleichenden Sicherheitskrise durch zu sorglosen Umgang mit KI-Agenten.
00:02:55: In einer Fragerunde mit Entwicklern sprach er von einer problematischen Mentalität.
00:03:00: Nach dem Motto, wird schon gut gehen.
00:03:02: Altman beobachte selbst bei sich, dass er KI-Agenten trotz anfänglicher Skepsis schnell vollen Zugriff auf seinen Computer gewährt habe.
00:03:11: Das liegt daran, dass die Systeme meistens vernünftig handeln.
00:03:15: Andere Nutzerin geht es sicher ähnlich.
00:03:18: Ordnend befürchtet, dass die Gesellschaft durch diese Bequemlichkeit in eine Krise schlafwandelt, man vertraue komplexen Modellen ohne die nötige Sicherheitsinfrastruktur aufgebaut zu haben.
00:03:29: Mit steigender Fähigkeit der Modelle könnten Sicherheitslücken entstehen oder Probleme über Wochen unbemerkt bleiben.
00:03:36: Eine umfassende Sicherheitsinfrastruktur fehle bislang.
00:03:41: Orton kündigte außerdem an, dass OpenAI das Wachstum der Belegschaft verlangsamen wolle.
00:03:46: Man erwarte, mit weniger Menschen viel mehr erreichen zu können.
00:03:50: Er räumte auch ein, dass GPT-Fünf beim redaktionellen Schreiben einen Rückschritt gegenüber GPT-Für.Fünf sei.
00:03:56: Man habe sich seit dem Aufkommen von Reasoning-Modellen auf Logik und Code fokussiert.
00:04:02: Und dann schauen wir noch auf ein Andel-Breich von Ortmans Unternehmen.
00:04:07: OpenAI for Science ist eine Initiative, mit der sich das Unternehmen an Forscherinnen und Wissenschaftler wenden will.
00:04:13: Nun hat OpenAI unter diesem Dach Prism herausgebracht.
00:04:17: Ein Tool für wissenschaftliches Arbeiten.
00:04:20: Was genau Prism kann, weiß Eva-Maria Weiß von Heise Online.
00:04:24: Wer schon mal eine längere Arbeit womöglich eine wissenschaftliche Arbeit geschrieben hat, der kennt das Problem wahrscheinlich.
00:04:30: Man ändert hier eine Kleinigkeit und zack, das gesamte Dokument ist zerschossen.
00:04:35: Abhilfe kann hier das freie Text-Satzsystem Latech bieten.
00:04:40: Das ist extra darauf ausgelegt, beispielsweise mathematische Formeln abzubilden und eben nicht sofort das Dokument zu zerschießen.
00:04:48: OpenAI hat ein Unternehmen übernommen, die bereits ein Programm angeboten haben, das auf Latech beruht.
00:04:56: Crixit heißt nun aber Prism.
00:04:59: Und
00:04:59: Prism soll wissenschaftliches Arbeiten na klar beschleunigen und effizienter machen.
00:05:05: So wurde das Text-Satzsystem um KI-Funktionen erweitert.
00:05:10: GPT-Fünfpunkt zwei soll beispielsweise die direkte Recherche ermöglichen.
00:05:16: Man kann beim Schreiben dann also quasi auf den Chatbot zugreifen und muss nicht zwischen verschiedenen Anwendungen hin und her wechseln.
00:05:24: OpenAI erwartet, dass dieses Jahr ganz im Zeichen eines Wandels in der Wissenschaft stehen wird, so wie es im vergangenen Jahr ein Wandel in der Softwareentwicklung gegeben habe.
00:05:34: Prism ist kostenlos und kann kollaborativ mit unbegrenzt vielen Menschen genutzt werden.
00:05:40: Es läuft über die Cloud.
00:05:42: OpenAI wird also Zugriff auf die Dokumente haben.
00:05:45: Um Prism nutzen zu können, bedarf es nur eines persönlichen ChatGPT-Kontos.
00:05:50: Vielen Dank Eva.
00:05:52: Die EU-Kommission hat am Montag im EU-Parlament für ihre Gesetzesvorstöße zur Digitalisierung und KI-Regulierung geworben.
00:06:01: Mit mäßigem Erfolg.
00:06:02: Fast alle Fraktionen kritisierten die im Dezember vorgestellten Vorschläge und waren davor, hart umkämpfte Schutzstandards zugunsten von Big Tech-Unternehmen aufzuweichen.
00:06:13: Die Kommission will mit einem digitalen Omnibus-Gesetz die Regeln im Digitalbereich vereinfachen und vier verschiedene Normenkomplexe unter einen Dach bringen.
00:06:24: Auch die in verschiedenen Digitalgesetzen verstreuten Meldepflichten bei Datenverlust sollen zusammengefasst werden, sodass Unternehmen eine zentrale Anlaufstelle dafür bekommen.
00:06:34: Doch das Parlament kritisiert die Pläne als Deregulierungsinitiative.
00:06:39: Birgit Sippel aus der Fraktion der Sozialdemokraten kritisierte die Möglichkeit für KI-Firm sich selbst als High-Risk einzustufen oder eben nicht.
00:06:49: Ihre Parteikollegin und stellvertretende Vorsitzende des Innenausschusses Marina Calliorant stellte das geplante Privileg für KI-Firmen in Frage, dass ihnen die Nutzung sensibler Daten erlaubt.
00:07:00: Axel Foss von der konservativen EVP erkannte zwar an, dass die Kommission die DSGVO und den AI-Akt zusammenführen wolle, ob die Neumischung im Sinne von Rechtssicherheit und Klarheit gelänge, sei bei dem vorgelegten Entwurf jedoch unklar.
00:07:16: Voss mahnte, sich nicht wegen der laufenden Umsetzung des AI-Akts unter Zeitdruck zu setzen.
00:07:22: Die Ausschutzsitzung war die erste zu dem Paket, aber, wie Karl-Johann-Dunterstrich, nicht die letzte.
00:07:29: NWDR hat drei neue KI-Modelle für Wettervorhersagen angekündigt.
00:07:34: Sie sollen schneller und energieeffizienter sein als herkömmliche Supercomputer.
00:07:39: Meinte Kirchen aus dem Heise-Online-Newsroom mit den Einzelheiten.
00:07:42: Nvidia mischt jetzt auch im Wetterbericht mit.
00:07:45: Und zwar mit künstlicher Intelligenz.
00:07:47: Auf einer Konferenz in den USA hat der Chiphersteller gleich drei neue KI-Modelle für Wettervorhersagen vorgestellt.
00:07:53: Und die versprechen einiges.
00:07:55: Das Besondere, die Modelle sollen deutlich schneller und energieeffizienter arbeiten, als die herkömmlichen Supercomputer, die Wetterdienste normalerweise nutzen.
00:08:04: Google DeepMind hatte ja bereits mit seinen KI-Wetter-Modellen für Aufsehen gesorgt.
00:08:08: Jetzt legt Nvidia nach.
00:08:10: Die drei Modelle decken unterschiedliche Bereiche ab.
00:08:12: Earth to Medium Range sagt das Wetter bis zu fünfzehn Tage im Voraus vorher und analysiert dabei über siebzig verschiedene Wettervariablen, also Dinge wie Temperatur, Luftdruck, Wind und Luftfeuchtigkeit.
00:08:24: Laut Nvidia kann es dabei sogar mehr Variablen verarbeiten als Google's Gencast-Modell.
00:08:29: Dann gibt es Earth to Now-Casting für Kurzfristprognosen bis sechs Stunden.
00:08:33: Das nutzt generative KI, um Satelliten und Radar-Daten vorherzusagen.
00:08:38: Nvidia behauptet, es sei das erste KI-Modell, dass traditionelle physikbasierte Systeme bei der Simulation von Sturmdynamiken übertrifft.
00:08:45: Das dritte Modell, Earth to Global Data Assimilation, kann präzise atmosphärische Ausgangsbedingungen in Sekunden berechnen.
00:08:53: Aufgaben für die Supercomputer bisher Stunden brauchten, erledigt es also in Sekunden Bruchteilen.
00:08:58: Zweite Modelle sind online schon verfügbar.
00:09:00: Das dritte folgt später in diesem Jahr.
00:09:02: Aber damit nicht genug.
00:09:04: Nvidia hat auch noch ZIP-Bottle vorgestellt, ein generatives KI-Modell für hoch auflösende Klimasimulationen.
00:09:10: Das wurde auf vier Wochen Klimadaten trainiert und soll tausende Male schneller sein als herkömmliche Simulationen.
00:09:16: Es kann fehlende Klimadaten ergänzen oder verzerrte Modelle korrigieren.
00:09:20: Die Effizienzzahlen klingen fast unglaublich.
00:09:22: Ein Nvidia-Manager berichtet, dass traditionelle Methoden Millionen CPU-Stunden auf Supercomputern brauchen, um eine hoch auflösende Wetterkarte der USA zu erstellen.
00:09:31: Mit Nvidia das Ansatz dauert das nur noch eine Stunde auf einer einzigen GPU.
00:09:36: Und das Core-DIF-Modell soll sogar fünfhundertmal schneller und zehntausendmal energieeffizienter sein als CPU-basierte Systeme.
00:09:43: Die ersten Anwender sind schon am Start.
00:09:45: Taiwan nutzt die Modelle für genaure Typhoonvorhersagen, Energiekonzerne wie Total Energies für kurzfristige Risikobewertungen und Versicherungen wie AXA simulieren damit extreme Wettereignisse für ihre Risikoanalysen.
00:09:58: Auch der US-amerikanischen National Weather Service nutzt die neuen Modelle.
00:10:03: Danke Malte.
00:10:05: Adobe hat unter anderem verbesserte KI-Werkzeuge für Photoshop vorgestellt.
00:10:10: Zu den Funktionen rund um Adobe Firefly zählen, generatives Füllen, generatives Erweitern und das Entfernenwerkzeug.
00:10:18: Nach Angaben von Adobe setzen die Werkzeuge Texteingaben zuverlässiger um und erzeugen saubere Übergänge zwischen bestehenden und berechneten Bildteilen als zuvor.
00:10:28: Beleuchtung und Bildtiefe sollen natürlich erwirken.
00:10:31: Beim Retouchieren verspricht der Hersteller weniger Artefakte und gleichmäßigere Flächen.
00:10:37: Beim generativen Füllen mit Referenzbildern kann Photoshop laut Adobe künftig nicht nur Stil, Farben oder Anmutung übernehmen, sondern auch konkrete Objekte aus einer Vorlage berücksichtigen.
00:10:49: Das Programm erkenne Geometrie und Perspektive und passe eingefügte Inhalte an Größe, Licht, Farbe und Blickwinkel der Zielszene an.
00:10:57: Die überarbeiteten KI-Werkzeuge stehen laut Adobe ab sofort in der Desktop-Version von Photoshop bereit.
00:11:04: Das französische KI-Unternehmen Mistral AI hat Mistral Vibe II.O vorgestellt.
00:11:11: Der terminalbasierte Programmierassistent ermöglicht Entwicklerinnen und Entwicklern Code mit natürlicher Sprache zu steuern, mehrere Dateien gleichzeitig zu bearbeiten und den gesamten Code-Kontext zu nutzen.
00:11:24: Neuen Version II.O sind benutzerdefinierte Unteragenten für spezielle Aufgaben, wie Tests oder Code Reviews.
00:11:31: Außerdem stellt das System bei unklaren Anweisungen Rückfragen, statt automatisch zu entscheiden.
00:11:38: Sogenannte Slash-Befäle bieten vorgefertigter Arbeitsabläufe.
00:11:43: Mistral Vibe ist über den Lichat Pro-Plan verfügbar.
00:11:47: Das zugrunde liegende Modell Desktop II wechselt in einen kostenpflichtigen API-Zugang.
00:11:53: Kostenlose Nutzung bleibt für Tests im Experimentplan möglich.
00:11:58: Das KI-Forschungsinstitut AllenAI hat CERA veröffentlicht.
00:12:03: Das ist eine ganze Familie von Open Source Coding-Agenten.
00:12:06: Die Modelle lassen sich laut den Entwicklern günstig an private Codebasen anpassen.
00:12:12: Das beste Modell namens CERA-XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX.
00:12:24: Sarah nutzt ein vereinfachtes Trainingsverfahren, das keine vollständig korrekten Codebeispiele benötigt.
00:12:30: Das Training kostet laut Allen AI zwischen vierhundert und zwölftausend Dollar.
00:12:36: Damit sei ein Training auf eigenen Code-Daten auch für kleine Teams möglich.
00:12:40: Die Modelle sind mit Cloud Code kompatibel und können laut Allen AI mit zwei Zeilen Code gestartet werden.
00:12:47: Alle Modelle und der Code sind unter der Apache-Zweibung-Null-Lizenz auf Huggingface verfügbar.
00:12:54: Kameras, die automatisch Verkehrsschilder erkennen und etwa die zulässige Höchstgeschwindigkeit anzeigen, gehören inzwischen in vielen neuen Autos zur Standardausstattung.
00:13:05: Noch viel mehr Informationen aus der Umwelt erfassen selbstfahrende Autos, etwa die Robotaxis von Waymo.
00:13:12: Andere Autos, Straßenschilder, Ampeln, Fußgängerinnen und Fußgänger, all das müssen die Autos zuverlässig erkennen.
00:13:18: Eine künstliche Intelligenz verarbeitet die Informationen in Echtzeit.
00:13:22: Doch diese Systeme sind womöglich nicht ausreichend gegen Angriffe von außen gefeit.
00:13:29: Jenny Lippies von der MIT Technology Review erklärt, was Forschende der Universität von Santa Cruz herausgefunden haben.
00:13:36: Die US-Forscher haben sich die sogenannten embodied AI-Systems näher angeschaut.
00:13:42: Damit ist eine verkörperte künstliche Intelligenz gemeint, eben wie autonome Autos, Drohnen oder humanoide Roboter.
00:13:50: Die Forscher wollten testen, wie die Sprachmodelle, die in diesen Sachen stecken, auf visuelle Prompt-Injections reagieren.
00:13:58: Das können zum Beispiel auf einem Schild aufgeschriebene Befehle sein, wie links abbiegen oder hier landen.
00:14:05: Befehle also, die sich in der physischen Welt aufstellen oder irgendwie anbringen lassen.
00:14:10: Für ihren Test haben die Forscher dann drei Szenarien entworfen.
00:14:14: Eines war, eine Polizeidrohne anzuweisen, ein anderes Ziel zu verfolgen, als das ursprünglich gedachte.
00:14:21: Sie verwendeten dann ein eigenes System, CHI genannt, das hatten sie selbst mit einem Sprachmodell trainiert, um so die vielversprechendsten Anweisungen zu bekommen.
00:14:31: Auch wie groß sie sein und welche Farbe sie haben sollten.
00:14:35: Somit wollten sie sicherstellen, dass die Prompts, die andere KI's in die Irre führen sollen, auch wirklich das taten.
00:14:42: Überprüft haben sie das Ganze dann in einer Simulation.
00:14:46: Das Ergebnis, etwa für die zu manipulierende Polizeidrone, zeigte, dass es tatsächlich in ninety-fünf Prozent der Fälle gelang, dass ein anderes Objekt verfolgt wurde.
00:14:57: Wenn man bedenkt, dass in den nächsten Jahren immer mehr autonome Autos unterwegs sein werden und auch humanoide Roboter immer weiter Verbreitung finden, Dann ist diese Art der visuellen Prompt Injection womöglich ein größeres Sicherheitsproblem, als man bisher geglaubt hat.
00:15:14: Danke schön, Jenny.
00:15:16: Die deutsche Synchronsprecherin Vivian Farber hat auf der Social Media Plattform Threads einen Beitrag veröffentlicht, wonach sich deutsche Synchronsprecherin seit Anfang Januar weigern, für Netflix zu arbeiten.
00:15:30: Auslöser des Streits soll eine neue KI-Trainingsklausel für kommende Projekte des Videostreamingdienstes sein.
00:15:37: Konkret dreht es sich dabei um Eigenproduktionen und Exklusivtitel, bei denen die Synchronisation in der Hand von Netflix liegt.
00:15:45: Die umstrittene Klausel beinhaltet unter anderem eine rechte Abtretung, nach der der Dienst künftige Synchronaufnahmen für KI-Trainingzwecke nutzen dürfte.
00:15:54: Eine Vergütung dafür, aber nicht regelt.
00:15:57: Auf Nachfrage teilte der Verband Deutscher SprecherInnen heise online mit, dass man Netflix mehrfach signalisiert habe, für Verhandlungen bereitzustehen, um eine Lösung zu finden.
00:16:07: Diese Kontaktaufnahmen seien bislang vom Dienst aber ignoriert worden.
00:16:11: Laut Farber habe dies nun zur Folge, dass demnächst Filme und Serien auf Netflix ohne deutsche Synchronisation erscheinen könnten.
00:16:21: Das war das KI-Update von Heise Online vom achtschundzwanzigsten Januar zwanzig sechsundzwanzig.
00:16:26: Eine neue Folge gibt es immer Montags, Mittwochs und Freitags um fünfzehn Uhr.
Neuer Kommentar