KI-Update kompakt: AI Impact Summit, Security Dashboard, Ring-Kameras, KI-Bremse

Shownotes

Das ist das KI-Update vom 20.02.2026 unter anderem mit diesen Themen:

KI-Abkommen und Rufe nach Regulierung bei KI-Gipfel in Indien Microsoft startet Vorschau auf Security Dashboard for AI Ring-Kameras sollten nie nur Hunde finden und KI-Notbremse für autonome Autos aus Magdeburg

=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===

Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11183834

Weitere Links zu diesem Podast: https://www.heiseplus.de/audio https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.ct.de/ki

Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.

Transkript anzeigen

00:00:02: Das KI-Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.

00:00:13: Ich bin Isabel Grünewald und dies sind heute unter anderem unsere Themen.

00:00:18: KI Abkommen und rufe nach Regulierung bei KI.

00:00:21: Gipfel in Indien.

00:00:22: Microsoft startet Vorschau auf Security Dashboard for AI Ringkameras sollten nie nur Hunde finden Und KI Notbremse für autonome Autos aus Magdeburg.

00:00:36: Deutschland vertieft nach einem Abkommen mit Kanada nun auch die technologische Zusammenarbeit mit der IT-Großmacht Indien.

00:00:45: Beim AI Impact Summit in Neudeli unterzeichnete Bundesdigitalminister Karsten Wildberger gemeinsam mit seinem indischen Amtskollegen den neuen KI packt.

00:00:55: Im Kern des neuen Abkommens steht die industrielle Anwendung – Die Vision der beiden Minister sieht vor, dass indische IT-Expertise unmittelbar auf den deutschen Mittelstand und die hiesige Industrie vier Punkt Null trifft.

00:01:09: Dabei stehen konkrete Einsatzszenarien in der Mobilität, der Energieversorgung, dem Gesundheitswesen und der smarten Produktion im Fokus.

00:01:17: Ein weiterer Pfeiler des Pakts ist die Gestaltung ethischer Leitplanken – beide Nationen betonen ihre Absicht eine vertrauenswürdige KI zu entwickeln, die im Einklang mit demokratischen Werten steht!

00:01:30: Bei dem Gipfel in Indien waren natürlich auch Sam Ordman von OpenAI und Dario Amodei von Anthropic sowie viele andere Köpfe vom großen Unternehmen da.

00:01:40: Ordman nutzte die Gelegenheit, um vor KI und einer Superintelligenz zu warnen – erforderte Regulation!

00:01:48: Mehr dazu weiß Eva Maria Weiß von Heise Online.

00:01:51: Eine mögliche Superintelligenz könne in den Händen von Diktatoren eine Menge Unheil anrichten.

00:01:58: Das sagt Sam Ordman und erwarnt auch vor dem Missbrauch von KI, um Biowaffen herzustellen oder neue Krankheitserreger.

00:02:08: Und vor einer neuen Art von Krieg die entstehen könnte.

00:02:12: Dabei sagt Oldman auch, schon in zwei Jahren könne es so weit sein dass wir eine Superintelligenz haben.

00:02:19: Was nun viele wundert, Oldman fordert auch das wir KI regulieren und dass eine weltweite Aufsichtsbehörde geschaffen wird nach dem Vorbild der Atomenergiebehörden.

00:02:30: Sicherlich ist an dieser Warnung zum Teil etwas dran und wahrscheinlich ist es auch eine ziemlich gute Idee, wenn sich die Welt auf gewisse Regulierung einigen würde.

00:02:40: Es ist aber auch klar das Altmann keine Regulierungen im Sinne hat wie wir uns das vielleicht jetzt erst mal vorstellen.

00:02:48: Er und auch andere Mitarbeiter von OpenAI haben schon mehrfach gesagt dass sie neue Modelle immer erstmal an den Menschen bringen und Sicherheit quasi nachgelagert.

00:02:58: Das Thema Sicherheit soll ja auch der Grund für einige Zerwürfnisse im Unternehmen schon gewesen sein.

00:03:04: Die geforderte Regulierung betrifft also wahrscheinlich eher die Frage, wer KI überhaupt entwickeln darf und betreiben darf?

00:03:13: Und das würde zum Vorbild der Atomenergiebehörde passen!

00:03:16: Klar, OpenAI will wohl alles dürfen.

00:03:19: Und dann kommt hinzu dass diese wiederholten Warnungen von Altman natürlich auch Marketing sind.

00:03:26: Denn wenn man vor seiner eigenen Technologie warnt macht es diese natürlich auch gefährlicher und damit leistungsfähiger.

00:03:33: Ob wir zwanzig-achtundzwanzig bereits eine Superintelligenz haben ist völlig unklar!

00:03:39: Es gibt zahlreiche Experten, die das ganz anders sehen und viele meinen sogar dass mit großen Sprachmodellen sowieso gar keine Superintelligenz erreicht werden können.

00:03:49: Danke Eva!

00:03:51: Microsoft hat auf dem Gipfel in Neudeli angekündigt bis zum Ende dieses Jahrzehnts fünfzig Milliarden US-Dollar in den Ausbau der Infrastruktur für KI zu investieren.

00:04:02: Das Geld soll speziell in Länder des globalen Südens fließen.

00:04:06: Microsofts Präsident Brad Smith und seine Chief Responsible AI-Officer Natasha Crampton erklärten in einem Blogeintrag, sie seien besorgt über die wachsende Kluft im Bereich KI zwischen sogenannten Industrie-und Entwicklungsländern.

00:04:22: Künstliche Intelligenz verbreitet sich mit beeindruckender Geschwindigkeit doch ihre Akzeptanz ist weltweit nach wie vor sehr ungleichmäßig, schreiben Sie!

00:04:31: Wir müssen dringend handeln um die wachsenen KI-Kluft zu

00:04:34: überwinden.".

00:04:36: Das fünfteilige Programm konzentriert sich auf den Aufbau einer KI-Infrastruktur, der Ausweitung von Qualifizierungen, der Stärkung mehrsprachiger und multikultureller Fähigkeiten, der Förderung lokaler Innovationen und der Messung der Verbreitung von KI als Grundlage für künftige KI-Strategien und Investition.

00:04:57: Passend zu den Themen des AI Impact Summit hat Microsoft auch den öffentlichen Test des Security Dashboard for AI gestartet.

00:05:06: Das Tool soll Unternehmen dabei helfen, die Sicherheitsrisiken beim Einsatz von künstlicher Intelligenz an zentraler Stelle zu überwachen und zu verwalten", erklärt Dirk Knob von Heises Security.

00:05:35: Es bietet eine Echtzeitübersicht über alle genutzten KI-Ressourcen, von Microsoft RANAT-Pfirm-Sechzig Co.

00:05:41: Pilot, über eigene Entwicklung bis hin zu Drittanbietern wie OpenAI oder Google Gemini.

00:05:48: Der Übersichtstab des Dashboards liefert eine Wertungsübersichts mit Karten die sofort ersichtlich machen wo Risiken liegen können die die IT sich als Teams angehen müssen fast zudem die Implementierung der Security vor AI Möglichkeiten von Microsoft in der Organisation und liefert Empfehlungen zur Verbesserung der KI-Sicherheit.

00:06:07: Für Kunden, die bereits entsprechende Microsoft Sicherheitslösungen nutzen, fallen keine zusätzlichen Lizenzgebühren an.

00:06:14: Das Dashboard ist direkt über das Microsoft Security Portal erreichbar und soll die Lücke zwischen KI Nutzung und IT Sicherheit schließen.

00:06:21: Vielen Dank, Dirk!

00:06:24: Google hat Gemini drei Punkt eins pro vorgestellt, ein Upgrade seiner Modellfamilie.

00:06:29: Das Modell soll primär beim logischen Schlussfolgern und beim Programmieren besser werden.

00:06:34: In verschiedenen Benchmarks liegt es nach Goalsangaben vor OpenAIs GPT-Fünf Punkt zwei und meist auch vor Anthropics Cloud Opus vier Punkt sechs – aber eben nicht in einen Benchmark.

00:06:47: Allerdings zeigt sich in der Praxis ein bekanntes Problem!

00:06:50: Googles Modelle setzen Werkzeuge oft nicht so effizient ein wie die Konkurrenz von OpenAI oder Anthropic.

00:06:58: Das neue Modell ist ab sofort als Vorschau verfügbar unter anderem über die Gemini-App, Google AI Studio und die Geminai API.

00:07:06: Die API Preise entsprechen denen von Gemini III Pro und liegen deutlich unter den von Anthropics Opus-Modellen.

00:07:14: Google will auf Basis von Nutzerfeedback weitere Verbesserungen vornehmen, bevor eine allgemeine Verfügbarkeit folgt.

00:07:22: Google's Chatbot Gemini erlaubt Nutzerinnen und Nutzern ab sofort auch die Erstellung von Musik per generativer künstlicher Intelligenz.

00:07:31: Die dreißig Sekunden langen Tracks werden mit einem unhörbaren Wasserzeichen versehen um sie als KI-Genere zu kennzeichnen.

00:07:38: Für die Produktion der KI-Musik nutzt Google DeepMinds neues generatives Musikmodell Lyria in der dritten Version.

00:07:46: Der Mensch muss dabei nur eine Musikrichtung vorgeben, Angaben zu Gesangen, Stimmlage oder Tempo sind optional, schreibt Google.

00:07:54: Auch Bilder und Videos können zur Inspiration der KI hochgeladen werden.

00:07:58: Lyria III komponiert dann die Lieder komplett selbst – und passend zum Musikstück erstellt Gemini automatisch auch eine Grafik als Coverart!

00:08:07: Diese wird vom integrierten KI-Bildgenerator Nano Banana produziert.

00:08:12: Google betont, dass die Generierung von KI Musik keine Urheberrechte verletzt und keine Künstler nachahmen soll – bestehende Musikstücke würden lediglich als Inspiration verwendet.

00:08:24: Laut Anthropic ist die neueste Version von Claude Sonnet die bisher leistungsfähigste Version!

00:08:30: Das gilt für die Fähigkeiten beim Coding, beim Computer-Use, beim Reasoning bei agentischen Aufgaben und der Wissensarbeit sowie im Design.

00:08:38: Neu ist das Kontextfenster von einer Million Token.

00:08:42: Dabei ist Sonnet nach wie vor nur das mittlere Modell der Cloudmodellfamilie.

00:08:47: Haiku ist besonders schnell und kosteneffizient – Opus ist das leistungsstärkste Modell für komplexe Aufgaben!

00:08:54: Den von Anthropic veröffentlichten Benchmarks zufolge liegt Sonnet, nun allerdings zwischen Opus-IV und OPUS-IV.

00:09:04: Im Blogbeitrag hebt Anthropic besonders Cloud Sonnets Computer Use hervor – gemeint ist die Bedienung von regulärer Software fast so wie ein Mensch sie nutzt.

00:09:14: Computer use ist allerdings auch besonders anfällig für Angriffe wie Prompt Injections.

00:09:18: Dazu zählen etwa versteckte Anweisungen auf Webseiten!

00:09:22: Die neue Version von Sonnet soll dagegen deutlich besser gewappnet sein als der Vorgänger.

00:09:27: Angriffe sollen erkannt und möglichst umgangen werden.

00:09:31: Gelöst ist das Problem damit aber nicht.

00:09:34: Klaude Sonnet, vier Punkt sechs wurde zunächst als Beta veröffentlicht.

00:09:38: für Menschen die den kostenlosen Chatboard von Anthropic nutzen wird es das Standardmodell.

00:09:44: KI gestürzt sollen Türkameras der Amazon-Tochter Ring in der Nachbarschaft nachverlorenden Hunden suchen?

00:09:51: Eine interne E-Mail scheint nun zu bestätigen, dass das nur der Anfang ist.

00:10:14: hochladen und dann in ihrer Nachbarschaft alle diese Tür klingeln quasi dazu auffordern nach diesem Hund Ausschau zu halten.

00:10:22: Und das funktioniert mit KI-Unterstützung, dass der also quasi jede Kamera die da in der Nähe ist wenn sie diesen Hund sieht quasi Alarm schlägt.

00:10:31: Da wurde damals schon drauf hingewiesen.

00:10:32: Also viele haben das als dystopisch bezeichnet und darauf hingewesen, dass es ja wohl nicht nur bei Hunden bleiben wird auch wenn Ersteller mal behauptet hat und jetzt ist tatsächlich eine interne E-Mail aufgetaucht, die schon im Oktober abgesendet wurde.

00:10:46: Wo der Chef der Firma auch ziemlich explizit schon geschrieben hat dass die Suche nach unten nur der Anfang ist das das Ziel sei die Kriminalität in der Nachbarschaft auf null zu reduzieren was eben darauf hindeutet dass man da auch dann bald nach Menschen wird suchen können sollen Und das ist natürlich genau das was Ring vorgeworfen wurde Vorbereitung für eine Massenüberwachung bereitet wird, die mit Technik von normalen Konsumenten ausgeführt wird.

00:11:15: Und in dieser E-Mail heißt es eben nun, dass die Hunde nur der Anfang sind und das ist eben um die Reduzierung von Kriminalität geht.

00:11:23: Die Firma hat die Echtheit der E-mail auch schon bestätigt und hat aber darauf verwiesen, dass diese Funktion und diese KI Unterstützung ja ganz viel praktische Anwendungsfälle vorsieht.

00:11:36: also Da wird noch mal auf die verlorenen Haustiere verwiesen.

00:11:39: Es wird auch gesagt, dass man ja doch Bescheid bekommen soll wenn es in der Nachbarschaft ein Feuer gibt zum Beispiel.

00:11:45: aber von Kriminalität ist da nicht die Rede was ja nicht ganz zu dieser E-Mail passt.

00:11:50: jetzt muss man abwarten was daraus noch wird und was da weiter passiert.

00:11:55: Aber das Aufsehen hat sich auf jeden Fall noch nicht gelegt.

00:11:58: Danke schön Martin.

00:12:00: Aus Angst vor einem Vertrauensverlust der Nutzerinnen und Nutzer verzichtet das KI-Star der Perplexity auf Werbung, während Konkurrenten wie OpenAI mit seinem KI-Chatbot ChatGPT den umgekehrten Weg einschlagen – und Werbung testen.

00:12:15: Das berichtete die Tageszeitung Financial Times.

00:12:17: Perplexety war eines der ersten Unternehmen auf dem Gebiet der generativen KI, dass im Jahr ist es schon in den letzten Jahren mehr als zwei Tausende Werbungen eingeführt und testweise gesponserte Antworten unter den Antworten seines Chatbots anzeigte.

00:12:30: Eine Führungskraft des Unternehmens erklärte nun allerdings der Financial Times.

00:12:34: Die Herausforderungen bei Anzeigen bestehe darin, dass ein Nutzer anfängt die Antworten der KI anzuzweifeln – deshalb halten wir es derzeit nicht für sinnvoll uns darauf zu konzentrieren!

00:12:46: Man arbeitet in erster Linie daran, die Wichtigkeit der Antworten das hauseigene Chatwort sicherzustellen.

00:12:52: Perplexity erzählt den Großteil seiner Einnahmen aus kostenpflichtigen Abonnements.

00:12:57: Diese bewegen sich zwischen zwanzig und zweihundert US-Dollar.

00:13:00: Das Vertrauen in den Service ist also überlebenswichtig!

00:13:05: Der britische KI-Forscher David Silver hat laut der Financial Times rund eine Milliarde Dollar für sein neues Startup Ineffable Intelligence eingesammelt, die von Sequoia Capital angeführte Finanzierungsrunde würde das Londoner Unternehmen mit etwa vier Milliarden Dollar bewerten.

00:13:23: Damit wäre es die größte Seedrunde, die ein europäisches Startup jemals abgeschlossen hat.

00:13:29: Silver verließ Google DeepMind Ende vergangenen Jahres – der forty-jährige arbeitete dort maßgeblich an AlphaGo und der Entwicklung von Google Gemini Sprachmodellfamilie mit.

00:13:40: Ineffable Intelligence will er auf Reinforcement Learning aufbauen.

00:13:45: Bei diesem Ansatz lernen KI-Systeme durch zahlreiche Versuche selbst nicht primär durch große Textmengen aus dem Internet!

00:13:53: Zentrale sind sogenannte Weltmodelle, mit denen KI-Agenten die Folgen ihrer Handlungen vorhersagen können.

00:14:00: Silver reiht sich damit in eine wachsende Zahl führender KI-Forscherinnen und Forscher ein, die nicht glauben, dass die aktuelle Transformerarchitektur allein zu Superintelligenz führt.

00:14:11: Der Beratungskonzern Accenture erfasst seit diesem Monat wöchentlich die KI-Toollog ins einzelne Senior Mitarbeiterin und Mitarbeiter.

00:14:21: Die Nutzung wird zum Beförderungskriterium.

00:14:24: Das geht aus einer internen Mail hervor.

00:14:26: Accenture beschäftigt weltweit fast achthunderttausend Mitarbeitende – in zwölf europäischen Ländern sind diese allerdings von der neuen Regelung ausgenommen!

00:14:36: Es regt sich intern aber anscheinend generell Widerstand gegen die neue Anforderungen….

00:14:40: Zwei mit der Änderung vertraute Person bezeichneten einige der Tools als kaputte Slop-Generatoren.

00:14:45: Drei Führungskräfte der Big Four Beratungsfirmen bestätigen, dass es schwieriger ist, Seniormanagerinnen und Manager zur KI-Nutzung zu bewegen als Nachwuchskräftee.

00:14:55: Accenture-Chefin Julie Sweet hat angekündigt – Mitarbeitende die sich nicht anpassen können würden das Unternehmen verlassen müssen!

00:15:03: Der Aktienkurs von Accentur ist in zwölf Monaten um ca.

00:15:10: Wenn die Sensorik autonomer Fahrzeuge gestört wird, können deren KI-Systeme Fehlentscheidungen treffen.

00:15:17: Ein Forschungsteam aus Magdeburg will dafür eine Lösung gefunden haben – mein Kollege Robin Ahrens von der CT hat sie sich

00:15:24: angeschaut.

00:15:25: Damit Autos autonom fahren können braucht es komplexe Sensorikaetwa Lidersysteme und Kameras.

00:15:31: Die erheben Daten, die im Anschluss meist von einem KI System ausgewertet werden.

00:15:36: Auf der Datengrundlage aufbohnt, trifft die KI dann Entscheidung für die Weiterfahrt.

00:15:41: Werden die Sensoren eines autonomen Fahrzeugs nun durch schlechtes Wetter oder eingeschränkte Sichtverhältnisse gestört liefern sie keine zuverlässigen Daten mehr.

00:15:49: Dadurch können die KI-Systeme gefährliche Fehlentscheidungen treffen.

00:15:53: Wissenschaftlerinnen in der Otto von Gerike Universität Magdeburg haben nun ein KI-gestütztes Verfahren vorgestellt das eine unsichere Datenlage der Sensorik erkennt und im selbstfahrenden Fahrzeug im Zweifelsfall kräftig auf die Bremse drückt.

00:16:07: Die Methode kombiniert dabei maschinelles Sehen mit maschineller Selbsteinschätzung, die KI analysiert also nicht nur was sie wahrnimmt sondern auch wie zuverlässig die Daten sind.

00:16:18: Singt die Qualität der Sensordaten unter einen gewissen Schwellenwert reagiert das System dann automatisch.

00:16:25: Laut dem Leiter des AulaKI-Projekts soll das ziemlich zuver lässig funktionieren.

00:16:30: Die Wissenschaftlerinnen haben ihr Konzept nämlich bereits ins Software gegossen und an einem autonomen Schattel getestet, natürlich auf einem dafür vorgesehenen Testgelände der Uni.

00:16:40: In den Tests wurden die Sensoren des Schattels dann durch Nebel-, Regen-, Schneefall- oder auch Vegetation gestört – und diese Beeinträchtigung hat das entwickelte KI-System verlässlich erkannt!

00:16:52: War das Testgeländer nur gering vernebelt, verregnet oder verschneit korrigierte das System die gestörten Sensordaten sogar?

00:16:59: Bei starkem Regen- oder Schneefall klappte das nicht mehr.

00:17:03: Dann war das Ziel, das autonomisch hattelkontrolliert anzuhalten – auch das gelang dem Projekt leider zufolge zuverlässig!

00:17:10: Im Zweifel sei der System eher zu vorsichtig als zu riskant gewesen.

00:17:15: Ob und wann die Technologie in Serienfahrzeugen eingesetzt werden könnte ist derzeit offen.

00:17:20: Der Transfer in konkrete Anwendung ist aber ausdrückliches Ziel Auch wenn die Universität Magdeburg hier bislang keine konkreten Pläne oder Produkte nennt.

00:17:29: Vielen Dank, Robin!

00:17:31: Die Frankfurt University of Applied Sciences hat ein Open-Source Handbuch zum Bau von KI Drohnen veröffentlicht.

00:17:38: Es vermittelt Praxisnahe die technischen Grundlagen für Entwicklung und Einsatz KI gestützter Drohn.

00:17:45: Das Handbuch behandelt Objekterkennung, autonome Navigationen und automatisches Folgen von Zielen.

00:17:51: Es erklärt, wie geeignete Sensorik-, Recheneinheiten und Software kombiniert werden um Drohnen intelligent agieren zu lassen.

00:17:59: Dabei werden auch Kosten- und Wirtschaftlichkeit berücksichtigt.

00:18:02: Die Bauanleitungen basieren auf Erfahrungen aus Forschung und Lehre – insbesondere aus dem Projekt KI-gestützte Drohnplattformen!

00:18:11: Die Anleitungszielen darauf ab robuste anpassbare Systeme für die Tier- und Objekterkennung oder das Umweltmonitoring, oder Inspektions- und Logistikaufgaben zu ermöglichen.

00:18:23: Das Handbuch steht auf GitHub in Deutsch und Englisch bereit – es soll ständig von Studierenden und Forschen der Fachhochschule weiterentwickelt werden um aktuell zu bleiben!

00:18:33: Love Scamming nimmt laut LKA ein Stuttgart seit Jahren deutlich zu Begünstigt durch den Einsatz von künstlicher Intelligenz.

00:18:42: Betrüger erstellen massenhaft Fake-Profile in sozialen Netzwerken und geben sich als attraktive, erfolgreiche Singles aus.

00:18:49: KI-Tools ermöglichen es ihnen täuschend echte Profilbilder zu generieren und Personen in beliebige Szenen zu montieren.

00:18:56: Auch die Kommunikation wird professionalisiert – mit Sprachmodellen lassen Sie auf Knopfdruck unendlich viele überzeugende Liebesnachrichten erstellen, moderne Übersetzungsprogramme sorgen dafür dass die Täter da zu fehlerfrei in verschiedenen Sprachen schreiben können!

00:19:10: So wirken die Dialoge authentisch und individuell.

00:19:14: Diese technischen Möglichkeiten senken den Aufwand, und erhöhen die Schlagzahl der Angriffe erheblich.

00:19:20: International operierende Netzwerke nutzen KI um ihre Betrugsmasche effizienter und schwerer erkennbar zu

00:19:27: machen.".

00:19:29: Das war das KI-Update von Heise Online vom zwanzigsten Februar, ein neuer Folge gibt es immer montags, mittwochs und freitags um fünfzehn Uhr.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.