KI-Update kompakt: Rückendeckung für Anthropic, Firefox, Urheberrecht, Netflix
Shownotes
Das ist das KI-Update vom 09.03.2026 unter anderem mit diesen Themen:
Amazon, Google und Microsoft stärken Anthropic den Rücken Claude findet in zwei Wochen über 100 Firefox-Bugs EU-Abgeordnete wollen schnellere Regelung zu KI und Urheberrechten und Netflix holt KI-Filmtechnik von Ben Affleck ins Haus
=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===
Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11203988
Weitere Links zu diesem Podast: https://www.heiseplus.de/audio https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.ct.de/ki
Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Transkript anzeigen
00:00:02: Das KI-Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.
00:00:13: Ich bin Isabel Grünewald und die sind heute unter anderem unsere Themen – Amazon, Google und Microsoft stärken an Thropik den Rücken.
00:00:21: Claude findet in zwei Wochen über eineinhundert Firefox-Bugs!
00:00:26: EU-Abgeordnete wollen schnellere Regelungen zu KI und Urheber rechten und Netflix holt KI Filmtechnik von Ben Affleck ins Haus.
00:00:36: Nachdem Produkte von Anthropic für Anwendungen im Feld von nationaler Sicherheit und Militär durch das Pentagon als Sicherheitsrisiko eingestuft wurden, stärken nun Amazon, Google und Microsoft dem KI-Startup den Rücken.
00:00:49: Die Unternehmen betonen unabhängig voneinander – ihre Kunden könnten die Tools von Anthropic weiterhin verwenden!
00:00:56: Martin Holland aus dem Heise online Newsroom berichtet.
00:01:04: Vorerst entschieden, aber was das alles für Konsequenzen hat ist noch nicht so ganz klar.
00:01:09: Auf jeden Fall haben am Wochenende schon die ersten große Unternehmen und zwar Amazon Google und Microsoft Anthropic den Rücken gestärkt und gesagt dass man über ihre Werkzeuge weiterhin auf die KI-Modelle von Anthropic wird zugreifen können, dass es keine Auswirkung hat und gleich zeigt darauf hingewiesen, dass bislang dieses Sicherheitsrisiko eben speziell nur fürs Verteidigungsministerium gilt.
00:01:33: ob sich dass damit zufrieden geben wird, weil das sollte ja eine heftige Togen sein und ein Topik auch zum Einlenken zwingend.
00:01:41: Das muss ich erst noch zeigen.
00:01:43: Profitiert hatte er von diesem Streit letztlich OpenAI.
00:01:47: Das hat den Zuschlag bekommen, dass die OpenAIs KI also Chatchi PT vor allem vom US-Militär jetzt verwendet werden soll.
00:01:56: Und da war eben bislang vor allem die Frage Was genau OpenAI-Verzugeständnisse gemacht hat.
00:02:01: Ein Topic hat ja immer gesagt, wir können das haben außer was ihr nur nicht machen dürft ist eine Massenüberwachung der USA oder Menschen in den USA damit zu realisieren und Waffen mit KI Technik auszurüsten die quasi über Leben und Tod entscheidet ohne dass ein Mensch darüber entscheiden kann.
00:02:19: und OpenAI Hogen scheinlich diesen roten Linien, also nicht so festgeschrieben auch wenn es den OpenAI selbst dem widerspricht.
00:02:26: Aber zumindest ist ja die Frage warum man dann hätte wechseln müssen.
00:02:29: auf jeden Fall sieht man das auch bei OpenAI sehen dass nicht alle so dass sich das Unternehmen da gut aus der Affäre gezogen hat und zwar is am Wochenende die Robotikchefin von OpenAI Katelyn Kalinovsky aus dem Unternehm ausgeschieden oder das speziell mit diesem oder explizit mit dieser mit diesem Streit und dem Vorgehen von OpenAI-Bekründung gesagt, dass zu wenig an diese Sicherheitsbedenken gedacht worden sei.
00:02:57: Die Frau ist natürlich keine Unbekannte, die hat vorher bei Meta gearbeitet in der Hardwareentwicklung und war erst Ende im Jahr zum OpenAI gewechselt und hat sich öffentlich gegen das Management ihres Unternehmens gestellt und deswegen ihren Austritt erklärt.
00:03:15: Wie das jetzt weitergeht, muss ich aber noch zeigen.
00:03:17: Das sind bestimmt doch nicht die letzten Konsequenzen dieses
00:03:20: Streits.".
00:03:21: Vielen Dank Martin!
00:03:23: Anthropik macht derweil Schlagzeilen damit, dass Claude in zwei Wochen mehr Schwachstellen im Browser Firefox gefunden hat als die Community in zwei Monaten.
00:03:34: Dies bestätigt ihr jetzt für Firefox zuständige Mozilla Foundation.
00:03:38: Malte Kirchner mit den Einzelheiten
00:03:40: Das Ergebnis eines internen Tests, den Anthropic gemeinsam mit der Mozilla Foundation vorgenommen hat zeigt einmal mehr wozu künstliche Intelligenz in der Lage ist.
00:03:50: Das KI-Modell Claude Opus IV.X fand mehr Sicherheitslücken im Browser Firefox als die gesamte Community im doppelten Zeitraum.
00:03:58: Dass die KI aber so schnell Softwarefehler aufspüren kann, alarmiert Experten.
00:04:02: In dem Versuch braucht das Modell gerade mal zwanzig Minuten für den ersten Bug – nach zwei Wochen waren es insgesamt über einhundert Fehler!
00:04:10: davon vierzehn mit hohem Schweregrad.
00:04:12: Zum Vergleich, Mozilla hat im gesamten vergangenen Jahr dreiundsiebzig Bugs gepatched die als hochkritisch oder kritisch eingestuft wurden.
00:04:20: Dabei ist der Kontext entscheidend.
00:04:22: Firefox gilt als einer der meist geprüften Browser der Welt.
00:04:25: ein Programm zur Fehlerprämierung läuft seit über zwanzig Jahren.
00:04:29: Die KI hat also keine leichte Aufgabe bekommen.
00:04:32: sie hat sich trotzdem durchgebissen.
00:04:34: Die gute Nachricht ist, beim Ausnutzen der gefundenen Lücken war die KI deutlich schwächer als beim Aufspüren.
00:04:40: Funktionierende Exploits also Angriffswerkzeuge konnte das Modell nur in zwei Fällen schreiben und auch diese hätte nun an einer Testversion von Firefox funktioniert.
00:04:49: In der Praxis wären sie durch die Sicherheitsmechanismen des Browsers gestoppt worden.
00:04:54: Dennoch warnen Experten, Sicherheitsforscher sprechen von einem Wettrüsten.
00:04:58: KI hilft nicht nur Verteidigern sondern auch Angreifern Schwachstellen schneller zu finden und auszunutzen.
00:05:03: Ein weiteres Problem zeigt sich bei Open Source Projekte.
00:05:06: Viele Entwickler werden mit automatisierten Fehlerberichten überschwemmt oft auf Basis von KI-Haluzinationen also schlicht erfundenen Problemen.
00:05:14: Beim Firefox Test wurden in dessen nur reproduzierbare also tatsächlich nachweisbare Bugs weitergegeben.
00:05:20: Die Botschaft ist klar, KI wird zu einem mächtigen Werkzeug in der Sicherheitsforschung mit großem Potenzial aber auch echten Risiken.
00:05:27: Wer die Technologie zuerst beherrscht hat einen entscheidenden
00:05:30: Vorteil.".
00:05:31: Danke Malte!
00:05:33: Sowohl in Großbritannien als auch in den USA gibt es Untersuchungen ob Metta mit der Weitergabe von Videos aus smarten Brillen gegen Verbraucherschutzgesetze verstoßen.
00:05:44: Das schwedische Dagebladet hatte mit Clickworkern in Kenya gesprochen, die von intimen Aufnahmen berichteten, die sie zu sehen bekommen.
00:05:52: Solche Datenanotatoren sortieren und beschriften Inhalte so dass diese für das Training von KI-Modellen nutzbar sind.
00:05:59: Meta beruft sich dafür auf seine Nutzungsbedingungen, in denen steht, daß Aufnahmen weiter gereicht werden können!
00:06:06: Die britische Datenschutzbehörde kritisiert jedoch, dass Metta damit wirbt – die smarten Brillen würden Nutzen denn die Kontrolle über ihre Daten geben?
00:06:14: Das sei offenbar nicht der Fall.
00:06:16: Es mangelt an Transparenz.
00:06:18: Anbieter müssten klar kommunizieren, welche Daten gesammelt und wie ausgewertet werden.
00:06:24: In den USA haben Vertreter einer bürger rechtsorientierten Anwaltskanzlei eine Klage eingereicht – sie werfen Meta vor Datenschutzrichtlinien gebrochen und falsche Werbeversprechen gemacht zu haben.
00:06:35: Die Vorwürfe richten sich auch gegen den Hersteller der Ray-Ban und Oakley-Brillen Essilor Luxotica.
00:06:41: Metta braucht Videos der KI-Brille, denn hochwertige Textdaten für das Training von KI-Modellen werden knapp.
00:06:48: Ein Forschungsteam von Metta und der New York University hat deshalb untersucht wie sich multimodale Modelle vom Grund auf trainieren lassen.
00:06:57: Die Forscher argumentieren, dass reiner Text eine verlustbehaftete Komprimierung der Realität sei – Sprachmodelle hätten gelernt Dinge zu beschreiben ohne sie je gesehen zu haben!
00:07:08: Darum nutzte das Team riesige Mengen ungelabelter Videos als große Trainingsquelle.
00:07:14: Das sind also Videos ohne Beschriftungen oder Annotation!
00:07:18: Ihr Modell lernt von Null auf gleichzeitig mit Text, Bildern und Videos.
00:07:22: Eine verbreitete Annahme lautet dass visuelle und sprachliche Fähigkeiten dabei miteinander konkurrieren – die Studie widerlegt das nun.
00:07:30: Reines Video ohne Text-Annotation verschlechtert die Sprachfähigkeit nicht.
00:07:35: Auf einem Testdatensatz übertraft das kombinierte Modell sogar die reine Textvariante leicht.
00:07:41: Außerdem zeigen die Forschen, dass ein einziger visueller Encoder für das Verstehen und die Generierung von Bildern ausreicht – bisherige Ansätze nutzten dafür zwei Getrennte-Komponenten!
00:07:54: Auch das Urheberrecht stellt ein ungelöstes Problem für das Training von KI-Modellen dar.
00:08:00: Während die Frage derzeit in ganz Europa Gerichte beschäftigt, schaffen die Anbieter längst technologische Fakten.
00:08:06: Die EU-Kommission will in diesem Jahr prüfen, welcher Handlungsbedarf besteht und dann gegebenenfalls Reformvorschläge in den langen EU-Verhandlungsprozess einbringen.
00:08:17: Aus Sicht der Abgeordneten im Europaparlament würde das zu lange dauern – sie wollen das Problem viel schneller angehen, erklärt Marco Pauli von Heise Online.
00:08:26: In der kommenden Woche wird im EU-Parlament über ein sogenannten Initiativbericht des deutschen CDU-Rechtspolitikers Axel Foss abgestimmt.
00:08:34: In diesem werden in Sachen KI und Urheberrechte pragmatische Zwischenlösungen gefordert.
00:08:39: Kernpunkt ist die sogenannte Text and Data Mining Ausnahme TDM, dank dieser dürfen KI Anbieter urheberrechtlich geschützte Inhalte bisher nutzen sofern Urhebern dem nicht maschinenlesbar widersprechen.
00:08:54: Doch genau diese Maschinenlesbarkeit ist juristisch umstritten, da keine Klarheit darüber herrscht wie genau sie eigentlich definiert ist.
00:09:02: Der Initiativbericht fordert verbindliche Standards – wie Rechteinhaber maschinenleisbar festlegen können, ob ihre Werke für KI-Training genutzt werden dürfen oder eben nicht.
00:09:12: Gleichzeitig soll Transparenz geschaffen werden, wie KI Anbieter die Trainingsdaten tatsächlich verwenden.
00:09:20: Denkbar wären hier technische Lösungen wie Wasserzeichen oder ein unabhängiger Treuhänder, wie etwa das Amt der Europäischen Union für Geistiges Eigentum – das EUIPO.
00:09:32: Der die Angaben der KI-Unternehmen prüft ohne Geschäftsgeheimnisse offen zu legen.
00:09:38: Ein weiterer Streitpunkt ist die Vergütung.
00:09:40: Abgeordnete fordern kollektive Vereinbarungen zwischen KI Anbietern und Verwertungsgesellschaften um eine faire Bezahlung sicherzustellen Denn die Medienhäuser stehen unter Druck.
00:09:51: Die Chatbots und deren KI-Zusammenfassung lenken die Nutzer weg von ihren eigenen Angeboten.
00:09:57: Es gehe um die wirtschaftliche Existenz der freien Presse, warnen Politiker.
00:10:02: Daher solle klargestellt werden dass KI Anbieter Presseverlage nicht einfach nutzen dürfen ohne deren Rechte zu beachten.
00:10:10: Ob der Bericht und dessen Abstimmung konkrete Folgen haben wird ist offen Denn das Initiativrecht für EU-Gesetze liegt bei der EU-Kommission selbst.
00:10:20: Und selbst beschleunigte Verfahren dauern einige
00:10:23: Monate.".
00:10:24: Danke schön, Marco!
00:10:26: KI-Sprachmodelle erfinden Quellenangaben.
00:10:30: Dieses bekannter Problem hat inzwischen die wissenschaftliche Literatur erreicht.
00:10:34: Akzeptierte Facharbeiten bei führenden KI-Konferenzen enthalten nachweislich Referenzen, Ein Forschungsteam hat deshalb das Open Source Tool Site Audit entwickelt.
00:10:48: Er setzt fünf spezialisierte KI-Agenten ein, die arbeitsteilig vorgehen.
00:10:54: Ein Agent liest das PDF aus – ein weiterer gleich die Angaben mit bekannten Zitaten ab!
00:10:59: Ein Dritter sucht per Websuche nach Belegen.
00:11:02: Ein Vierter prüft die Trefferzeichen genau und ein Fünfter durchsucht bei Bedarf autoritative Datenbanken wie Google Scholar.
00:11:11: Der entscheidende Vorteil gegenüber kommerziellen Modellen zeigt sich bei realen Fälschungen.
00:11:16: GBT-Fünfpunkt zwei erkennt zwar rund seventy- acht Prozent der gefälschten Zitate, stuft aber gleichzeitig auch fast die Hälfte aller echten Referenzen als Fälchung ein.
00:11:28: Side-ordered identifizierte alle Fälschungen im Testdatensatz und beanstandete dabei nur einen kleinen Teil der echten Zitate.
00:11:36: Die Gesamttrefferquote liegt bei siebenundneunzig Komma zwei Prozent!
00:11:41: Für zehn Referenzen benötigt das System etwa zwei Sekunden.
00:11:44: Als Webapplikation lassen sich kostenlos bis zu fünfhundert Zitate pro Tag prüfen!
00:11:50: Der Streamingdienst Netflix setzt bei neuen KI-Werkzeugen für die Filmproduktion auf Technologie aus Hollywood, statt aus dem Silicon Valley.
00:12:00: Mit der Übernahme des von Ben Affleck gegründeten KI-Startups interpositive investiert er Konzernen jetzt in eine eigene KI-Infrastruktur für Filmproduktion berichtet mein Kollege Tomislav Besmalinovich.
00:12:12: Da es sechzehnköpfige Team aus Ingenieuren, Forschern und Kreativen wechselt vollständig zu Netflix.
00:12:18: Während Afflux selbst den Streamingdienst künftig als leitender Berater unterstützen soll, berichtet Variety.
00:12:25: Netflix werde die KI-Technologie seinen Partnern zur Verfügung stellen.
00:12:29: an kommerzieller Vertrieb seit der Zeit aber nicht geplant.
00:12:33: Interpositive entwickelt KI-Werkzeuge, die nach bisherigen Beschreibungen vor allem für die Postproduktion gedacht sind.
00:12:41: Ben Affleck stellt heraus dass die Tools nicht etwa eigenständig Filme generieren sondern Filmemacher bei typischen Arbeitsschritten unterstützen sollen.
00:12:50: Dafür werden KI Modelle zuerst auf Basis von Aufnahmen realer Drehs trainiert um später fehlende Einstellungen und Spezialeffekte zu ergänzen, Hintergründe zu verstärken oder Licht- und Bildausschnitte nachträglich zu verändern.
00:13:05: Die Systeme sind effekt zur Folge darauf ausgelegt filmische Regeln und Arbeitsabläufe zu verstehen und kreative Entscheidungen weiterhin beim Menschen zu belassen.
00:13:16: Ideen handwerkliches Können und menschliches Urteilsvermögen sollen laut Netflix weiterhin im Zentrum guten Storytale
00:13:23: stehen.".
00:13:24: Unerwähnt bleibt in der Ankündigung des Streaming-Riesen, dass solche Werkzeuge den Arbeitsaufwand in der Postproduktion verringern und damit langfristig Auswirkungen auf bestimmte Berufsgruppen haben könnten.
00:13:38: Die Übernahme von InterPositiv passt in einen breiteren Wandel der Branche – große Studios und Streamingdienste haben begonnen, Partnerschaften mit KIAanbietern anzugehen und die Technologie aktiv in ihre Produktionsabläufe zu integrieren statt die Entwicklung nur zu beobachten.
00:13:56: Vielen Dank, Tommy Slav!
00:13:58: KI-Agenten sollen künftig eigenständig komplexe Arbeitsaufgaben übernehmen – doch eine neue Studie zeigt, dass diese Themen nicht für den realen Arbeitsalltag entwickelt werden.
00:14:09: Ein Forschungsteam der Carnegie Mellon University und der Stanford University hat dreiundvierzig Agenten Benchmarks mit mehr als zweiundsebzigtausend Aufgaben systematisch mit dem US-Arbeitsmarkt abgeglichen.
00:14:22: Benchmark sind standardisierte Tests, mit denen Forscher die Leistung von KI-Systemen messen.
00:14:27: Das Ergebnis ist eindeutig!
00:14:30: Die aktuelle Agentenentwicklung zielt fast ausschließlich auf Computer und Mathematik ab – dieser Bereich macht jedoch nur sieben Komma sechs Prozent der Gesamtbeschäftigung in den USA aus.
00:14:41: Selbst stark digitalisierte Branchen kommen in den Tests kaum vor.
00:14:46: Zum Beispiel weist der Arbeitsbereich Management ein Digitalisierungskrat von achtundachtzig Prozent auf, wird aber nur in einen Komma vier Prozent aller Benchmark-Aufgaben abgebildet.
00:14:56: Juristische Tätigkeiten und Ingenieurwesen sind ähnlich unterrepräsentiert.
00:15:02: Die Forschenden führen das auf methodische Bequemlichkeit zurück – Aufgaben mit klar formulierbaren Anweisungen und einfach überprüfbaren Ergebnissen würden überproportional bevorzugt!
00:15:13: Selbst im am stärksten vertretenen Bereich Softwareentwicklung fallen die Erfolgsraten mit steigender Aufgabenkomplexität steil ab.
00:15:22: Die Forschenden fordern deshalb Benchmarks, die gezielt unterrepräsentierte Arbeitsbereiche abdecken und realistischere Aufgaben enthalten.
00:15:31: Ein Team des Massachusetts Institute of Technology hat sich von der japanischen Papierkunst des Kirigami inspirieren lassen in dreidimensionale Strukturen verwandelt werden können.
00:15:47: Wie genau das funktioniert, erklärt Jenny Lipis Redakteurin bei der MIT Technology Review.
00:15:52: Wenn man das Video der Forschergruppe anschaut sieht er schon ziemlich pfiffig aus!
00:15:57: Man sieht eine flache Platte die aus mehreren verbundenen Kacheln besteht.
00:16:02: Zieht man nun an der angebrachten Schnur zieht sich die Konstruktion zusammen und es entsteht zum Beispiel eine Form die aussieht wie ein Stuhl.
00:16:12: Die Forschergruppe am Computer Science and Artificial Intelligence Laboratory des MIT in Cambridge hat dafür die Papierkunst des Kirigami nachgeahmt, bei der auch komplexe und oft auch dreidimensionale Objekte durch das präzise Ausschneiden entstehen.
00:16:30: Der entwickelte Algorithmus geht jetzt aber so vor dass er eine vom User festgelegte drei D Struktur bekommt und in eine flache Form aus diesen miteinander verbundenen Kacheln zurückverwandelt.
00:16:43: Wichtig ist hierbei die Anbringung der Schnur zum Zusammenziehen.
00:16:48: Der Algorithmus geht dazu in zwei Schritten vor, er muss zunächst den optimalen Weg für die Schnur durch das Kachelmuster finden – denn die Schnure muss ja die einzelnen Elemente zu der gewünschten Form zusammenziehen!
00:17:02: Dabei berechnet der Algorithmus die minimale Anzahl von Punkten, die angehoben werden muss.
00:17:08: Der Algorithmos findet dann den kürzesten Weg diese Hebepunkte zu verbinden.
00:17:13: Das Ergebnis sorgt dafür dass der Weg der Schnur die Reibung minimiert so das die Struktur mit nur einem einzigen Zug an dieser Schnur entstehen kann.
00:17:23: Der Aufbau ist lauter Vorschlag zudem leicht wieder in flacher Konfiguration umkehrbar.
00:17:29: Die Muster, die der Algorithmus ausgibt, lassen sich mit jetzt drei D-Druck, CNC-Fräsen, Guss oder anderen Techniken herstellen.
00:17:38: Die Forscher können sich vorstellen dass sich der Ansatz auch nutzen lässt um beispielsweise Gegenstände in flachen Zustand anzufertigen um sie dann in schlecht erreichbare Regionen zu bringen und dort aufzufalten.
00:17:51: Wenn man ganz groß denkt wären sogar Habitate für den Mond oder Mars möglich.
00:17:56: Danke schön Jenny.
00:17:58: Die KI-Plattform Luma generiert nach Angaben des Herstellers LumaAI kreative Projekte wie Videos oder Printkampagnen, vom Konzept über Zwischenstufen wie Storyboards bis hin zur Ausgestaltung mit diversen KI-Modellen.
00:18:13: Bislang mussten kreative Beispielsweise für ein Videoprojekt – zuerst einen Skript in ChatGPT erstellen, dann ein Bild als Ausgangspunkt mit Journey, anschließend einzelne Videoclips im Runway ML generieren, Hintergrundmusik im Web oder einer Bibliothek suchen und letztlich alles in Adobe Premiere Pro zu einem Video verbinden.
00:18:33: All diese Schritte sollen Sie nun in Einer Web App erledigen können!
00:18:38: Neben dem von Luma AI selbst entwickelten Videomodell Ray-Dreibunkt-Einzvier unterstützt der Agent auch Google's Video, OpenAI Sora und Kling AI sowie die Bildgeneratoren NanoBanana Pro, Cdream und GPT Image.
00:18:52: Die Musik-, Autieeffekt- und Stimmgeneraturen kommen von Eleven Labs.
00:18:57: Luma richtet sich an kreative Teams in Agenturen und Marketingabteilungen, die schnell Inhalte produzieren wollen!
00:19:04: ohne sich mit komplexen Prozessen dahinter auseinandersetzen zu müssen.
00:19:09: Bisherige KI-Systeme im Auto bieten oft nur Information.
00:19:14: Soundhound AI hat auf dem MWC ein System präsentiert, das eigenständig Plan bestellen und bezahlen kann.
00:19:21: Die Software kann auf verschiedenen großen Sprachmodellen aufbauen und bietet rund zwei Dutzend unterschiedliche KI-Agenten.
00:19:28: Jeder Agent ist für einen eigenen Bereich zuständig, womit sich der Zugriff auf Daten und Funktionen abgrenzen lässt.
00:19:35: Allerdings können die Agenten untereinander kommunizieren – fast komplexe Einsatzmöglichkeiten eröffnet!
00:19:41: Wenn man zum Beispiel auf dem Heimweg noch schnell eine Pizza abholen möchte, kann der Assistent passende Restaurants vorschlagen, die Bestellungen aufgeben und die automatische Bezahlung auslösen.
00:19:51: Die KI kann auch Funktion wie Klimaanlage, Sitzheizung oder Navigationssystem steuern.
00:19:57: Zu den bisherigen Partnern gehören unter anderem Genesis, Hyundai, Kia, Lucid und die Stellantis-Gruppe.
00:20:03: Welcher Hersteller als erster die KI-Agenten in einem Serienmodell einsetzen wird, verliert das Unternehmen gegenüber Heise Online nicht – der Start ist allerdings noch für dieses Jahr geplant!
00:20:15: Das war das KI Update von Heise OnLine vom neunten März, zwanzig.
00:20:20: Eine neue Folge gibt es immer Montags, Mittwochs & Freitag um fünfzehn Uhr.
Neuer Kommentar