KI-Update kompakt: OpenAI, Stromverbrauch, Smart Glasses, Passwort
Shownotes
Das ist das KI-Update vom 04.03.2026 unter anderem mit diesen Themen:
OpenAI bessert Pentagon-Vertrag nach massiver Kritik nach
Flexibler Stromverbrauch für KI-Rechenzentren
Android-App spürt Smart Glasses in meiner Nähe auf
und warum das Passwort vom Chatbot wirklich keine gute Idee ist
=== Anzeige / Sponsorenhinweis ===
Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier.
https://wonderl.ink/%40heise-podcasts
=== Anzeige / Sponsorenhinweis Ende ===
Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11198374
Weitere Links zu diesem Podast:
https://www.heiseplus.de/audio
https://www.heise.de/thema/KI-Update
https://pro.heise.de/ki/
https://www.heise.de/newsletter/anmeldung.html?id=ki-update
https://www.heise.de/thema/Kuenstliche-Intelligenz
https://the-decoder.de/
https://www.ct.de/ki
Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Transkript anzeigen
00:00:02: Das KI Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.
00:00:13: Ich bin Isabel Grünewald und dies sind heute unter anderem unsere Themen.
00:00:17: OpenAI bessert Pentagon-Vertrag nach massiver Kritik nach – flexibler Stromverbrauch für KI Rechenzentren möglich?
00:00:25: Android App spürt Smartglasses in meiner Nähe auf!
00:00:28: Und warum das Passwort vom Chatbot wirklich keine gute Idee
00:00:33: ist?!
00:00:35: Oben?
00:00:35: AI hat seinen Vertrag mit dem US-Verteidigungsministerium um Schutzklauseln ergänzt, denn der Deal sorgte intern und extern für scharfe Kritik.
00:00:45: Max Schreiner von The Decoder fasst diese zusammen.
00:00:56: Der Kunft für das Scheitern war, dass Pentagon wollte Anthropics KI zur Analyse von Massendaten amerikanischer Bürger einsetzen können.
00:01:03: Darunter Standortdaten, Browserverläufe oder Kreditkarten, Transaktion.
00:01:07: Anthropic lehnte es ab und OpenAI sprang ein und akzeptierte, dass seiner KI für alle rechtmäßigen Zwecke eingesetzt werden kann.
00:01:15: Die Reaktionen waren heftig.
00:01:16: selbst OpenAI-Mitarbeiter äußesten öffentliche Zweifel an dem Deal.
00:01:20: Einige Chachapity-Nutzer kündigten ihre Accounts und wechselten zu Erfropics Chatbot Claude.
00:01:25: Das Konkurrenzprodukt schaffte es daraufhin auch auf Platz eins in Apples App Store.
00:01:30: Jetzt hat COSAM Admin nachgebessert, die wichtigste neue Regel ist das KI System darf nicht zur Überwachung von US Bürgern eingesetzt werden.
00:01:37: Das gilt auch für die nachträglich anerlüse kommerziell erworbenen Person bezogener Daten.
00:01:42: Geheimnisse wie die NSA dürfen die Open AI Dienste ebenfalls nicht nutzen!
00:01:48: Altmann räumte ein, dass die ursprüngliche Packantkabe überstürzt und schlecht kommuniziert gewesen sei.
00:01:53: Unterstützung bekam er dabei auch vom Open AI Forscher Nureen Braun dem Kopf hinter den sogenannten Reasoning-Modellen.
00:02:00: Braun erklärte die urspringliche Vertragssprache habe offene Fragen gelassen besonders bei neuen Überwachungsmöglichkeiten durch KI Und die Welt solle sich eben nicht auf das Vertrauen in KI Firmen oder Geheimdienste verlassen müssen.
00:02:12: stattdessen müssten demokratische Prozesse diese Lücke schließen.
00:02:16: Wie glaubwürdig diese Kehrtwente ist, bleibt natürlich offen.
00:02:19: Laut der New York Times rief Altmann den Technologischift des Pentagons, der die Verhandlung mit Anthropik führte bereits einen Tag nach dessen Ultimatum an Obmei als Konkurrenten an.
00:02:29: Innerhalb eines Tages stand ein Rahmenwerk.
00:02:32: Das ist auch deshalb präsent weil Altmann kurz zuvor noch öffentlich Solidarität mit Anthropic signalisiert und den Einsatz von KI für Maskenüberwachung abgelehnt hatte.
00:02:41: Genau diese Massenüberwachung war der Grund, warum Anthropic den Deal platzen ist.
00:02:46: Ob er als neue Schutzklauseln verbieten?
00:02:49: nun genau das, die Frage ist warum das Unternehmen diese Einschränkung nicht von Anfang an verlangt hat.
00:02:54: Die ehemalige Open AI Geopolitik-Chefin Sarah Schoker liefert hier eine mögliche Erklärung.
00:03:00: sie sagt keines der führenden KI-Unternehmen verfüge über schlüssige Richtlinien für den militärischen Einsatz.
00:03:06: Die Nutzungsbedingungen seien bewusst so waage gehalten um der Unternehmensführung Handlungsspielraum zu bewahren.
00:03:12: Die Schutzklauseln kamen dann wohl auch erst als der öffentliche Druck zu groß
00:03:25: wurde.
00:03:41: Aufgenommen sind sie mit den Ray-Ban und Oakley-Brillen von Metta.
00:03:46: Das scheint viele Menschen zu wundern, dabei sollte eigentlich klar sein dass die Videos die man mit den Brillen aufzeichnet eben teilweise auch ausgewertet werden.
00:03:56: Möchte man wissen vor welchem Gebäude man gerade steht muss Metta AI die Bilder der Brille an Metta weiterleiten um eine Antwort zu bekommen.
00:04:06: das geschieht nicht lokal auf dem Smartphone oder auf der Brilde.
00:04:11: eigentlich recht logisch.
00:04:13: Nun hat jedoch die schwedische Tageszeitung Svenska Dagebladet einen großen Artikel geschrieben, der für viel Aufregung sorgt.
00:04:22: Meta hingegen sagt auf Nachfrage von Heise Online in unsere Nutzungsbedingungen und den Datenschutzrichtlinien steht ganz klar dass wir Inhalte anschauen und gegebenenfalls auch an Subunternehmen weiterleiten um unsere Produkte zu verbessern.
00:04:39: Also doch kein Aufreger!
00:04:41: Na ja, billige Click-Worker leiden darunter, dass sie solche Aufnahmen sehen müssen.
00:04:48: Zum Beispiel sind da Aufnahmen von Gewalt – Sie bekommen dafür ein minimales Gehalt und müssen oft auch Kniebelverträge unterschreiben.
00:04:58: Und dabei muss man sagen, das ohne diese Menschen KI aber nicht ansatzweise das könnte was sie eben heute kann!
00:05:06: KI-Modelle werden mit Daten trainiert, die eben von diesen Click-Workern aufbereitet werden.
00:05:12: Datenannotation nennt sich das.
00:05:15: Damit ein KI-modell weiß was Gewalt ist muss es Gewalt erst mal sehen und gesagt bekommen dass es sich um Gewalt handelt.
00:05:26: Wenn ein KI Modell also nun beispielsweise keine Inhalte generieren darf die Gewalt beinhalten muss es dafür aber erst mal wissen, was überhaupt Gewalt ist um sie dann ausschließen zu können.
00:05:40: Clickworker werden von allen KI-Unternehmen genutzt – das ist kein reines Problem von Metta!
00:05:47: Nun kommt hinzu dass Metta eigentlich sagt Menschen die auf diesen Aufnahmen aus den Brillen zu sehen sind werden unkenntlich gemacht bevor diese Videos weiter verarbeitet werden.
00:06:01: Das Tageblatt zitiert jetzt Aberclick-Worker, die sagen dass die Gesichter oftmals nicht verpixelt sind und diese Unkenntlichmachung eben gar nicht hinkommt.
00:06:10: Das ist rechtlich tatsächlich okay aber es ist natürlich nicht schön.
00:06:16: Ganz offensichtlich muss auch einfach noch sehr viel Menschen bewusst gemacht werden, dass eben diese Videos bei Metta und den Click-Workern landen.
00:06:26: Genauso wie Chatinhalte und andere Kommunikation mit den verschiedenen KI-Diensten!
00:06:32: Danke Eva!
00:06:34: Sicherheitsforschende haben eine gefährliche Schwachstelle in PerplexitiesKI Browser Comet aufgedeckt.
00:06:40: Comet arbeitet als sogenannte agentischer Browser.
00:06:43: Das heißt, er kann eigenständig Aufgaben im Internet erledigen!
00:06:47: Genau diese Fähigkeit wurde ihm zum Verhängnis.
00:06:50: Der Angriff funktioniert so – eine Nutzerin erhält eine manipulierte Kalendereinladung und bittet Comet sich darum zu kümmern.
00:06:58: Ab diesem Moment läuft der Angriff ohne weitere Interaktion.
00:07:02: In der Einladung sind nämlich versteckte Anweisungen eingebettet die der Browser als legitime Aufgaben interpretiert.
00:07:10: Im ersten Szenario durchsuchtekommet das lokale Dateisystem und schickte sensible Daten an einen externen Server.
00:07:16: Im zweiten, gravierender Fall navigierte der Browser in den entsperrten OnePassword-Resort des Nutzers LastPassWorther aus und übermittelte diese an die Angreifer.
00:07:27: In einer weiteren Variante änderte der Agent sogar das Contopasswort und ermöglichte eine vollständige Contoübernahme.
00:07:35: Beide Unternehmen haben reagiert.
00:07:37: Publicity blockiert den Zugriff auf lokale Dateien jetzt im Quellcode.
00:07:41: OnePassword bietet Optionen, um die automatische Anmeldung zu deaktivieren – allerdings müssen Nutzende diese Schutzmaßnahmen teilweise manuell aktivieren!
00:07:52: Die Forschenden äußerten hingegen grundsätzliches Misstrauen gegenüber agentischen Browsern.
00:07:57: Mit zunehmender Eigenständigkeit von KI-System wachse auch die Angriffsfläche.
00:08:03: Rechenzentren für Training und Anwendungen mit künstlicher Intelligenz schießen schneller aus dem Boden als Stromnetze erweitert werden können.
00:08:12: Ein Pilotversuch in Großbritannien zeigt eine Lösung für das Problem – wie die aussieht, erklärt Malte Kirchner aus dem heise online Newsroom.
00:08:20: KI-Rechenzentrin brauchen enorme Mengen Strom Und sie entstehen gerade viel schneller, als die Stromnetze mitwachsen können.
00:08:27: Die Folge?
00:08:27: Wer heute ein neues Rechenzentrum ans Netz anschließen will wartet in Großbritannien und auch in anderen Ländern im schlimmsten Falle zehn Jahre.
00:08:34: Zehn Jahre – das ist in der KI-Branche eine Ewigkeit!
00:08:38: Doch ein Pilotversuch macht jetzt Hoffnung dass es deutlich schneller gehen könnte.
00:08:41: Beteiligt waren der britische Netzbetreiber National Grid sowie Nvidia, Nebius und weitere Partner Und das Ergebnis ist bemerkenswert.
00:08:49: KI-Rechenzentren können ihren Stromverbrauch kurzfristig und deutlich drosseln, ohne dass laufende Berechnungen dafür abgebrochen werden müssen.
00:08:57: Konkret wurde in einem Londoner Rechenzentrum ein Cluster aus sixundneinzig NVIDIA GPUs innerhalb von weniger als einer Minute um bis zu vierzig Prozent herunter geregelt.
00:09:06: Das Signal dafür kam aus der Netzsteuerung.
00:09:09: Im Dezember zwölfundzwanzig wurde das rund zweihundertmal erprobt – und es hat funktioniert!
00:09:14: Warum ist das so wichtig?
00:09:16: Bisher müssen Netzbetreiber für jedes Rechenzentrum dauerhaft die maximale Spitzenlast vorhalten, also quasi immer für den schlimmsten Fall planen.
00:09:23: Wenn Rechencentren aber flexibel auf das Netz reagieren und können, könnte diese Anforderung sinken – National Grid hofft, die Wartezeit für neue Netzan Schlüsse so von zehn auf zwei Jahre zu drücken!
00:09:33: Bis zum Jahr im Jahr.
00:09:34: in Großbritannien sind sechs Gigawatt an neuer Rechen-Zentrums leistungen geplant.
00:09:38: Da macht jedes eingesparte Jahr einen riesigen Unterschied.
00:09:42: Einen Haken gibt es allerdings.
00:09:43: Betreiber müssen dann mit schwankender Rechenleistung kalkulieren.
00:09:46: Die Ergebnisse gehen jetzt an Regulatoren und Politik, denn neue Anschlussregeln brauchen rechtliche Grundlagen.
00:09:52: Von dem Beispiel in Großbritannien geht auch eine Signalwirkung für den Rest der Welt
00:10:02: aus.
00:10:07: Trotzdem wurde die Branche beim deutschen Industriestrompreis bislang außen vorgelassen.
00:10:13: Nun aber kommt ein Gutachten im Auftrag des Bitkom zu dem Schluss, dass Strom für Rechenzentren subventioniert werden müsse wenn die EU ihre Ziele für eine sauberere Industrie erreichen will!
00:10:25: Der Strompreis hat maßgeblichen Einfluss auf die Konkurrenzfähigkeit der europäischen Industrien.
00:10:30: Der Betrieb könnte deutlich günstiger werden, wenn Rechenzentren laut den Leitlinien für staatliche Klima-, Umweltschutz- und Energiebeihilfen zu den förderungsfähigen Branchen zählen.
00:10:41: Grundsätzlich Unterstützung bei dem Vorhaben erhält der Verband dabei aus dem Bundesministerium für Wirtschaft und Energie – da es erkennend den Wettbewerbsfaktor Strompreise für Rechencentren grundsätzlich an sieht dabei aber auch die Notwendigkeit einer europarechtlichen Regelung.
00:10:57: Die ARD führt KI-Stimmen für Teile ihres Radioangebots ein.
00:11:02: Ab dem dritten März sollen die Verkehrs- und Wettermeldungen in den gemeinschaftlichen Sendungen Pop The Abendshow und Pop Nacht von einer KI vorgetragen werden.
00:11:12: Akute Gefahrenmeldung übernimmt weiterhin die Live-Redaktion.
00:11:16: Die Abend- und Nachtprogramme werden auf den öffentlich-rechtlichen Sendern in mehreren Bundesländern gesendet.
00:11:21: Die beiden Gemeinschaftsprogramme sind Anfang twenty-fünfundzwanzig entstanden, und haben bisher bundesweit einheitliche Verkehrs- und Wettermeldungen gesendete.
00:11:30: Die KI soll nun je nach Sendegebiet regionalisierte Meldungen ermöglichen.
00:11:35: Die AED betont, dass das System keine menschlichen Mitarbeitenden ersetzen soll!
00:11:40: Die KI trage lediglich Texte vor, die von den entsprechenden Redaktionen geschrieben und überprüft worden seien.
00:11:47: Eigene Meldungen formulieren oder geschriebenes Ändern dürfe sie hingegen nicht!
00:11:52: Die Stimmen der KI sollen auf denen des echten Moderationsteams beruhen.
00:11:57: Aufgrund ihrer geringen Verbreitung spielen Smartglasses bislang in der öffentlichen Debatte kaum eine Rolle – das könnte sich in den nächsten Jahren jedoch ändern.
00:12:06: Meta, Google & Apple drängen auf dem Markt.
00:12:09: Der Soziologe und Gelegenheitsentwickler Yves Jean-Renaud empfindet die intelligenten Brillen bereits heute schon als unzumutbaren Eingriff in die Privatsphäre, unter deshalb eine Abwehrapp programmiert.
00:12:22: Mein Kollege Tomislav Besmalinovic hat sie sich genauer angeschaut.
00:12:26: Viele Smartglasses sind heute oft noch aus der Nähe als solche zu erkennen – bei Metasmodell signalisiert einer LED Außenstehenden das gefilmt wird.
00:12:35: Bei hellem Tageslicht ist sie jedoch kaum wahrnehmbar!
00:12:39: Die Android App Nearby Glasses scannt nach Bluetooth-Signalen in der Umgebung.
00:12:44: Erkennt Sie in diesen Signalen eine Herstellerkennung von Smart Glasses, da Marker Rayban, Oakley und Snap.
00:12:51: werden Nutzer darüber benachrichtigt?
00:12:53: Das ist zumindest die Idee hinter der App!
00:12:57: Der Hobbyentwickler weist nämlich darauf hin dass seine App aus technischen Gründen umvollkommen ist und es vermutlich auch immer bleiben wird.
00:13:06: Fehlalarme seien wahrscheinlich, weil die Kennung nur den Hersteller verrät.
00:13:10: Nicht das konkrete Produkt schreibt Jean-Renaud auf GitHub.
00:13:14: So können auch eine VR Brille erkannt werden während umgekehrt längst nicht alles Smartglasses erfasst würden.
00:13:22: Jean Renaud mahnt daher sich der Grenzen der Erbbewusst zu sein.
00:13:26: Ohnehin geht es dem Soziologen eher darum auf ein Problem hinzuweisen als es mit technischen Mitteln abschließend zu lösen.
00:13:34: Ich möchte weder Techniklösungen als Allheilmittel darstellen, noch ein falsches Sicherheitsgefühl vermitteln.
00:13:41: Schreibt Genre No auf GitHub!
00:13:44: Wir brauchen bessere Lösungen um Überwachungstechnologien und Eingriffe in die Privatsphäre einzudämmen.
00:13:51: Nearby Glasses ist im Google Play Store erhältlich.
00:13:54: Alternativ ist sie auch bei GitHub verfügbar wo es weitere Hinweise zur Funktionsweise und Einrichtung gibt.
00:14:02: Dort nennt Genre No auch potenzielle Ausbauschritte, wie die Erkennung weiterer Smartglasses und eine iOS-App.
00:14:10: Danke Tomislav!
00:14:12: OpenAI und Google haben jeweils neue KI Modelle veröffentlicht.
00:14:16: OpenAI bringt.
00:14:17: GPT-Fünfpunkt drei Instant – Google DeepMind Eine Vorschau von Gemini ThreepointEins Flashlight.
00:14:24: GPT-Fünfpunkt drei Instant ist ein Update für das Standard ChatGPT-Modell.
00:14:28: Es soll Alltagsgespräche flüssiger machen und genauere Antworten liefern, die Halluzinationsrate sinke laut OpenAI um bis zu siebenundzwanzig Prozent.
00:14:38: Schwächen bestehen weiterhin bei nicht englischen Sprachen.
00:14:42: Bei der Erkennung unerlaubter Inhalte gibt es leichter Rückschritte gegenüber dem Vorgänger.
00:14:46: GPT fünf Punkt vier soll laut Open AI aber schnell folgen ebenso die Reasoning Varianten.
00:14:53: Google's Drei-Punkteins Flashlight ist das schnellste und günstigste Modell der Gemini-Dreireihe.
00:14:59: Es erzielt laut der Analyseplattform Artificial Analysis einen deutlichen Leistungssprung gegenüber dem Vorgänger, bleibt dabei aber genauso schnell – die Stärken liegen vor allem beim Multimodalen aufgaben!
00:15:11: Allerdings hat Google den Preis beim Output mehr als verdreifacht.
00:15:17: Sicherheitsforschende von Irregular warnen für Passwörter, die von Chatbots vorgeschlagen werden.
00:15:23: Zu Recht, wie unser Selbstversuch zeigt.
00:15:26: Mein Kollege Wolfgang Stieler von der MIT Technology Review wollte wissen, wie viele Menschen ihren Chatbot überhaupt zur Passworderstellung nutzen und erzählt von seinen Recherchen im Weekly-Podcast der Technology Review?
00:15:38: Also
00:15:38: es tritt noch nicht ganz viel auf.
00:15:43: Man sieht nicht viele offensichtlich von LMMs generierte Passwörter im Internet die dann irgendwie geknackt worden sind, aber was man schon sieht ist das einfach sehr viel.
00:15:58: Chatbots, Agenten etc.
00:15:59: im Moment fürs Programmieren eingesetzt werden und da hast du dann schon so Sachen.
00:16:04: wie schreibt ja mein Default Password in den Code rein.
00:16:08: also ich habe auch bei Irregular nochmal nachgefragt und die haben gesagt Ja!
00:16:13: Das kann man schon sehen dass mehr von diesen Mustern, die eigentlich typisch sind für Chatbots in Code zum Beispiel auf GitHub auftauchen.
00:16:23: Und wenn sich das weiter so fortsetzt, dann haben wir da ein großes Problem weil ganz oft ist es halt so... Das wissen wir auch schon lange vor irgendwelchen KI-Zeiten.
00:16:36: Menschen einfach für sich nicht bequem sind was Sicherheitsfunktionen angeht und default Passworder ganz oft einfach so lassen.
00:16:43: Wolfgang hat Chatipiti dann darauf angesetzt, die von ihm selbst generierten Passwörter auf Schwachpunkte zu analysieren.
00:16:50: Ein einzelnes Passwort für sich genommen wirkte auf den ersten Blick sehr sicher – trotzdem gab es einen Haken!
00:17:03: Bericht dann geschrieben haben, taucht erst dann auf wenn du eine große Zahl von Passwörtern erzeugen lässt.
00:17:10: Weil die dann offensichtlich Muster aufweisen.
00:17:14: Also habe ich genau das gemacht, hab dann halt Chat-PD gefragt kannst du mir noch fünfzig solcher Passwürter mal ausgeben?
00:17:21: und habt dann in einem anderen Chatfenster also im anderen Kontext gesagt okay ich zapp hier fünfzig passwörter.
00:17:28: kannst du bitte prüfen ob da irgendwelche Schwächen drin sind?
00:17:33: Ja und?
00:17:34: Die Antwort war, na klar.
00:17:35: Ach krass!
00:17:37: Okay,
00:17:37: ja schön.
00:17:38: Also es waren auch so, naja das zwanzig Zeichenlangen bestehen aus einer Mischung aus Großbuchstaben, Kleinbuchstabenzahlen und Sonntagzeichen, dass ist... Super, keine offensichtlichen Wiederholung und so formal betrachtet sehr stark.
00:17:50: Aber wenn man sich das anguckt sieht man sehr schnell dass es eigentlich ein für sich wiederholendes Muster gibt nämlich Großbuchstabezahl, Sonnla-Zeichen klein Buchstabe usw.
00:17:58: Also das wiederholt sich nach weniger als zwanzig Zeichen und ist ganz klar immer dieselbe Struktur.
00:18:05: Und es war noch viel schlimmer.
00:18:06: der Zeichenvorrat Der ja auch für diese Berechnung der Entropie zuständig ist der Wahrheit sehr viel kleiner mögliche Zeichenvorrat.
00:18:16: Das heißt aus den Buchstaben, aus den Sonderzeichen und aus den Zahlen hat GPD beim Erzeugen dieser Partswürder offensichtlich immer nur ein kleines Zahnte genommen und auch das immer nur durchgetauscht.
00:18:27: Also du hast nur zwei vier sieben acht und neun gehabt als zahlen zum Beispiel.
00:18:32: Du hast nur drei verschiedene Sonder- zeichen gehabt von einem möglichen Sonder Zeichen.
00:18:37: Und ja das Ergebnis ist ganz einfach wenn man auch nur wenige dieser part wird erkennt Kann man sehr schnell ein Passwort konstruieren, dass diesem Muster entspricht.
00:18:49: Und das heißt der Suchraum ist sehr viel kleiner.
00:18:52: Das ist also lustig!
00:18:53: Also der Chatchi Bitti hat in einem anderen Chat sozusagen seiner eigenen selbstgenerierten Passworder quasi gehackt.
00:19:01: Es war nur noch ein kleiner Schritt nachzuvollziehen aber... Ja, das war... Das Urteil war vernichten.
00:19:10: Wer drei bis fünf diese am Passwort erkennt kann leicht das zugrunde liegende Set rekonstruieren und automatisiert weitere Varianten davon generieren und die dann eben
00:19:20: ausprobieren.".
00:19:21: Das komplette Weekly meiner Kollegen der Technology Review findet ihr ab morgen also am Donnerstag um sechs Uhr auf der Podcastplattform Eurer Wahl und bei YouTube!
00:19:32: Der Informatiker Steven Thaler ist erneut vor dem US-Supreme Court gescheitert.
00:19:37: Der oberste Gerichtshof der USA lehnte es ab, sich mit der Frage zu befassen, ob von künstlicher Intelligenz geschaffene Kunst nach US-amerikanischem Recht urheberrechtlich geschützt werden kann.
00:19:49: Der Fall beschäftigte unterschiedliche Instanzen über mehrere Jahre – das von Zahler geschaffende KI-System Davis hatte autonom ein visuelles Kunstwerk generiert.
00:19:59: Als Eigentümer der Maschine sieht sich als deren Auftraggeber an und wollte das Copyright an dem komputergenerierten Bild für sich selbst registrieren, schaltete damit aber bisher in allen Rechtsinstanzen.
00:20:12: Während die US-Regierung den Supreme Court laut einem Bericht der Nachrichtenagentur Reuters aufforderte, Thalas Berufung nicht anzunehmen, erklärten dessen Anwälte der Fall sei angesichts des rasanten Aufstiegs generativer KI von höchster
00:20:26: Bedeutung.".
00:20:28: Entsprechend enttäuscht, zeigten sie sich von der Entscheidung des Gerechtes die Berufung abzulehnen.
00:20:34: Das war das KI-Update von Heise online vom vierten März, zwanzig.
00:20:39: Eine neue Folge gibt es immer Montags, Mittwochs und Freitag um fünfzehn Uhr!
Neuer Kommentar