KI-Update kompakt: Bremer Straßenbahn, Google, OpenClaw, GitHub

Shownotes

Das ist das KI-Update vom 23.02.2026 unter anderem mit diesen Themen:

Bremens Straßenbahnen werden zur KI-Überwachungszone KI-Systeme blockten 2025 Millionen schädliche Apps OpenClaw trifft auf Smart Glasses und GitHub will gegen AI Slop in Open Source vorgehen

=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===

Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11186054

Weitere Links zu diesem Podast: https://www.heiseplus.de/audio https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.ct.de/ki

Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.

Transkript anzeigen

00:00:02: Das KI Update, ein Heise-Podcast mit redaktioneller Unterstützung von The Decoder.

00:00:13: Ich bin Isabel Grünewald und die sind heute unter anderem unsere Themen.

00:00:18: Brems Straßenbahnen werden zur KI Überwachungszone.

00:00:22: Googles KI Systeme blocken Millionen schädliche Apps.

00:00:26: OpenClaw trifft auf Smart Glasses – und GitHub will gegen AI Slop in Open Source vorgehen!

00:00:33: In Bremen werden die Straßenbahnen mit KI ausgestattet.

00:00:37: Das sollte Sicherheit dienen, aber die Bilder werden weitreichend ausgewertet – das ist nicht nur teuer!

00:00:43: Eine solche Überwachung ist für viele auch fragwürdig.

00:00:46: Mehr dazu weiß Eva-Maria Weiß von Heise Online.

00:00:49: Die Bremer Straßenbahn AG will vierzig Bahnen mit Kameras ausstatten.

00:00:55: Das kostet jeweils zehntausend Euro.

00:00:58: die von den Kameras aufgenommenen Bilder sollen dann mittels KI ausgewertet werden.

00:01:03: Was das kostet, ist bisher nicht bekannt.

00:01:07: Klar ist aber es wird teuer sein und weil KI bekanntlich sehr fehleranfällig ist, sollen Menschen die Bilder auch überwachen und gegebenenfalls eingreifen – das Personal kostet natürlich auch Geld!

00:01:20: Wozu das Ganze?

00:01:22: Der KI-Einsatz wird mal wieder mit einem doch eher subjektiven Sicherheitsgefühl begründet.

00:01:28: Die Kameras sollen die Bahnen bzw das, was in den Bahnen passiert nämlich sicherer

00:01:33: machen.

00:01:34: Im Zweifel sollen diese Themen anschlagen und etwa eine Schlägerei erkennen können Und dann kann ein Mensch also Personal Daraufhin die Polizei verständigen.

00:01:46: Das Geschehen, also die Schlägerei wird so natürlich nicht verhindert sondern es geht nun nachträglich darum ob man vielleicht die Täter noch fassen kann Ob sich Menschen von Kameras wirklich abschrecken lassen?

00:02:01: Kann man natürlich auch nicht so genau sagen.

00:02:04: Klar ist auch dass alle Fahrgäste aber auf den Video Aufzeichnungen grundsätzlich erstmal festgehalten werden.

00:02:11: Datenschutzrechtlich sei das jedoch völlig unbedenklich, versichert die Bremer Straßenbahn AG.

00:02:17: Wenn es um vermeintliche Sicherheit geht, ist ja schnell vieles erlaubt.

00:02:21: Aber tatsächlich die Verarbeitung der Daten soll auch in den Bahnen stattfinden – also wahrscheinlich dann in den Kameras selbst und Gesichter werden automatisch verpixelt wenn diese weitergeleitet werden.

00:02:34: Eine nachträgliche Zuordnung ist also nur über die Klamotten oder andere Merkmale wie die Größe oder die Haarfarbe von einem Täter möglich.

00:02:44: Bremen ist nicht die erste Stadt, die ein solches System eingeführt hat.

00:02:47: In Hamburg werden Fahrgäste ebenfalls überwacht und siehe da manch liebevolle Umarmung soll dort schon mit einer Schlägerei verwechselt worden sein.

00:02:57: Trainiert wurden sind diese Systeme übrigens mit Theaterfahrten das heißt es hat zum Beispiel unechte Schlägereien gegeben die dann als Datenmaterial verwendet wurden.

00:03:07: Danke schön Eva.

00:03:09: Die Organisation AI Forensics hat mehr als zehntausend Zusammenfassungen von Apple Intelligence untersucht und dabei deutliche Verzerrungen festgestellt.

00:03:20: Apple Intelligence erstellt automatisch Kurzfassung von Nachrichten- und E-Mails auf vielen Millionen Appelgeräten.

00:03:27: Bei der Analyse zeigte sich, wenn es um weiße Personen ging wurde ihre Herkunft nur in etwa der Hälfte der Fälle erwähnt – bei asiatischen Personen geschah das fast immer!

00:03:38: AI Forensic sieht darin ein Zeichen dafür, dass weiß sein als normal und daher nicht erwähnenswert behandelt wird.

00:03:45: Besonders problematisch sind unklare Texte – wenn zum Beispiel einen Pronomen nicht eindeutig war, was gerade im Englischen ja oft der Fall ist, legte sich das System trotzdem meist fest!

00:03:56: Und oft passen zu typischen Geschlechterklischees.

00:04:00: Außerdem dichtete die KI in einigen Fällen Eigenschaften hinzu, die im Originaltext gar nicht standen….

00:04:06: Auch diese entsprachen meist gängigen Vorurteilen.

00:04:09: Im Vergleich dazu machte Googles kleineres Modell Gemma III-Ib solche Fehler bei identischen Szenarien nur in sechs Prozent der Fälle.

00:04:18: Das größte Problem dabei ist, dass Nutzende bei Apple Intelligence gar nichts eingeben müssen – die verzerrten Zusammenfassungen erscheinen unaufgefordert auf dem Schwerbildschirm und im Prosteingang!

00:04:30: Google hat für den Play Store deutlich weniger Schadprogramme entfernen müssen als früher.

00:04:37: Das ist wohl auch ein Erfolg verschärfter Sicherheitsmaßnahmen und KI-gestützter Kontrollen, Malte Kirchner aus dem heise online Newsroom mit den Einzelheiten.

00:04:46: Mehr als eineinhalb Millionen Apps hat Google im vergangenen Jahr geblockt – bevor sie überhaupt im Play Store erscheinen konnten!

00:04:54: ist aber tatsächlich ein Rückgang.

00:04:56: In den letzten Jahren waren es noch zwei Komma drei sechs Millionen blockierte Apps und das ist für Google eine Erfolgsmeldung, denn der Konzern erklärt diesen Rückgang nicht damit dass weniger Schadsoftware eingereicht wird sondern damit das Angreifer ist gar nicht erst versuchen.

00:05:10: die Hürden sind schlicht gestiegen.

00:05:12: Entwickler müssen sich heute vor dem Einreichen einer App verifizieren lassen.

00:05:16: Google nimmt nach eigenen Angaben mehr als zehntausend Sicherheitschecks pro App vor und generative KI hilft menschlichen Prüfern dabei, komplexe Shard Software-Muster schneller zu erkennen.

00:05:26: Gleichzeitig sperrte Google über achtzigtausend Entwicklerkonten wegen versuchter Shardsoftware für Öffentlichungen – auch das deutlich weniger als im Vorjahr mit hundertfünfzigtaussend gesperrten Konten.

00:05:37: Interessant ist aber auch ein anderer Trend.

00:05:39: Während der Play Store sicherer wird, wächst die Bedrohung außerhalb davon rasant.

00:05:43: Google Play Protect, der eingebaute Schutzdienst für Endvoid hat im Jahr- und Jahrzehnte mehr als siebenundzwanzig Millionen schädliche Apps erkannt, die am offiziellen Store vorbei installiert wurden – also per sogenanntem Side-Loading.

00:05:55: Zum Vergleich zum Jahrzehnzehnten waren es nur fünf Millionen.

00:05:58: Der Dienst scannt täglich über dreihundertfünfzig Milliarden Apps auf Android-Geräten weltweit.

00:06:04: Das erklärt auch, warum Google ab Herbst zwanzig das Installieren nicht verifizierter Apps von außen deutlich schwieriger machen will.

00:06:11: Wie real die Gefahr ist zeigt ein Beispiel aus dem August zwanzivundzwanzig.

00:06:15: Damals wurden sieben Siebzig Apps mit insgesamt neunzehn Millionen Installationen im Play Store entdeckt, die Banking Trojaner enthielten.

00:06:22: Daneben blockierte Google über zweieinhalbundfünfzigtausend Apps wegen übermäßigen Gebrauch auf sensible Nutzerdaten und hundertsechzig Millionen gefälschte Bewertungen, mit denen Apps gezielt geschädigt werden sollten.

00:06:34: Für zwei tausendsechsundzwanzig kündigt Google weitere KI-gestütze Schutzmaßnahmen an.

00:06:38: Die Richtung ist klar – der Play Store wird zur Festung.

00:06:41: aber das Spielfeld verlagert sich zunehmend dorthin wo Google weniger Kontrolle hat Und KI ist das beste Mittel dass Google hat um die Kontrolle darüber zu behalten.

00:06:50: Vielen Dank Malte.

00:06:52: Das KI-Unternehmen Anthropic hat Millionen realer Interaktionen zwischen Menschen und KI-Agenten ausgewertet.

00:06:59: Das Ergebnis ist eindeutig, knapp die Hälfte aller agentischen Aktivität entfällt auf Softwareentwicklung.

00:07:06: Bereiche wie Kundenservicevertrieb oder Finanzen machen jeweils nur wenige Prozentpunkte aus.

00:07:12: Warum das so ist, erklärt uns Kim Schorrenbrand von The Decoder.

00:07:20: Software-Entwicklerinnen und Entwicklern hätten als erste agentische Werkzeuge im großen Maßstab gebaut und genutzt.

00:07:27: Andere Borschen befinden sich noch in der Experimentierphase, besonders auffällig ist die Entwicklung bei unternehmenseigenen Coding-Agenten wie Cloud Code.

00:07:36: Die längsten autonomen Arbeitsphasen haben sich zwischen Oktober twenty-fünfundzwanzig und Januar zweitausendsechsenswanzig fast verdoppelt – von unter zwanzig Minuten auf mehr als viertzig Minuten!

00:07:49: Der Anstieg verläuft dabei gleichmäßig über verschiedene Modellreleases hinweg.

00:07:53: Anthropic deute das als Zusammenspiel mehrerer Faktoren, erfahrene Nutzerinnen und Nutzern bauen Vertrauen auf, stellen anspruchsvollere Aufgaben um.

00:08:02: das Produkt verbessert sich kontinuierlich.

00:08:04: Anthropic beschreibt dieses Phänomen als deployment overhang.

00:08:08: Die Autonomie, die Modelle technisch bewältigen können übersteigt das was Menschen ihnen der Praxis abverlangen.

00:08:14: Als Referenz zieht Anthropik eine externe Bewertung des Forschungsinstituts METR heran.

00:08:21: Das Institut schätzt dass Claude's aktuelles Spitzenmodell Aufgaben mit einer fünftig prozentigen Erfolgsrate lösen kann für die ein Mensch fast fünf Stunden bräuchte.

00:08:31: Ein weiteres Muster aus den Daten, Claude Codt stellt bei anspruchsvollen Aufgaben häufiger von sich aus Rückfragen als Menschen, denen Agenten unterbrechen.

00:08:39: Anthropik wertet das als Sicherheitsmechanismus Modelle darauf zu trainieren die eigene Unsicherheit zu erkennen ergänze externe Schutzmaßnahmen wie Berechtigungssysteme.

00:08:48: Produktentwickler und politischen Entscheidungsträgern empfehlt Anthropic den Ausbau von Monitoring nach dem Einsatz.

00:08:55: Gleichzeitig waren das Unternehmen davor jede einzelne Agentenaktion manuell genehmigen zu lassen.

00:09:00: Das hat zur Gereibung, ohne zwingend mehr Sicherheit zu bringen.

00:09:03: Danke schön Kim!

00:09:06: Um Cloudcode zu verbessern, hat Anthropic jetzt Cloudcode Security direkt in die webbasierte Version integriert.

00:09:13: Das Werkzeug durchsucht Code-Basen nach Sicherheitslücken und schlägt gezielt Softwarepatches zur menschlichen Überprüfung vor wie das Unternehmen auf seiner Website mitteilt.

00:09:23: Angreifer nutzen immer häufiger subtile kontextabhängige Sicherheitslücken aus Während sich viele Analyse-Tools auf die Suche nach bekannten Mustern konzentrieren und an diesen subtilen Angriffen scheitern, liest und analysiert Claude Code Security den Code so wie es eine menschliche Sicherheitsexpertin tun würde.

00:09:44: Die Ergebnisse stellt das Werkzeug in einem Dashboard bereit, indem Security Teams die vorgeschlagenen Patches prüfen und freigeben können.

00:09:53: unmittelbare Auswirkungen an der Börse.

00:09:55: Laut Bloomberg fielen die Aktienkurse zahlreicher Cybersecurity-Unternehmen am Freitag deutlich, viele Investoren fürchten offenbar dass die Möglichkeit des sogenannten Vibe-Codings die Nachfrage nach etablierten Softwareprodukten verringern wird.

00:10:12: Wenn wir von Vibe Coding sprechen meinen wir damit das ein großes Sprachmodell den Quellcode generiert und der menschliche Beitrag sich weitgehend auf das Formulieren von Anweisungen beschränkt.

00:10:23: Entsprechend sind für Vibecoding nicht zwingende Programmierkenntnisse erforderlich.

00:10:28: Ein Entwickler hat nun dem KI-Agenten OpenClaw über seine Smartglasses Programmeanweisungen gegeben, die Fortschritte hatte er dann auf dem Display immer im Blick, berichtet Thomas Love Besmalinovic von Heise Online.

00:10:49: In dem Video spaziert er durch New York, während er den KI-Agenten OpenClaw über seinen Meta Rayband Display und das darauf installierte WhatsApp Sprachanweisungen gibt.

00:11:02: Der Chatverlauf erscheint direkt in seinem Sichtfell so dass er den Fortschritt von OpenClaar gesendete Screenshots live mit verfolgen kann.

00:11:12: Der KI Agent läuft auf einem Mac Studio in Ladners Wohnung und nutzt OpenAI's Coding Werkzeug Codecs um den Programmcode zu schreiben.

00:11:20: Im Video lässt Ledner OpenClear seiner KI-Kalorienzeller App Track GPT eine Speicherfunktion für häufige Mahlzeiten hinzufügen.

00:11:29: Nach Freigabe spielt der Agent den Code automatisch ein und der neue Speichernbutton geht in die App Live.

00:11:35: Im Grunde kann jeder heute von überall aus Apps entwickeln, mit OpenClaw, OpenAI Kodak und MetaRay Band Smart Glasses sagt Ledner an seinem Video.

00:11:46: Ganz so einfach wie es Ledners suggeriert ist das freilich noch nicht.

00:11:50: OpenCloud birgt derzeit erhebliche Sicherheitsrisiken und setzt idealerweise eine dedizierte Recheneinheit voraus, was für viele Nutzer kaum praktikabel sein dürfte.

00:12:01: Die Meta Rayband Display ist zu den bislang nur in den USA erhältlich Eine weitere Einschränkung bei der Meta-Rayband-Display ist das Drittentwickler derzeit keinen Zugriff auf das Display haben.

00:12:14: Aus diesem Grund nutzt Ledner WhatsApp um mit OpenCloud zu kommunizieren.

00:12:20: In den

00:12:41: USA schießen KI Rechenzentren aus dem Boden.

00:12:45: Der Strombedarf ist immens!

00:12:48: Dabei setzen die großen Tech-Unternehmen zunehmend auf Energieerzeugung, die nicht ans öffentliche Stromnetz angeschlossen ist.

00:12:55: Das kann neben steigenden Kosten für Privathaushalte auch weit reichende Folgen für den Umwelt und den Klimaschutz haben, berichtet The Washington Post.

00:13:04: Dennach entsteht gerade ein regelrechtes Schattennetz!

00:13:08: Die Zeitung verweist auf eine ganze Reihe von Projekten, die unter anderem im Auftrag von Meta, OpenAI, Oracle oder sogar des Ölkonzerns Chevron entstehen.

00:13:17: Meist würden sie dabei auf Gaskraftwerke setzen, weil diese als zuverlässiger gelten – als Photovoltaik oder Windenergie.

00:13:25: Weil die effizientesten Gasturbien aber lange Lieferzeiten hätten, würden weniger umweltfreundlicher eingesetzt.

00:13:32: Das dürfte dann auch den Ausstoß an Treibhausgasen in die Höhe treiben!

00:13:37: Das ist Katastrophal für die Klimaziele, zitiert die Zeitung einen Experten für erneuerbare Energiequellen.

00:13:44: Auch in Deutschland wird überlegt, wie dem Energiebedarf neuer Rechenzentren mit unkonventionellen Methoden Rechnung getragen werden kann.

00:13:52: Allerdings sind die Rahmenbedingungen hier in einigen Punkten deutlich anders als in den USA.

00:13:57: Weil vollständige Netzunabhängigkeit in Europa weder regulatorisch noch wirtschaftlich kurzfristig realistisch ist, geht die Branche hier einen anderen Weg – sogenannte Microgrids!

00:14:09: Das sind Campus-eigene Stromnetze die zwar an das öffentliche Netz angebunden bleiben, aber im Fehlerfall als eigenständige Insel funktionieren können.

00:14:19: Batteriespeicher stabilisieren dabei die Versorgung, Gaskraftwerke oder in Zukunft auch wasserstofffähige Anlagen übernehmen die Grundlast.

00:14:28: NBW und RWE planen solche Anlagen explizit als Anker für Rechenzentrumscluster.

00:14:35: Solche Lösungen wirken sich allerdings indirekt auf die Stromkunden aus – wer sich ein eigenes Microgrid leistet?

00:14:41: Entlastet zwar das öffentliche Netz, zahlt aber auch weniger Netzendgelte.

00:14:46: Die Kosten für die verbleibenden Nutzerinnen und Nutzern steigen.

00:14:50: Im Rahmen des India AI Impact Summit gab OpenAI-Mitbegründer Sam Altman der Tageszeitung The Indian Express eines seiner seltenen ausführlichen Interviews.

00:15:01: Dabei wurde er ja auch nach der von Konkurrent Elon Musk propagierten Idee von Rechenzentren im Weltall befragt.

00:15:08: Ganz ehrlich glaube ich, dass mit der gegenwärtigen Umgebung die Idee von Rechenzentren im All lächerlich ist.

00:15:15: So Ordnans Antwort Wenn man nur die einfachste Berechnung der Kosten des Transport ins All durchführe – zeige sich das!

00:15:22: Ein anderes ungelöstes Problem sei die Reparatur defekter GPUs im All denn so Ordnann leider gehen sie immer noch sehr oft kaputt.

00:15:31: Er glaubt nicht daran, dass die Idee im laufenden Jahrzehnt umgesetzt werden kann.

00:15:35: Auf die Frage nach den Kosten von KI Insbesondere was Energie betrifft, ließ sich Ordman zu einem merkwürdigen Vergleich hinreisen.

00:15:44: Oft werde eine Anfrage bei ChatGPT mit einer Anfrage an einen Menschen verglichen.

00:15:49: Es braucht aber zwanzig Jahre Leben und all das Essen dass man in dieser Zeit ist bevor man schlau wird.

00:15:56: Dazu kommen noch die gesamte Evolution der Menschheit.

00:15:59: Und wenn man die Energieeffizienz auf diese Art misst dann hat die KI vielleicht schon aufgeholt findet Ordman.

00:16:07: Immer mehr Open Source Projekte leiden unter der Flut oft wertloser KI-Beiträge über GitHub.

00:16:12: Der Betreiber hat nun erste Maßnahmen dagegen angekündigt.

00:16:17: Wolf Hossbach von Heise Developer erklärt, worin genau die Probleme aktuell bestehen?

00:16:22: Vielleicht muss man erst mal wissen wie so ein Open Source Projekt überhaupt funktioniert.

00:16:29: Das besteht im Grunde aus einem Kern von sogenannten Maintainern, die sich also maßgeblich darum kümmern Und die kriegen jetzt ständig irgendwelche Beiträge von anderen Teilnehmenden an diesem Projekt vom Kontributoren, die geprüft werden müssen.

00:16:47: Also diese Beiträge da gibt es Issus also Probleme.

00:16:50: teilweise, teilweise sind das auch einfach Ideen von irgendwelchen Leuten, die hier beitragen wollen und die kommen auf diese Maintainer in sogenannten Pull Requests zu die sie dann anschauen müssen und eventuell in den Code von dem Projekt übernehmen müssen.

00:17:07: Das hat mit künstlicher Intelligenz jetzt sehr stark zugenommen, weil letztendlich kann man so eine KI einfach auf eine Code-Sammlung auf ein Repository loslassen und kann sagen hier hast du dieses oder jenes Issue bitte löst das!

00:17:22: Und das macht die KI inzwischen tatsächlich sehr automatisch alles.

00:17:28: Die Frage ist nur, was dabei rauskommt und ob das auch in der Form geschieht, sage ich mal die jetzt überhaupt in das Projekt reinpasst.

00:17:37: Und diese KI-generierten Pull Requests haben wir so stark zugenommen dass die Maintainer teilweise sehr stark runter leiden durch den enormen Arbeitsaufwand, den sie damit haben und durch den großen Ausschuss, der dabei entsteht.

00:17:52: also da hat sich inzwischen auch der Begriff AI Slope AI-Match-Sparts würde man vielleicht sagen, AI-müll hat sich hier etabliert als Begriff.

00:18:05: Genau und die Frage ist natürlich warum machen das Leute überhaupt?

00:18:11: Der Grund ist so ein bisschen dass die suchen Reputationen.

00:18:14: Die wollen sagen ich bin hier ich trage jetzt zum Open Source Projekt was er sich zu Mozilla Thunderbird bei.

00:18:21: Ich bin Thunderbird Entwickler.

00:18:24: Wenn jetzt einer von ihren Pro-Requests angenommen wurde, von den Maintainern und das trägt zu ihrer Reputation bei.

00:18:32: Also zum Beispiel wenn man sich als junger Entwickler irgendwo bewerben will dann sind solche Sachen natürlich gut und KI geht das sehr einfach.

00:18:40: Man muss nicht mehr selber darüber nachdenken was schreibe ich schon Code wie trage ich bei?

00:18:44: Muss vielleicht mit den Mäntainern erst mal reden was braucht ihr eigentlich überhaupt?

00:18:48: Und warum ist es ein Problem für GitHub?

00:18:51: In dem ganzen steht GitHub so ein bisschen den Kritik als Hosting-Plattform für solche Open Source Projekte, weil hier sagen wir mal sind diese KI Geschichten sehr tief verwurzelt.

00:19:02: Da muss man auch einfach wissen das Github gehört zur KI Abteilung von Microsoft.

00:19:07: also KI steht hier so ein bißchen im Programm und viele Mentäne haben einfach kritisieren das und sagen sie Sie haben hier wenig zu wenig Unterstützung was jetzt teilweise schon dazu geführt hat, dass Projekte also JitHub verlassen und zu anderen Repository-Plattformen zum Beispiel zu Codeberg gehen.

00:19:28: Also z.B.

00:19:29: GentooLinux ist so ein Fall der sich von JitHUB gerade trennt.

00:19:34: Letztendlich hat aber JITHUB da auch etwas kleinlaut geworden bei dem Ganzen und hat vor ein paar Wochen die Community um Feedback gebeten hat daraufhin jetzt mehrere Änderungen angekündigt, noch keine umgesetzt aber schon mal angekünstigt.

00:19:53: und das erste ist einfach schonmal man kann diese Pull Request schneller löschen.

00:19:59: Vorher mussten tatsächlich die Montana sich genauer anschauen und prüfen und jetzt können sie hergehen und können da einfach in ihre Liste im Blick rein werfen und sehen in vielen Fällen ja es ist nur Müll und können das also gleich löschen, um die Übersichtlichkeit in Ihrem Workflow zu behalten oder zu verbessern.

00:20:19: Und zweiter Punkt ist zum Beispiel dass Sie die Teilnehmer auf eine Gruppe beschränken können Also vielleicht Leute, die schon mehrere andere bei anderen Projekten mitgearbeitet haben Die andere Pull Requests angenommen vorweisen können, die Issus gelöst haben Oder zB auch eine automatische Prüfung von Pull Requets bestimmte Kriterien, die man im Vorfeld definieren kann.

00:20:47: Also Github kommt jetzt da der Community auch ein bisschen entgegen, KI in Kern hinunterher.

00:20:56: Die Frage ist natürlich wie das jetzt konkret wirklich aussieht und wie die Community das entgegnimmt?

00:21:03: Es gibt auch natürlich andere Gründe.

00:21:05: zum Beispiel zu Codebot zu wechseln.

00:21:07: ist dass es ein offenes Projekt ist Mit Sitz in Berlin.

00:21:13: von der Communities steht also keine von den großen Tech-Giganten dahinter, was ja auch so ein bisschen zunehmend kritisch betrachtet wird im Hinblick auf die digitale Souveränität.

00:21:41: Es ist das erste Mal, dass die MPA direkt gegen ein KI-Unternehmen vorgeht.

00:21:47: Der Verband spricht von systemischer Rechtsverletzung.

00:21:51: ByDance habe sein Modell ohne Zustimmung auf den Werken der Studios trainiert und den Dienst ohne ausreichende Schutzmaßnahmen veröffentlicht.

00:22:00: Auslöser war eine Welle viraler Videos mit geschützten Charakteren aus Marvels, Star Wars und weiteren Franchises, die kurz nach dem Start von CDANCE.

00:22:10: Bereits zuvor hatten Netflix, Warner

00:22:11: Bros.,

00:22:12: Disney Paramount und Sony eigene Unterlassungsschreiben verschickt.

00:22:16: By Dance erklärte daraufhin, man arbeite an stärkeren Schutzmaßnahmen – nannte aber keine Details!

00:22:23: Das war der MPA offenbar nicht genug.

00:22:26: Berichten zur Folge verzögern die Auseinandersetzungen nun den Start der öffentlichen API von C-Dance II.

00:22:34: Bei OpenAI arbeiten mehr als zweihundert Mitarbeiterinnen und Mitarbeiter an eigener KI-Hardware.

00:22:41: Jetzt hat sie Informationen dazu weitere Infos von einer internen Quelle herausbekommen!

00:22:46: Als erstes Produkt soll demnach ein Smart Speaker für zweihundert bis dreihundert US-Dollar erscheinen – er erfasst per Kamera, Menschen und Umgebung, beobachtet Sie per Video und könnte sogar Einkäufe wie ihr Gesichtserkennung ermöglichen.

00:23:00: Ein Marktstaat ist frühestens Anfang of the year.

00:23:04: Weitere Projekte wie eine Smart Lamp oder Smart Glasses befinden sich in einer frühen Phase.

00:23:12: Das Hardware-Team ging aus der Übernahme des Startups IO von Apples ehemaligem Designchef Joni Eif hervor, der weil setzt Apple ohne Eif bei KI Hardware stark auf Kameras!

00:23:24: Geplant sind eine smarte Brille ohne Display, ein KI-Anhänger sowie Airpods mit Kamerasystem.

00:23:31: Die Geräte sollen die visuelle Intelligenze ausbauen – also die KI-Analyse der Umgebung!

00:23:37: Ein erstes Produkt könnte noch in diesem Jahr erscheinen.

00:23:41: Nach dem überraschenden Führungswechsel bei Microsofts Xbox Sparte hat die neue Leiterin der Abteilung Asha Sharma in einem Memo ihre Pläne grob umrissen.

00:23:51: Laut The Verge nennen sie darin drei Schwerpunkte tolle Spiele, die Rückkehr von Xbox und die Zukunft des

00:23:58: Spielens.

00:23:59: Ein Beispielerinnen und Spielern stark umstrittenes Thema spricht Sharma auch an – nämlich KI in der Entwicklung!

00:24:06: Man wolle zwar Spiele mit den modernsten Technologien erschaffen aber sie sollen sofortlich Kunst erstellt von Menschen bleiben.

00:24:15: Immerhin schreibt die neue Chefin der Spiele-Sparte auch Wir werden weder kurzfristig Effizienz anstreben Noch unser Ökosystem mit seelenlosem KI-Schrot überschwemmen.

00:24:27: Das war das KI-Update von Heise Online vom XXIII.

00:24:30: Februar, und eine neue Folge gibt es immer montags, mittwochs und freitags um fünfzehn Uhr!

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.