KI-Update kompakt: Gesetz für Kinderschutz, ChatGPT-Erotik, OpenAI-KI-Chip, DGX Spark
Shownotes
Das ist das KI-Update vom 15.10.2025 mit diesen Themen:
Kalifornien verpflichtet KI-Unternehmen zu mehr Kinderschutz ChatGPT erlaubt erotische Inhalte OpenAI entwirft ersten hauseigenen KI-Chip Nvidias neuer KI-Computer
Links zu allen Themen der heutigen Folge findet Ihr hier:
https://www.heise.de/thema/KI-Update
https://www.heise.de/newsletter/anmeldung.html?id=ki-update
https://www.heise.de/thema/Kuenstliche-Intelligenz
https://www.heiseplus.de/podcast
Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Transkript anzeigen
00:00:02: Das KI-Update,
00:00:04: ein Heise-Podcast mit redaktioneller Unterstützung von
00:00:07: The Decoder.
00:00:14: Ich bin Marco Pauli und dies sind heute unter anderem unsere Themen.
00:00:18: Kalifornien verpflichtet KI-Unternehmen zu mehr Kinderschutz.
00:00:22: ChatGPT erlaubt erotische Inhalte, NVIDIAs neuer KI-Computer und OpenAI entwirft einen ersten hauseigenen KI-Chip.
00:00:32: Kalifornien verschärft die Regeln für KI Chatbots.
00:00:35: Mit einem neuen Gesetz verpflichtet der US-Bundesstaat Unternehmen wie OpenAI, Matter und Character AI ab Januar, zu umfassenden Schutzmaßnahmen für Kinder und besonders gefährdete Gruppen.
00:00:49: Max Schreiner von The Decoder hat sich das Gesetz angeschaut.
00:00:53: Auslöser des Gesetzes waren mehrere Fälle in den Jugendlichen nach Chats mit KI-Companions von Character AI oder anderen Anbietern, aber auch mit ChatGBT-Suizid begangen hatten.
00:01:04: Mehrere Klagen gegen das Unternehmen Character AI, das unter anderem von Google finanziert wird, laufen deshalb und Governor Gavin Newsom unterzeichnete das Gesetz jetzt am Montag.
00:01:14: Es ist das erste, seine Art in den Vereinigten Staaten und schreibt verbindliche Standards im Umgang mit solchen KI-Bekleitern fest.
00:01:21: Plattformen müssen künftig sicherstellen, dass Kinder erkannt und geschützt werden, dazu zählen Altersverifikationen, Warnhinweise und die klare Kennzeichnung, dass es sich unkünstliche Gesprächspartner handelt.
00:01:33: Das Gesetz legt auch zahlreiche inhaltliche Grenzen fest.
00:01:36: Die Chatbots dürfen sich nicht als medizinischer Fachkräfte ausgeben und keine sexualisierten Inhalte gegenüber minderjährigen erzeugen.
00:01:44: Anbieter müssen ihren Diensten, Pausen und krisenenweisenden Zufügen und Verfahren entwickeln, um in Notfällen an Hilfseinrichtungen zu verweisen.
00:01:52: Diese Protokolle müssen sie regelmäßig an das Gesundheitsministerium Kaliforniens übermitteln.
00:01:57: SPA-Zwei vier drei sieht außerdem Sanktionen gegen die missbräuchliche Nutzung sogenannte Deepfags vor.
00:02:03: Wer von gefälschten Bildern oder Videos zum Schaden anderer profitiert, muss künftig mit Geldstrafen von bis zu zweieinfünfzigtausend US-Dollar rechnen.
00:02:11: Die Regeln gelten dabei unabhängig davon, ob der Verstoß durch Einzelpersonen oder Unternehmen erfolgt.
00:02:35: Bei OpenAI schraubt man offenbar ein bisschen hin und her an den Einstellungen, wer was darf.
00:02:41: Nachdem es kürzlich vielfach Vorwürfe gab, dass Gespräche mit dem Chatbot vor allem Kindern und Jugendlichen schaden können, hat OpenAI als erstes so ein bisschen den Hahn zugedreht und mehr Leitplanken eingebaut.
00:02:55: Und nun ist auch ein spezieller Jugendmodus angekündigt worden, aber ganz frisch auch eine Art Erwachsenenmodus.
00:03:02: Das liegt zum Teil auch daran, dass die Gesetzgeber so etwas verlangen.
00:03:07: Ganz frisch in Kalifornien wurde gerade ein Gesetz unterzeichnet, das eine Altersverifikation für Chatbots vorsieht.
00:03:15: Aber auch in anderen Ländern ist Jugendschutz natürlich Pflicht.
00:03:20: Die Änderung wird im Dezember kommen.
00:03:23: Oldman schreibt dazu, man wolle Erwachsene endlich behandeln wie Erwachsene.
00:03:29: Das hat man offenbar vorher nicht getan.
00:03:31: Gut.
00:03:32: Und das soll wohl heißen?
00:03:34: dass Erwachsene alles selbst entscheiden können.
00:03:37: Grundsätzlich soll ChatGPT offenbar auch eher persönlicher und menschlicher wirken.
00:03:44: Oldman verspricht nämlich eine neue Version des Chatbots, der eher GPT.foO entspricht als dem neutraleren eigentlich neuerem GPT.Five.
00:03:55: Ob erotik jetzt meint, man kann dann mit ChatGPT ein bisschen flirten oder ob es doch noch deutlich expliziter werden darf, das ist nicht klar.
00:04:05: Und was wir auch nicht wissen, ist, wie OpenAI denn ganz konkret das Alter der Nutzer kontrollieren will.
00:04:12: Altersverifikation im Internet hat bisher noch immer zu Diskussionen geführt.
00:04:18: Meist handelt es sich dabei nämlich um eine simple Selbstabfrage und klar, dass das kein besonders hoher Schutz ist.
00:04:26: Social Media-Plattformen wie Instagram, zum Beispiel, werden zudem das Verhalten von Nutzern aus.
00:04:31: Wenn jemand auffällig viele Inhalte konsumiert, die typisch sind für Jugendliche, dann wird im Zweifel ein Konto sogar quasi abgestuft und zu einem Teamkonto umgewandelt.
00:04:43: Aber das passiert natürlich erst in der Folge.
00:04:46: Das heißt, da ist das Kind schon ein bisschen in den Brunnen gefallen.
00:04:50: Wie das dann bei Chatchi-PT aussehen wird, müssen wir noch abwarten.
00:04:55: OpenAI entwirft einen ersten hauseigenen KI-Chip.
00:04:59: Den Auftrag zur Entwicklung hat der US-Chiphersteller Broadcom erhalten.
00:05:04: Der neue Chip-Deal ist Teil der Bemühungen von OpenAI, die steigende Nachfrage nach KI-Rechenleistung zu decken.
00:05:11: OpenAI wird die Chips entwerfen und Broadcom dann ab der zweiten Hälfte des kommenden Jahres entwickeln und einsetzen.
00:05:19: Gerüchte, dass OpenAI und Broadcom eigene KI-Chips entwickeln wollen, gab es schon länger.
00:05:25: Einem Post eines OpenAI-Entwicklers zufolge ist der Chip bereits seit achtzehn Monaten in Entwicklung.
00:05:33: Die Zusammenarbeit von OpenAI und Broadcom reiht sich ein in große Chip-Investitionen in den vergangenen Wochen und Monaten.
00:05:41: So gab OpenAI in der vergangenen Woche bereits den Kauf von KI-Chips mit einer Kapazität von insgesamt sechs Gigawatt von AMD bekannt.
00:05:51: Ende September wiederum kündigt der US-Chiphersteller Nvidia bereits an, seinerseits insgesamt einhundert Milliarden US-Dollar in OpenAI zu investieren.
00:06:02: Die beiden Konzerne wollen neue Rechenzentren errichten, die mindestens zehn Gigawatt Anleistung umfassen.
00:06:09: Nvidia liefert nun den ersten eigenen Minipz DGX Spark aus, bei dem soll die KI-Leistung im Vordergrund stehen.
00:06:19: Der Speicher soll für lokale KI-Modelle mit bis zu zweihundert Milliarden Parametern reichen.
00:06:25: Mag Mantel mit mehr Informationen.
00:06:27: Nvidia beginnt nach monatelanger Verspätung mit der Aussiefung seines Minipz DGX Spark mit dem eigenen ARM-Prozessor GB-Cen.
00:06:35: F-Ain-Zwanzig-CPU-Kernel mit einer starken GPU und und und und und und und und und und und und und und und und und und und und und und und und und und und und und Die Preise reichen von ¾ bis ¾ Euro.
00:07:12: Danke, Marc.
00:07:31: Das hat der US-Konzern angekündigt.
00:07:34: Bisher ist Nano-Banana das offizielle Gemini-Flash-Image heißt, nur über die Gemini-App nutzbar.
00:07:42: Bis jetzt seien bereits fünf Milliarden Bilder mit dem Werkzeug generiert worden, so ein Produktmanager von Google.
00:07:49: Dabei wurde das Tool erst im August twenty-fünf vorgestellt.
00:07:53: In der Google-Suche können Nutzer zukünftig neu erstellte Bilder oder solche aus der Galerie mit Nano-Banana bearbeiten.
00:08:00: Dazu öffnen Sie die Airblends und können das Bild im Create-Modus per Prompt-Eingabe ändern, etwa eine Person in eine andere Umgebung versetzen, den Gesichtsausdruck verändern oder auch aus einem Farb ein Schwarz-Weiß-Foto machen.
00:08:16: In Notebook LM soll Nano-Banana die Video-Overviews erweitern, um die KI-generierten Präsentationen dort grafischer zu gestalten.
00:08:26: Dabei stehen sechs Bildstile zur Verfügung.
00:08:28: So können die Bilder in einem Video-Overview nun etwa wie mit Wasserfarben gemalt aussehen oder wie aus der Anfangszeit der Fotografie.
00:08:39: In den kommenden Wochen will Google Nano-Banana auch in Google Fotos integrieren.
00:08:44: Microsoft versucht sich ganz offensichtlich immer weiter von OpenAI zu lösen.
00:08:50: Nach dem ersten eigenen großen Sprachmodell May Voice One stellt das Unternehmen nun mit May Image One auch den ersten Bildgenerator vor, der im eigenen Haus entwickelt wurde.
00:09:02: May Image One soll vor allem darauf trainiert worden sein, verschiedene Stile zu reproduzieren.
00:09:07: Dafür habe man z.B.
00:09:09: Wert auf eine strenge Datenauswahl für das Training gelegt.
00:09:12: Zudem schreibt man Microsoft sei Feedback aus der Kreativbranche in die Entwicklung des Modells eingeflossen.
00:09:20: Der Bildgenerator richtet sich auch konkret an Creator, eine Abgrenzung zu etwa Open-AIS-Bild- und Videogeneratoren, die frei verfügbar von der breiten Masse und vorwiegend zum Spaß genutzt werden.
00:09:33: May Image One soll in der LM Arena unter die zehn besten Bildgeneratoren gekommen sein.
00:09:39: Die Arena ist eine Testumgebung, bei der Ergebnisse von KI-Modellen durch Menschen bewertet werden.
00:09:46: Der Bildgenerator ist laut Microsofts Blockbeitrag demnächst via Co-Pilot und Bing Image Creator verfügbar.
00:09:53: Bis dahin kann er weiterhin in der LM Arena ausprobiert werden.
00:09:58: Besonders gut soll er übrigens bei photorealistischen Bildern abschneiden.
00:10:02: Zudem sei das KI-Modell sehr schnell.
00:10:05: Microsoft schreibt auch, man habe großen Wert auf, so wörtlich sichere und verantwortungsbewusste Ergebnisse gelegt.
00:10:13: Entsprechend dürfte es klare Leitlinien für den Bildgenerator geben.
00:10:18: Forschende von Google DeepMind und mehreren US-Universitäten haben ein neues Bewertungssystem für KI-generierten Code vorgestellt.
00:10:27: Der sogenannte Vibechecker soll nicht nur messen, wie gut Code funktioniert, sondern auch, ob er so geschrieben und kommentiert wurde, wie Menschen es üblicherweise machen.
00:10:37: Bisherige Tests fokussieren sich vor allem darauf, ob Programmcode technische Aufgaben korrekt löst.
00:10:43: Sie berücksichtigen aber kaum, ob ein Nachvollziehbar strukturiert und dokumentiert ist.
00:10:48: Doch darum geht es bei dem neuen Ansatz.
00:10:51: Die Forschenden erstellten eine Sammlung aus dreißig überprüfbaren Regeln, die typische Anforderungen an Code-Steal, Fehlerbehandlung und Dokumentation abbilden.
00:11:01: Dieses Regelwerk, genannt Verycode, basiert auf etablierten Industriestandards.
00:11:06: Beim Test von einunddreißig aktuellen Sprachmodellen stellten die Forschenden fest, dass viele selbst bei klaren Anweisungen Probleme haben, mehrere Regeln gleichzeitig zu befolgen.
00:11:18: Als besonders schwierig erwiesen sich Aufgaben, bei denen Code-Stil und Logik zugleich berücksichtigt werden müssen.
00:11:26: In den USA wird Walmart jetzt in ChatGPT integriert.
00:11:30: Kundinnen und Kunden können künftig Produkte des Einzelhändlers direkt innerhalb des Chats suchen und kaufen.
00:11:37: Das könnte dann wie folgt laufen, Nutzer geben, Anweisungen wie etwa.
00:11:42: Ich brauche Zutaten für einen Abendessen für vier Personen.
00:11:45: Und ChatGPT schlägt dann nicht nur verschiedene Gerichte vor, sondern auch passende Produkte aus dem Walmart-Sortiment.
00:11:53: Über das integrierte Bezahlverfahren wird der direkt abgeschlossen.
00:11:57: Die KI soll dann aus den Einkaufsgewohnheiten lernen und Bedürfnisse vorausschauend erkennen.
00:12:04: Mit KI-Unterstützung will ein Leipziger Forscher-Team Kommunen nun eine bessere Zustandsüberwachung ihres Straßennetzes ermöglichen.
00:12:12: Geotechniker und Elektroingenieure der Hochschule für Technik, Wirtschaft und Kultur Leipzig haben dafür ein intelligentes Messsystem entwickelt.
00:12:22: Mit dem erfassen in der Straße verbaute Sensoren in Echtzeit, Belastungen, Risse und Materialbeanspruchung.
00:12:30: Ziel ist es, den optimalen Zeitpunkt für eine Sanierung frühzeitig zu erkennen.
00:12:35: Kommunen können dann ihre Straßen gezielt erneuern und deren Lebensdauer damit deutlich verlängern.
00:12:42: Auf einer Teststrecke südlich von Leipzig kommt das System nun erstmals auf einer öffentlichen Straße zum Einsatz.
00:12:49: Zuvor hat das System Tests unter Laborbedingungen und auf einem Betriebsgelände bestanden.
00:13:03: Ralf Thiele, Geotechniker und Leiter des Forschungsprojekts erklärt, die Sensoren liefern uns Daten über die Anzahl und das Gewicht der Fahrzeuge, die über eine Straße fahren.
00:13:14: Daraus leitet die KI die tatsächliche Verkehrsbelastung ab.
00:13:19: Diese Belastung steige seit Jahren kontinuierlich und nehme mittlerweile ein Maß an, für das die meisten Straßen ursprünglich gar nicht konzipiert worden seien.
00:13:30: Das war das KI-Update von Heise Online vom fünfzehnten Oktober, zwei tausendfünfundzwanzig.
00:13:36: Eine neue Folge gibt es Montags, Mittwochs und Freitags ab fünfzehn Uhr.
Neuer Kommentar