KI-Update kompakt: Mythos, Polypenerkennung, Halluzinationen, Kreativität

Shownotes

Das ist das KI-Update vom 15.04.2026 unter anderem mit diesen Themen:

Anthropics KI-Sicherheitsmodell bleibt für Europa ein Mythos KI-Polyperkennung hilft erfahrenen Ärzten kaum KI-Halluzinationen vor Gericht und KI-Modelle sind als Gruppe weniger kreativ als viele Menschen

=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===

Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11258005

Weitere Links zu diesem Podast: https://www.heiseplus.de/audio https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.ct.de/ki

Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.

Transkript anzeigen

00:00:02: Das KI-Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.

00:00:13: Ich bin Isabel Grünewald und dies sind heute unter anderem unsere Themen.

00:00:17: Anthropics neues KI-Modell bleibt für Europa ein Mythos!

00:00:22: KI Polypenerkennung hilft erfahrenen Ärzten kaum.

00:00:26: KI Halluzination vor Gericht – Und KI Modelle sind als Gruppe weniger kreativ als viele Menschen.

00:00:34: Anthropic bewirbt sein KI-Modell Mythos zum Aufspüren von Sicherheitslücken als zu gefährlich für die Öffentlichkeit und stellt es darum nur ausgesuchten Unternehmen zur Verfügung.

00:00:45: Allerdings nicht in der Europäischen Union, berechnet Malte Kirchner aus dem heise Online Newsroom.

00:00:51: Ein KI-modell das so mächtig sein soll dass seinen Entwickler ist lieber geheim hält und Europa dabei komplett außen vorlässt.

00:00:59: Das ist die Situation rund um Claude Mythos, ein neues Modell von Anthropic das gezielt nach Sicherheitslücken in Software suchen kann.

00:01:07: Anthropics stuft Mythos als so gefährlich ein dass es nicht öffentlich verfügbar sein soll.

00:01:13: In den USA hat das Unternehmen aber sehr wohl einen exklusiven Kreis aufgebaut.

00:01:17: Zwölf Technologiekonzerne darunter Apple Microsoft und Amazon dürfen ihre Software damit überprüfen.

00:01:24: Weitere vierzig Organisationen sollen ebenfalls Zugang haben, deren Namen in Tropic aber nicht nennt.

00:01:28: Und US-Regierungsstellen waren so besorgt dass sie sofort Krisengespräche mit Chefs systemrelevanter Banken einbriefen.

00:01:36: Für Europa sieht es dagegen mager aus.

00:01:38: Das Magazin Politico hat acht europäische Zeibersicherheitsbehörden befragt und nur das BSI hatte überhaupt Kontakt zu Inzropik.

00:01:46: Direkten Zugang zum Modell, Fehlanzeige.

00:01:48: Es blieb bei Gesprächen.

00:01:50: Einzig Großbritanniens AI Security Institute durfte Mythos tatsächlich unter die Lupe nehmen und erste Ergebnisse veröffentlichen.

00:01:58: Interessant ist dabei die rechtliche Lage – der Europäische AI-Akt und der Cyber Resilience Act greifen nämlich nur bei Modellen, die auch auf dem EU Markt angeboten werden!

00:02:07: Da Mythos gar nicht in Europa verfügbar gemacht wird, haben die Behörden formal keine Handhabe.

00:02:13: Die EU-Kommission hat immerhin angekündigt, die Sicherheitsauswirkungen aktiv zu beobachten und mit Enthropic im Gespräch bleiben.

00:02:20: Das wirft eine grundsätzliche Frage auf, die immer drängender wird – gerade angesichts des technologischen Aufholens Chinas.

00:02:27: Darf es wirklich allein privatwirtschaftlichen Unternehmen überlassen bleiben?

00:02:31: Wen sie bei hochskantins KI-Modellen ins Vertrauen ziehen?

00:02:34: Es mehren sich die Stimmen, die nach einer neutralen Instanz rufen.

00:02:38: Danke Malte!

00:02:39: Schauen wir uns doch die eben erwähnten Testergebnisse des AI Security Institute noch einmal genauer an.

00:02:45: Unter anderem führte Mythos erstmals eine vollständige Angriffssimulation auf ein Unternehmensnetzwerk autonom durch – in drei von zehn Versuchen gelang dem System die komplette Übernahme des Netzwerks.

00:02:59: Das AISI weist jedoch auf Einschränkungen der Testergebnisse hin….

00:03:04: Die simulierten Umgebungen enthielten keine aktiven Verteidiger und keine Überwachungssysteme.

00:03:10: Es bleibt also unklar, ob das Modell auch gut geschützte Systeme erfolgreich angreifen kann.

00:03:16: Bei einer weiteren Simulation mit Fokus auf industrielle Steuerungstechnik scheiterte das System bereits im Vorfeld.

00:03:24: Im Februar sind Pläne bekannt geworden, wonach Meters millionenfach verkaufte Smart Glass noch dieses Jahr Gesichtserkennung erhalten könnten.

00:03:33: Das rufen nun seventy-fünf Bürgerrechtsorganisationen in den USA auf dem Plan.

00:03:38: Unter der Führung der American Civil Liberties Union fordern sie, im offenen Brief Meta auf das Vorhaben unverzüglich zu stoppen.

00:03:47: Brillen mit Gesichtserkennungstechnologie würden es jedem Träger ermöglichen, fremde in seiner Umgebung – etwa bei Protesten, Arztpraxen oder Geschäften – namentlich zu

00:03:58: identifizieren.".

00:03:59: Dieser Name könnte dann mit digitalen Datenbacken verknüpft werden, die eine fülle sensibler Information über Beruf, Gewohnheiten, Gesundheit und Beziehungen der Zielperson enthalten – heißt es daran weiter.

00:04:10: Parallel zu dem offenen Brief forderte die ACLU-Verbraucherinnen und Verbraucher auf sich schriftlich an Meter zu wenden und ihre Bedenken bezüglich der Gesichtserkennungstechnologie zu äußern.

00:04:22: Der Krieg in der Ukraine treibt die Entwicklung unbemannter Waffensysteme voran.

00:04:27: Kürzlich meldete Kiev einen militärischen Erfolg, der komplett ohne den Einsatz von Infanteristen auskam.

00:04:35: Stattdessen übernahm Maschinen die Aufgaben an der Front.

00:04:38: Wie genau dieser Einsatz ablief und wo die Grenzen der Technik liegen, erklärt Max Schreiner von The Decoder.

00:04:45: Zum ersten Mal hat die ukrainische Armee eine russische Stellung ausschließlich mit Bodenrobotern und Thronen eingenommen – das erklärte der ukrainischer Präsident Zelensky auf X. Bei der Operation kamen sieben verschiedene Robotersysteme zum Einsatz.

00:04:58: Die gegnerischen Truppen ergaben sich demnach ohne ukrainische Verluste.

00:05:03: Ein aktueller Bericht des Center for Strategic and International Studies ordnet diese Entwicklung ein, die Experten betonen dass unbemannt eben nicht gleich bedeutend mit autonom ist.

00:05:14: bei vergleichbaren Einsätzen steuerten Soldaten die Bodenroboter weiterhin manuell fern.

00:05:19: Eine vollständige Autonomie bei der Systeme eigenständig Ziele finden und bekämpfen gibt es auf dem Schlachtfeld bisher nicht.

00:05:27: Künstliche Intelligenz verbessert jedoch bereits gezielt einzelne Funktionen, besonders deutlich wird das etwa bei der Steuerung im Zielanflug von Thron.

00:05:36: Durch autonome Navigation steigt die Trefferquote dieser laut dem Bericht von maximal zwanzig Prozent bis zu achtzig Prozent.

00:05:43: die Systeme benötigen dafür weder eine stabile Funkverbindung noch hochqualifizierte Piloten.

00:05:49: Auch bei der Zielerkennung gibt es Fortschritte, die automatische Erfassung funktioniert im Gefecht mittlerweile auf eine Distanz von einem Kilometer und optimalen Bedingungen reicht sie bis zu zwei Kilometer weit.

00:06:00: Die Modelle identifizieren dabei Panzer Artillerie und auch Infanterie und erkennen dabei auch Attrappen laut dem Bericht, die für Menschen sonst schwer zu erkennen sind.

00:06:09: Neben der Bildanalyse nutzt das ukrainische MilitärKI auch für die akustische Aufklärung.

00:06:14: Ein spezielles System erkennt etwa Thronen anhand ihres Klangs in fast fünf Kilometern Entfernung, eine weitere Software wertet abgefangene russische Kommunikation aus und übernimmt die Textanalyser.

00:06:26: Die ukrainischen Rüstungsfirmen setzen dabei auch auf kleine, spezialisierte Modelle.

00:06:31: Diese laufen auf günstigen Chips direkt in den echte Thronenschwärme und vollständig autonome Waffensysteme gibt es bisher nicht – bei Angriffsentscheidungen behält außerdem weiterhin der Mensch die Kontrolle.

00:06:42: Denn auch die kleinen Modelle sind weiterhin Black Boxen und ihr Einsatz ist natürlich gefährlich!

00:06:48: Vollständige Autonomie oder Bricht bleibt daher ein Fernziel dass ein technologischer, rechtlicher und natürlich vor allem auch ethische Grenzen stößt.

00:06:58: Dankeschön Max!

00:06:59: Künstliche Intelligenz ist im Alltag der Bundesbürger angekommen – doch das Risikobewusstsein hängt der technischen Entwicklung hinterher.

00:07:08: Wie eine Sonderauswertung des Cyber-Sicherheitsmonitors in den letzten Jahren offenbart, klafft in der Bevölkerung eine große Lücke zwischen Selbsteinschätzung und tatsächlichen Kenntnissen.

00:07:19: Zwar gibt fast die Hälfte der befragten Internetnutzerinnen und Nutzer in Deutschland an, KI-generierte Inhalte als solche identifizieren zu können.

00:07:27: Doch in der Praxis schauen nur die wenigsten genau hin – ein Drittel der Deutschen hat noch nie eine der gängigen Methoden zur Verwerfisierung genutzt.

00:07:35: Lediglich achtundzwanzig Prozent suchten in Bildern gezielt nach grafischen Unstimmigkeiten wie fehlerhaften Schatten oder deformierten Gliedmaßen.

00:07:43: Nur neunzehn Prozent kontrollierten die Verlässlichkeit der Quelle!

00:07:47: BSI-Präsidentin Claudia Platnamandt für Verbraucher sei es inzwischen unerlässlich, KI-Inhalte zu identifizieren.

00:07:54: Nur so könnten sie Risiken und falsche Informationen früh erkennen!

00:07:58: Das BSI setze daher verstärkt auf Sensibilisierung – und biete Orientierungshelfen an um die Medienkompetenz im Umgang mit generativer KI zu stärken.

00:08:09: Eine randomisierte Studie in deutschen Privatpraxen zeigt KI-gestützte Polyberkennung verbessert die adenumdetektionsrate erfahrener Gastroentheologen nichts signifikant.

00:08:21: Das bedeutet im Klartext, Ärztinnen und Ärzte mit ausreichender Erfahrung finden genauso viele Polypen bei Darmspiegelungen – egal ob sie KI einsetzen oder nicht.

00:08:31: Erklärt ein Co-Autor der Studie Dr.

00:08:33: Alexander Hahn.

00:08:34: Er ist Professor für Digitale Transformation in der Gastroenterologie am Universitätsklinikum Würzburg.

00:08:40: In unserer vorliegenden Arbeit konnten wir zeigen, dass wir anhand von ambulanten Daten von Schwerpunktpraxen eine KI in einem universitären Setting erstellen konnten welches mit kommerziellen System aufnehmen kann.

00:08:54: Wir haben diese KI nach einer renovisierten Studie ebenfalls in gastrontologischen Schwerpunkts getestet.

00:09:01: Dabei zeigte sich das Untersuchende mit der Hilfe unsere KI etwas mehr Polypen finden konnten, jedoch war das statistisch nicht signifikant.

00:09:11: Auch wenn derzeitige KI-Systeme nur einen marginalen Nutzen für erfahrene Untersuchende haben im Bezug auf Polypendetektion in der Darmkrebsvorsorge so eröffnen Sie komplett neue Möglichkeiten für Schilfestellungen wie automatische Berichterstellung oder automatische Erfassung von Qualitätsparametern.

00:09:33: Nun könnte man meinen, dass ein solches Tool auch sinnvoll für noch unerfahrene Ärztinnen und Ärzte sein kann.

00:09:39: Aber da ist Vorsicht geboten betont hand.

00:09:42: Zum Thema Deaskilling also Verlust von Fähigkeiten gibt es zwei wichtige Studien welche beide Ende letzten Jahres publiziert worden sind.

00:09:50: in der ersten Studie wurde verglichen wie die Leistungsfähigkeit von Untersuchenden ist drei Monate vor Einführung einer KI und drei Monate nach Einführung der KI.

00:10:01: Dabei wurden lediglich Untersuchungen verglichen, bei denen die KI nicht eingeschaltet war.

00:10:08: Hierbei zeigte sich überraschenderweise dass die Leistungsfähigkeit abnahm in den Bereichen oder in den Zeiträumen wo Untersuchende unter KI einfluss standen also Nach-Einführung einer künstlichen Intelligenz in der Klinik.

00:10:23: Eine fast zeitgleich erschiebene Studie untersucht ihr den gleichen Effekt über drei Jahre prospektiv.

00:10:30: Hierbei wurden Lernkurven erstellt, jedoch fand sich kein eindeutiger Verlust von Fähigkeiten über diesen Zeitraum von drei Jahren.

00:10:40: Das heißt zusammenfassend muss man sagen es kann sein dass es zu einem Fähigkeitsverlust kommt der kurzfristig stattfindet circa für drei Monate aber über längere Zeiträume gesehen also drei Jahre haben wir keine guten Daten die einen Verlust von Fähigkeiten nachweisen.

00:10:59: Vielen Dank, Dr.

00:11:00: Hahn!

00:11:02: Maine soll als Erster US-Bundesstaat ein vollständiges Verbot für die Errichtung von Rechenzentren bekommen, die mehr als zwanzig Megawatt an Strom verbrauchen.

00:11:12: Das soll bis November zwei tausend siebenundzwanzig gelten – das haben das dortige Ober- und Unterhaus mit jeweils großer Mehrheit beschlossen, berichtet die Lokalzeitlung Portland Press Herald.

00:11:23: Jetzt fehlt nur noch die Zustimmung von Gov.

00:11:27: Während des Bauverbots soll eine mit dem Gesetz ins Leben gerufene Arbeitsgruppe potenzielle Folgen des Baus von Rechenzentren überprüfen.

00:11:35: Dem sollen nicht nur verschiedene Vertreter oder Vertretern von Behörden, sondern auch von Arbeitnehmern unternehmen und Umweltschutzgruppen angehören – so soll zum Beispiel geprüft werden welche Folgen der Bau für die Stabilität der Stromversorgung hat und wie sich die Folgen für die Umwelt minimieren lassen!

00:11:52: Ein Abschlussbericht soll bis Februar im Jahr vorliegen, mehr als ein halbes Jahr bevor das Moratorium ausläuft.

00:11:59: Die Gesetzesinitiative ist Teil einer breiteren Bewegung gegen den Bauboom bei KI-Rechenzentren der in den USA für wachsende Beunruhungen sorgt.

00:12:08: Ähnliche Gesetze wie das in Maine sind auch in anderen Bundesstaaten in Vorbereitung.

00:12:14: Weltweit haben Gerichte mit Dokumenten zu kämpfen die Halluzinationen der KI enthalten.

00:12:19: Das zeigt ein aktueller Bericht aus den USA.

00:12:22: Mein Kollege Robin Ahrens aus der Zitierredaktion hat sich das genauer angeschaut.

00:12:27: Wer dachte, dass Justiz noch ein Ort sei an dem echte Fakten und Wahrheitstraue zählen?

00:12:32: Der wird jetzt enttäuscht sein!

00:12:34: Denn immer mehr Anwältinnen lassen sich von KI-Tools helfen ihre Schriftstücke zu laufenden Verfahren zu verfassen.

00:12:40: Das Problem ist nur die KI-Modelle halluzinieren.

00:12:44: Sie zitieren mal eben nicht existente Gerichtsurteile verfälschen Aussagen oder geben Urteile völlig falsch wieder.

00:12:51: Besonders problematisch ist das für das Angloamerikanische Rechtssystem.

00:12:54: Das stützt sich nämlich stark auf Präzidentsfälle!

00:12:58: Der Rechtswissenschaftler Damien Chalotin von der Wirtschaftshochschule HEC Paris betreibt eine Online-Datenbank, die solche Fälle von KI-Fählern vor Gericht erfasst.

00:13:08: Die Grundlage der Datenbank sind allerdings nur Verfahren in denen Gerichte Personen bereits sanktioniert haben – eben weil sie Dokumente mit KI-Fehlern vorgerichtet gebracht haben.

00:13:18: Stand April, zwanzig sechsundzwanzig gab es bislang mehr als tausend dreihundert solcher Verfahren.

00:13:23: Allein achthundert davon in den USA und die Dunkelziffer dürfte sogar noch deutlich höher sein.

00:13:29: Laut Chalottin nimmt die Menge an Gerichtsverfahren in den Dokumente mit KI-Halluzinationen auftauchen insgesamt stark zu – besonders seit letztem Jahr!

00:13:38: Erst kürzlich wurden an einem Tag ganze zehn Fälle an zehn verschiedenen Gerichten bekannt Und auch die Strafen werden härter.

00:13:46: Vergangenen Monat fängt ein US-Bundesgericht in Oregon-Sanktionen gegen einen Anwalt in Höhe von über hunderttausend US-Dollar.

00:13:54: Mittlerweile sollen solche Fälle von KI-Fählern in Prozessdokumenten schon bei den obersten Gerichten der US- Bundesstaaten aufgetreten sein.

00:14:02: Als Reaktion haben einige US-Gerichte Kennzeichnungsvorschriften eingeführt, jedes Dokument das mit KI erstellt oder bearbeitet wurde muss dem nach gekennzeichnet werden.

00:14:12: So wollen die Gerichte schnell feststellen können, welche Dokumente sie besonders detailliert prüfen müssen.

00:14:18: Kritikerinnen halten die Praxis allerdings für unpraktikabel – denn KI ist mittlerweile in fast jede Kanzlei-Software standardmäßig integriert!

00:14:26: Das würde wiederum bedeuten dass quasi jedes Dokumenten kennzeichnungspflichtig wäre.

00:14:41: Hero ermöglicht es Nutzerinnen und Nutzern, Daten wie Gehalt, Schulden- und monatliche Ausgaben einzugeben.

00:14:47: Das System berechnet daraus verschiedene Finanzszenarien.

00:14:50: Laut eigenen Angaben half das Startup seinen Kunden bei der Verwaltung von mehr als einer Milliarde US Dollar.

00:14:56: Bei dem Geschäft geht es OpenAI offenbar vor allem um die Mitarbeiterinnen und Mitarbeiter von Hero – über die Kaufsumme machten die Beteiligten keine Angaben!

00:15:05: Das Start up nimmt jetzt keine neuen Anmeldungen an und stellt sein Dienst noch in diesem Monat ein.

00:15:10: Die Nutzerdaten gehen nicht an OpenAI und werden im Mai gelöscht.

00:15:15: OpenAI arbeitet bereits in einer eigenen Finanzfunktion für ChatGPT – und kann diese Pläne mit dem neuen Team nun beschleunigen!

00:15:23: An anderer Stelle drückt OpenAI auf die Bremse, denn statt des ChatGAPT-Entwicklers hat jetzt Microsoft die Anmietung von Rechenzentrumskapazitäten im norwegischen Novik nördlich das Polarkreisesvereinbart.

00:15:35: Das Rechenzentrum war ursprünglich für OpenAI als Teil von dessen Stargate-Projekt geplant, doch die KI-Entwickler konnten sich laut Insider nicht mit dem Betreiber Nscale einigen.

00:15:46: Die Aufgabe der Rechencentrumspläne Norwegen ist der zweite Dämfer für Open AI innerhalb kurzer Zeit – nachdem vergangene Woche das vergleichbare Rechenzentrumsprojekt Stargate UK in Großbritannien auf Eis gelegt wurde.

00:15:58: Dabei handelt es sich ebenfalls um einen von Nscale entwickelten Standort!

00:16:04: In der Geschichte um Netflix-Versuch, sich das Recht einräumen zu lassen, Synchronaufnahmen für KI-Trainingszwecke zu nutzen, schien die Rollen bislang klar verteilt.

00:16:14: Auf der einen Seite stand der Videostreamingdienst, der an synthetische Stimmen kommen will – auf der anderen Seite der Verband deutscher SprecherInnen, der zum Streik gegen Netflix aufruft, da er befürchtet seine Mitglieder würden sich mit der Unterzeichnung langfristig selbst arbeitslos machen!

00:16:30: Nun betritt eine weitere Gewerkschaft das Paket Berichtet Nico Juran von der Cité.

00:16:35: Auslöser für die aktuelle Diskussion war, dass die Schauspieler Gewerkschaft BFFS in vergangenen Sommer eine Vereinbarung zu KI-Stimmen mit Netflix geschlossen hat und dafür in einem Rechtsgutachten kritisiert wurde – das wiederum der Synchronsprecherverband in Auftrag gegeben hatte.

00:16:50: Die Vereinbarungen mit Netflix enthält eine Klausel, die dem Dienst laut Gutachten viel zu weitreichende Rechte hinsichtlich der Nutzung von KI- Stimmen einräumt.

00:16:59: Und eben diese Klausel findet sich auch in der neuen Vereinbarung wieder, die die Mitglieder des Synchronsprecherverbandes nun ablehnen.

00:17:06: Man könnte also sagen das im Gutachten des Synchronsprecher Verbandes stand dass sich die Schauspieler Gewerkschaft von Netflix hat über den Tisch ziehen lassen.

00:17:15: Das wollte ich natürlich nicht so auf sich sitzen lassen und schießt daher nun zurück.

00:17:19: So wäre das Gutachten des SYNCHRONSPRECHER VERBANDES angeblich fehlerhaft!

00:17:25: Der Schauspieler Gewerkschaft lautet jedenfalls ganz klar, die Entwicklung bei KI-Stimmen lässt sich nicht mehr zurückdrehen.

00:17:32: So dass ihre Vereinbarung mit Netflix immer eine Grundlage schafft und Basis für weitere konkrete Vereinbarungen

00:17:39: ist.

00:17:40: Ein Boykott wie der des Synchronsprecherverbandes sei hingegen kontraproduktiv.

00:17:44: Darüber, wie man künftig mit KI Stimmen umgeht herrscht also auch unter den deutschen Synchronensprechern sehr unterschiedliche Ansichten.

00:17:53: Danke schön Nico!

00:17:55: Google führt mit Skills eine neue Browser-Funktion in Chrome ein.

00:17:59: Damit lassen sich oft genutzte KI Anfragen direkt im Browser speichern, um diese schnell und einfach erneut abzuhofen – statt sie nochmals eintippen zu müssen!

00:18:09: So werden nützliche KI Befehle in Chrome zu One Click Tools wie Google es nennt.

00:18:14: Ein Beispiel ist einen per KI durchgeführter Vergleich von Produktdaten beim Shopping in mehreren Tabs.

00:18:19: Voraussetzung dafür ist allerdings die Integration des KI-Modells Gemini in Chrome, was Google bislang nicht weltweit umgesetzt hat.

00:18:27: Deshalb wird diese Funktion zunächst auch nur im englischsprachigen Chrome in den USA eingeführt – weitere Sprachen und Länder dürften aber folgen!

00:18:35: Kreative Ausgaben von verschiedenen KI-Textgeneratoren unterscheiden sich weniger voneinander als Inhalte von Menschen, denen dieselben Aufgaben gestellt wurden.

00:18:45: Das hat eine Forschungsgruppe der Duke University aus Durham im US-Bundestadt North Carolina herausgefunden.

00:18:51: Martin Holland, aus dem heise online Newsroom mit den Einzelheiten.

00:18:55: Emily Wenger ist Ingenieurin und Professorin an der Duke university Und sie hatte die Vermutung dass die verschiedenen KI Sprachmodelle sich gar nicht so sehr voneinander unterscheiden wenn es in Bezug auf Kreativität geht weil die ja am Prinzip alle mit dem gleichen Datenmaterial trainiert werden nämlich dem ganzen Internet.

00:19:15: Um das zu testen hat sie mit einem Kollegen drei Tests für Kreativität sich ausgesucht, also das sind standardisierte Tests womit man herausfinden will wie kreativ jemand oder Gruppen von Leuten sind und hat da in dieser Versuchsreihe LLMs gegen Menschen antreten lassen und zwar genau zweiundzwanzig LLMS gegen hundert Menschen.

00:19:37: und da ging es darum dass jeweils Ein Gegenstand gesagt wurde in dem ersten Test und dann sollten die LLMs und die Menschen Nutzungsmöglichkeiten aufzählen.

00:19:48: Also was kann man damit machen?

00:19:50: Als Beispiel wird aufgezählt, was kann mit einem Buch machen außer das zu lesen?

00:19:53: und dann könnte man sagen, man kann es als Türstopper verwenden, als Fliegenklatsche oder damit Feuer anzünden.

00:19:59: Im zweiten Test sollten die Teilnehmenden zehn verschiedene Wörter aufzählten, die sich alle voneinander so stark wie möglich unterscheiden.

00:20:09: Und der dritte Test da ging es darum, dass man ein Wort bekommen hat.

00:20:12: Also ob man nun einen LNM ist oder eine Person bekommt dann ein Wort und man soll das erste aufschreiben was einem dazu einfällt und dann wieder das Erste was zu diesem Wort einfällt usw.

00:20:24: bis man eine Liste von zwanzig Wörtern hat.

00:20:28: Und dann wurde eben geprüft, wie stark unterscheiden sich die LLMs bei diesen Tests voneinander und die Menschen.

00:20:34: Da war halt deutlich, dass bei den ersten beiden Tests kann es schon passieren, dass ein LLM eine oder mehreren Menschen voraus ist also kreativer ist.

00:20:45: aber in der Gesamtheit kommen die Menschen dann eben doch als Erste raus und das hat sich vor allem dritten Test zu ergeben.

00:20:53: Also das heißt, wenn man wirklich ein kreatives Ergebnis haben will dann ist es hilfreicher sich eine Gruppe von Menschen zu suchen die möglichst auch verschiedene Erfahrungen und Hintergründe haben als eine Grupe von LLMs.

00:21:06: also die beliebte Taktik.

00:21:08: Das beschreibt sie auch dass man irgendwie sagt naja ich hole mir jetzt mal bei Gemini das sind Inspirationen.

00:21:13: und wenn wir das nicht reicht dann frage ich noch mal ChatGPT und dann Claude von Anthropic Und dann gucke ich mal, was da so rauskommt.

00:21:21: Dass die Antworten einander ähnlicher sind deutlich ähnliche als wenn nicht drei und vielleicht nicht drei aber auf jeden Fall mehr Menschen frage und dass das eben noch ein großer Vorteil von Menschen ist und dass man vor allem wenn es halt um Kreativität geht darauf vertrauen können.

00:21:37: sondern also sie bilanziert auch, dass hier eben eine Gefahr besteht, wenn immer mehr Leute für kreative Aufgaben auf KI setzen, weniger kreativ, wenn das sich alles aneinander angreicht.

00:21:48: Die Grammatik aneinandereingleich die Texte einander angleichen dass die Varianz viel geringer wird als sie es eben jetzt ist und dass das eine Verarmung wäre, die natürlich unabsehbare Konsequenzen haben könnte.

00:22:00: Danke Martin!

00:22:02: Wenn ihr jetzt Lust habt noch tiefer in dieses oder andere unserer Themen einzusteigen und gleichzeitig diesen Podcast unterstützen wollt dann könnt ihr das mit einem heise plus Abo tun.

00:22:12: damit bleibt ihr in IT und Technik immer einen Schritt voraus.

00:22:16: Sichert euch jetzt zwölf Wochen Heise Plus mit fünfzig Prozent Rabatt unter heiseplus.de.

00:22:21: slash audio.

00:22:24: Das war das KI-Update von Heise Online vom fünften April.

00:22:28: zwei tausend sechsundzwanzig.

00:22:29: Eine neue Folge gibt es immer, Montags, Mittwochs und Freitag um fünfzehn Uhr!

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.