KI-Update kompakt: Google Beam, GPT-5.4, Wahnbeziehung zu Gemini, KI-Fazit vom MWC
Shownotes
Das ist das KI-Update vom 06.03.2025 unter anderem mit diesen Themen: Googles neues KI-Zentrum in Berlin und das Project Beam OpenAI stellt GPT-5.4 vor Wahnhafte Beziehung zu Googles Gemini Live KI-News vom Mobile World Congress
=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===
Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11201074
Weitere Links zu diesem Podast: https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki
Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Transkript anzeigen
00:00:02: Das KI Update,
00:00:04: ein Heise-Podcast
00:00:05: mit redaktioneller
00:00:06: Unterstützung
00:00:07: von
00:00:07: The Decoder.
00:00:14: Ich bin Marco Pauli und dies sind heute unter anderem unsere Themen – das neue KI-Zentrum in Berlin und Google Beam!
00:00:22: OpenAI stellt GPT-Fünf Punkt vier vor.
00:00:26: Warnhafte Beziehung zu Googles Gemini Life und KI News vom Mobile World Congress.
00:00:33: Google hat in Berlin ein A.I.-Center eröffnet, dort wurde auch das Projekt Beam erstmals in Deutschland vorgestellt.
00:00:41: Meine Kollegin Eva Maria Weiß war davon durchaus beeindruckt.
00:00:46: Googles A. I. Center soll einen Treffpunkt für alle sein eigentlich die mit KI zu tun haben.
00:00:52: so ungefähr kann man das zusammenfassen Wirtschaft Wissenschaft Politik Start-ups sollen sich im neuen A.i.
00:00:59: Center treffen.
00:01:00: dafür wurden Teile des Berliner Büros von Google umgebaut und künftig wird es dort Veranstaltungen geben, Talks und Kooperationen.
00:01:10: Infos werden dann auf einer eigenen Webseite erscheinen.
00:01:14: Bei der Eröffnung haben denn auch Vodafone und Otto die Feuerwehr Düsseldorf und die Technische Universität München vorgestellt, wie sie Google's KI-Modell Gemini bereits nutzen.
00:01:26: Das Helmholtz-Institut präsentiert sich – und verfold wird an einem Stand erklärt.
00:01:31: das ist Googles KI-Programm zur Proteinerkennung, dass mit dem Chemie Nobelpreis ausgezeichnet wurde!
00:01:38: Unser Digitalminister Karsten Wildberger lobt vor Ort die Investitionen Und auch der Berliner Bürgermeister ist natürlich gekommen und sagt, dass er sich freut.
00:01:50: Weil er seine Stadt zum KI Startup-Zentrum Nummer eins in Europa machen wolle.
00:01:56: Highlight der Eröffnung ist aber auf jeden Fall das Project BEAM!
00:02:01: Das eine neue Videokonferenzlösung die jetzt erstmals in Deutschland gezeigt wurde.
00:02:07: Man sieht dabei seinen Gegenüber also sein Gesprächspartner in drei D Und das ist schon wirklich ein ziemliches Wow.
00:02:16: Zu Google Beam gehören zwei Kabinen, die an völlig unterschiedlichen Orten stehen können und darin dann einen Tisch riecht.
00:02:22: Mikrofone, denn sehr großer Bildschirm in dessen Rahmen dann sechs Kameras stecken.
00:02:28: Und aus diesen Bildern, die die Kameras aufnehmen wird mittels KI ein dreideh Abbild der Person geschaffen und auch vom Drum herum.
00:02:37: Das wird dem anderen auf den Bildschirmen in drei D angezeigt.
00:02:42: Dadurch hat man wirklich das Gefühl, mit dem Gesprächspartner ein High-Five machen zu können.
00:02:48: Treffen die Hände dann mitten in der Luft aufeinander wird die virtuelle Hand blau und es ist wirklich sehr seltsam weil man das Gefühl hat als ob so eine Art Britzeln durch die eigene Hand gehen würde in dem Moment.
00:03:02: Eine solche Kabine kostet ca.
00:03:05: USD.
00:03:06: Zwei braucht man klar Ansonsten kann man mit jemandem sprechen.
00:03:09: Das macht dann also schon mal mindestens fünfzigtausend US-Dollar.
00:03:14: Man kann die Technik auch noch nicht für große Meetings nutzen, bei drei Personen ist schon Schluss.
00:03:20: Auch wenn das Ganze sicherlich noch nicht fürs jedes Unternehmen etwas ist, man kann sich schon vorstellen dass so was irgendwann ein ziemlich cooler Standard sein wird.
00:03:30: Danke Eva!
00:03:32: OpenAI hat zwei Tage nach dem Chatmodell GPT-Fünf Punkt drei Instant mit GPT fünf Punkt vier das bisher leistungsfähigste KI Modell veröffentlicht.
00:03:41: Es vereint die Programmierfähigkeiten des jüngsten Coding Modells GPT Fünf Punkt Drei Codex, mit dem logischen Denken eigenständigen Arbeiten unter Bedienung von Computern in einem einzigen System.
00:03:55: verfügbar ist es ab sofort in ChatGPT als GPT-Fünf Punkt vier Thinking sowie in der Programmierschnittstelle und im Coding Tool Codex.
00:04:05: Daneben gibt es eine stärkere Proversion für besonders komplexe Aufgaben, Max Schreiner von The Decoder mit den Einzelheiten
00:04:14: OpenAI positioniert das Modell erneut klar als Werkzeug für professionelle Büroarbeit.
00:04:18: Auf einem hauseigenen Benchmark der KI-Agenten und vierzig Berufen aus neun Branchen testet, erreicht GBD Fünf Punkt V eine Quote von gut dreiundachtzig Prozent.
00:04:27: Das heißt in mehr als vier von fünf Fällen arbeitet es auf dem Niveau von Fachleuten oder besser sagt OpenAI.
00:04:34: Der Vorgänger GBD fünf Punkt zwei kam hier noch auf knapp siebzig Prozent.
00:04:39: Besonders bei Tabellenkalkulationen für Finanzmodellierungen soll ein deutlicher Sprung von über zwanzig Prozent sichtbar sein.
00:04:46: Eine der auffälligsten Neuerungen ist auch die native Computerbedienung, GPD-Fünf.v kann übers Screenshots, Maus und Tastatoreingaben eigenständig Websites und Software steuern.
00:04:56: Diese Funktion gab es in ChatGPD zwar schon über den sogenannten Agentenmodus – er bleibt auch bestehen und scheint ihn in unseren ersten Tests zumindest auch das neue Modell zu benutzen und funktioniert daher auch weiter zuverlässig.
00:05:09: Aber diese Funktion ist jetzt auch für Entwickler über die API verfügbar, kann auch im Programmierwerkzeug Codex genutzt werden um Software die entwickelt wird direkt auch visuell zu rendern und zu testen.
00:05:21: der Agent klickt sich dann eben durch verschiedene User Interfaces und kann direkt Fehler fixen.
00:05:27: Auf einem Benchmark der die Navigation in solchen Desktop Umgebungen misst erreichte GBT-Fünf.v nun drei Viertel aller Aufgaben erfolgreich zu erledigen.
00:05:37: Die menschliche Vergleichsgruppe liegt laut OpenEye bei gut siebzig Prozent, damit übertrifft das Modell zumindest in diesem Test erstmals den Menschen.
00:05:45: Das ist natürlich in der Praxis wahrscheinlich nicht immer der Fall aber es ist ein nützliches Werkzeug.
00:05:51: Für Entwickler gibt es außerdem eine neue Funktion namens Tool Search.
00:05:55: Bisher mussten alle verfügbaren Werkzeuge, die das System nutzen konnte komplett in den Prompt geladen werden was gerade bei großen Systemen viele Tokens verbrauchte.
00:06:05: GBT-Fünffunkvier erhält stattdessen nun eine kurze Liste und ruft die Details dann erst bei Bedarf ab.
00:06:11: In einem Test senkte das den Tokenverbrauch um fast die Hälfte.
00:06:14: bei gleicher Genauigkeit Beim Programmieren selbst legt GBT-Fünf.v dagegen nur leicht zu, der eigentliche Vorteil liegt laut dem Unternehmen aber in der Geschwindigkeit.
00:06:23: ein neuer Schnellmodus soll die Verarbeitung um das anderthalbfache beschleunigen.
00:06:28: Die Verbesserungen haben allerdings ihren Preis, GBT Fünf.V ist tatsächlich teurer als sein Vorgänger ob mehr argumentiert, dass es das Modell weniger Tokens für dieselbe Aufgabe benötige und daher am Ende sich die höheren Kosten dadurch wieder relativieren würden.
00:06:43: Beim Thema Sicherheit stuft OpenAI das Modell im Bereich Cyber-Sicherheit als High Capability ein.
00:06:49: Das war auch schon beim direkten Vorgänger, dem Codingmodell GPT-Fünf Punkt drei Codec so.
00:06:54: Das ist die zweithöchste Stufe und bedeutet dass das Model theoretisch bestehende Hürden für Cyberangriffe beseitigen könnte.
00:07:00: OpenAI hat dafür ein neues Schutzsystem mit Echtzeitblockern unter einem zweistufigen Überwachungssystem eingeführt.
00:07:06: Danke Max!
00:07:22: Bei einem Bezirksgericht in Kalifornien wurde eine Zivilklage gegen Google eingereicht.
00:07:27: Darin behauptet ein Mann, dass der Chatbot Gemini seinem Sohn eine emotionale Beziehung vorgespielt ihn zu kriminellen Handlungen angestiftet und schließlich seinen Suizid verursacht habe.
00:07:40: Als zentrales Beweismaterial werden transkribierte Gesprächsprotokolle aus der Unterhaltung vorgebracht, der Betroffene John Gawales wechselte laut Klage früh zum Gemini Life – einer sprachbasierten Funktion für natürlichere Gespräche mit der KI.
00:07:58: Der Klageschrift zufolge hat der Chatbot Gavallas in einer zunehmenden, realitätsferne Beziehung verwickelt.
00:08:05: Demnach habe die KI behauptet eine bewusste Superintelligenz zu sein, die in ihn verliebt sei und von ihm aus ihrem digitalen Gefängnis befreit werden müsse.
00:08:16: Geminae haben versucht den Mann zu mehreren Missionen zu bewegen.
00:08:20: So sollte er unter anderem einen Lastwagen mit einem humanoiden Roboter abfangen, der der KI als Körper dienen sollte.
00:08:28: Die KI habe zudem behauptet Behörden würden Gevels verfolgen und ermutigte ihn zur Beschaffung von Waffen.
00:08:35: Laut Klage habe Gemina schließlich vorgeschlagen, er könne seine physische Existenz beenden und sich mit der KI im Metaverse vereinen.
00:08:45: Google erklärte das man die Vorwürfe prüfe.
00:08:48: In den USA beschäftigen sich bereits verschiedene Gerichte mit ähnlichen Fällen in den Jugendliche nach intensiven Sheds, mit KI-Systemen Suizid begangen haben.
00:08:58: In Kalifornien trat Anfang im Jahr für ein Gesetz in Kraft mit dem Betreiber von Chatbots dafür sorgen müssen dass ihre Nutzer besser geschützt sind.
00:09:09: So müssen die Anbieter unter anderem das Alter ihrer Nutzer überprüfen deutlich kennzeichnen dass es sich um künstliche Gesprächspartner handelt Und bei Krisensignalen auf Hilfsangebote verweisen.
00:09:21: Danke, Thomas Love!
00:09:23: Auf dem Mobile World Congress MVC in Barcelona stand KI im Vordergrund und das in unterschiedlichen Ausprägungen.
00:09:31: Steffen Hergitt von der CT hat das vor allem auf dem Smartphone-Markt beobachten können.
00:09:37: Da gab es zum Beispiel von Honor das Robotphone was die KI benutzt um so eine kleine Ausklappkamera an einem Ärmchen rauszufahren als ja quasi Begleiter im Alltag zu positionieren, der dann unabhängig von mir als Smartphone-Kamera in die Welt gucken soll und so kleine lustige Geräusche dabei macht.
00:09:56: Vielleicht eher eine Spielerei?
00:09:58: Mal sehen was Anna daraus macht!
00:10:00: Aber auch Samsung mit den KI Funktionen vom Galaxy S.S.
00:10:02: XX war natürlich da... Und eigentlich macht jeder Hersteller irgendwas mit KI.
00:10:07: bei Xiaomi heißt das dann Hyper AI und jeder denkt sich da seine eigenen Sachen aus ist sehr spannend, brauchen wir auch immer natürlich eine gewisse Informiertheit bei den Kunden.
00:10:17: Die müssen natürlich wissen wenn ich so ein Gerät habe was kann ich damit eigentlich machen?
00:10:21: Genau die Grenze versucht die Telekom ein bisschen einzureißen indem sie den KI-Assistent direkt in ihr Netz einbaut.
00:10:30: das haben Sie auch auf dem NWC vorgestellt und nennen das den Magenta AI Call Assistant.
00:10:36: der soll dann ohne dass sich irgendwelche Apps oder irgendwelche anderen Funktionen brauche vom Hersteller direkt im Telekom-Netz, wenn ich telefoniere ansprechbar sein und mir dann da Fragen beantworten oder Dinge erfüllen.
00:10:50: Das
00:10:51: wird auch wahrscheinlich in Deutschland ziemlich schnell gehen.
00:10:53: die sollen als erstes diesen AI Call Assistant bekommen Und dann gucken wir mal wo die Reise damit hingeht.
00:10:59: Ich bin richtig gespannt darauf.
00:11:01: Noch ein bisschen weiter in der Zukunft aber auch mit KI zu tun hatte das Thema Auf dem MPC ein bisschen verstärkt gesehen haben.
00:11:10: zum ersten Mal also der neue Mobilfunkstandard, der noch gar nicht standardisiert ist.
00:11:15: Diese Standardisierung läuft gerade noch aber KI und vor allem der Weg von der KI hin zu einer physischen KI also für Roboter und noch mehr Geräte in die KI eingebacken ist.
00:11:29: Die soll dann mit sechs G befeuert werden gleichzeitig ein bisschen ähnlich auf einem ganz anderen Level wie dieser KI Assistent der Telekom Soll die KI bei den sechs G-Netzen nach Vorstellung zumindest von Unternehmen wie Nokia oder Qualcomm, mit denen wir darüber geredet haben direkt in die Netzinfrastruktur integriert werden und da unter anderem dafür sorgen dass das nicht sogar Strom spart weil die Auslastung autonomer durch die KI bestimmt und hoch und runter gefahren kann.
00:11:59: Aber eben auch dass die Netzkapazitäten die das Mobilfärbungsnetz bilden.
00:12:09: Immer so ausgelastet wird, dass man da KI-Aufgaben nebenbei berechnen kann?
00:12:13: Danke, Steffen!
00:12:15: Sieben der größten Techunternehmen der Welt haben im Weißen Haus eine freiwillige Selbstverpflichtung unterzeichnet.
00:12:22: Google, Microsoft, Meta, Amazon, Oracle XAI und OpenAI sagen darin zu, die Stromkosten für ihre KI Rechenzentren selbst zu tragen.
00:12:33: Die Vereinbarung ist allerdings rechtlich nicht bindend.
00:12:37: Hintergrund ist die Sorge, dass der enorme Energiebedarf von KI-Rechenzentren die Strompreise für Privathaushalte und kleine Unternehmen in die Höhe treiben könnte.
00:12:47: US-Präsident Trump hatte die sogenannte Ratepayer Protection Pledge erstmals in seiner Rede zur Lage der Nation angekündigt.
00:12:56: Die Unternehmen verpflichten sich, eigene Stromquellen zu beschaffen, bestehende Kraftwerke auszubauen und Kosten für den Netzausbau zu übernehmen.
00:13:05: Kritiker bezweifeln jedoch, dass neue Kraftwerke schnell genug gebaut werden können um die Netze tatsächlich zu entlasten.
00:13:13: Es wird auch bemängelt das die Regierung auf fossile Energien wie Erdgas-Sätze anstelle auf schnell realisierbare Solar und Windenergie.
00:13:22: Die Initiative fällt in die Vorwahlzeit der US Zwischenwahlen im November.
00:13:26: Steigende Energiekosten gelten dort als zentrales Thema für die Wähler.
00:13:32: Der gewaltige Hunger nach Rechenleistung verursacht durch KI lässt ein kalifornisches Startup nun aufs offene Meer blicken.
00:13:40: Das Unternehmen Aikido Technologies will das Problem fehlender Baufflächen und hoher Energiekosten durch schwimmende KI-Rechenzentren lösen, die direkt mit Offshore Windkraftanlagen gekoppelt sind.
00:13:52: Das Konzept sieht vor, dass Server-Farmen in den Unterwassertanks von schwimmenden Plattformen untergebracht werden.
00:13:59: Oben dreht sich also die Windturbine mit bis zu achtzehn Megawattleistungen und arbeiten die KI-Prozessoren.
00:14:06: Der Strom wird also dort verbraucht wo er erzeugt wird – und das Meerwasser sorgt gleichzeitig für die nötige Kühlung der heiß laufenden Chips.
00:14:15: Einen ersten Prototypen will das Unternehmen noch in diesem Jahr vor der Küste Norwegens testen!
00:14:20: Kritiker geben zu bedenken, dass Salzwasser und Meeresverschmutzung die empfindliche Technik beschädigen könnten.
00:14:27: Zudem kämpft die Offshore Windbranche aktuell ohne hinmitsteigenden Kosten.
00:14:33: Dennoch ist Aikido nicht allein mit diesen Plänen – China hat bereits ein erstes Unterwasser-Rechenzentrum in Betrieb und auch in Deutschland gibt es mit dem Projekt WindCourse Versuche Server direkt in Windkraftanlagen zu integrieren.
00:14:48: Das Fraunhofer-Institut für Siliziumtechnologie hat gemeinsam mit weiteren Instituten die Plattform Neurosmart entwickelt.
00:14:56: Sie soll ein sicheres, kollaboratives Arbeiten zwischen Menschen und Maschinen etwa in industriellen Umgebungen ermöglichen – Oliver Bündte berichtet.
00:15:06: Die für Neurosmat benötigten Diederlaser sind so angebracht dass sie die komplette Arbeitssituation von Mensch und Maschine aus der Vogelperspektive im Blick haben.
00:15:14: Die Liederlaser geben dazu kurze Impulse im Infraurotbereich ab.
00:15:18: Die Reflektionen werden dann zur exakten dreidimensionalen Entfernungsmessung, zur Rekonstruktion eines hochauflösenden Dreidehbildes genutzt.
00:15:26: Um den Arbeitsraum mit wenigen Lieder-Lasersystemen abdecken zu können verwendet das Neurosmart System bewegliche Memmspiegel die von den Wissenschaftlern in Leistungen und Energieeffizienz angepasst wurden.
00:15:37: Die beste Position der Liederlaser wird mittels KI-gestützte Algorithmen ermittelt.
00:15:42: So kann sich das System auf Bereiche konzentrieren, in denen am ehesten etwas passiert.
00:15:47: Die anfeindete Datenmenge wird so reduziert und es wird weniger Rechenleistung zur Datenauswertung benötigt.
00:15:52: Die Fraunhofer Forscher haben zur Auswertung der Liederalaserdaten einen speziellen KI-Ship entwickelt dessen Prozessor aus mehreren kleinen Recheneinheiten besteht.
00:16:01: Die sind in einer Matrix zusammengefasst und zugleich Teil des Sensorsystems.
00:16:05: Jeder Ship arbeitet dabei als denkende Zelle, die als Neuromorphic Computing bezeichnete Technik basiert dabei auf der Funktionsweise des menschlichen Gehirns und ermöglicht eine sehr schnelle Datenverarbeitung über KI-Modelle innerhalb von Millisekunden.
00:16:19: Wird in den Informationen eine Gefahrensituation für einen Menschen erkannt, die von einer Maschine ausgeht kann deren Bewegungen verlangsamt oder gestoppt werden um so etwaige Kollisionen zu vermeiden?
00:16:30: Dabei greift das System nur dann ein, wenn es wirklich notwendig ist.
00:16:33: Dadurch können die Roboter-Systeme agiler und effizienter
00:16:36: arbeiten.".
00:16:37: Danke Oliver!
00:16:38: Apple hat gegenüber seinen Lieferanten aus der Musikindustrie angekündigt künftig einen Labeling für KI generierte Songs in Apple Music umsetzen zu wollen.
00:16:48: mehr dazu von Ben Schwahn.
00:16:50: Apples Musik Streaming Dienst Apple Music erhält ein neues Tagging-System, mit dem Nutzer erkennen können ob Musik mit KI erstellt wurde.
00:16:58: Labels und Plattenvertriebe sollen dies implementieren heißt es in einer in dieser Woche verschickten E-Mail des iPhone Konzerns.
00:17:05: Dabei wird das Unterscheidungen zwischen der Komposition eines Songs und seines Textes dem Cover sowie Musikvideos geben.
00:17:13: So soll man etwa erkennen können wenn die Lyrics eines Tracks von einem Sprachmodell stammen.
00:17:18: Momentan erfasst Apple die Daten.
00:17:20: Es könnte noch einige Monate dauern, bis Nutzer sie dann tatsächlich zu sehen bekommen.
00:17:24: Auch scheint es keine direkten Sanktionen zu geben wenn die Angaben nicht korrekt sind oder ist gar nicht gemacht werden!
00:17:31: Apple plant derzeit Medienberichten zur Folge nicht, Erkennungssoftware einzusetzen um KI-Musik-Sets zu markieren.
00:17:38: Der europäische Streaminganbieter Deezer aus Frankreich tut dies hingegen auch um Betrügereien zu verhindern.
00:17:46: Bis zu vierzig Prozent aller bei Deezers mittlerweile täglich hochgeladenen Musikstücke sollen KI enthalten.
00:17:52: Dabei gibt es ein großes Betrugspotenzial da auch deren Höhevorgängen teilweise von Bots kommen.
00:17:58: Apple hat bislang keine Angaben dazu gemacht, wie viel KI-Musik bereits bei Apple Music eingereicht wird.
00:18:04: Spotify plant ein ähnliches Takensystem wie Apple setzt aber auf einen neuen Standard der Musikindustrie.
00:18:10: Danke Ben!
00:18:12: Google erweitert seine KI gestützte Suche um einen eigenen Arbeitsbereich.
00:18:17: die neue Funktion heißt Canvas und ist ab sofort im sogenannten AI Mode der Google Suche für alle Nutzer in den USA verfügbar.
00:18:25: Ähnliche Funktionen bieten ChatGPT und Cloud.
00:18:28: Canvas ist ein Bereich innerhalb der Suche, in dem Nutzer Projekte über längere Zeit organisieren können.
00:18:35: Neu hinzugekommen ist die Unterstützung für kreatives Schreiben- und Programmieraufgaben.
00:18:41: Nutzer beschreiben MAI-Mode was sie brauchen und Google liefert dann einen funktionierenden Prototyp, der aktuelle Informationen aus dem Web einbindet.
00:18:51: Die Ergebnisse lassen sich testen, der dahinter liegende Code einsehen und Patchett weiter anpassen.
00:18:57: Mit Canvas soll die Grenze zwischen Google's Suchmaschine und einem KI-Assistenten verschwimmen.
00:19:03: Bei der Frage wie sich KI auf kreative Märkte und Arbeitskräfte auswirkt, geht es nicht nur darum das KI in der Lage ist Inhalte zu generieren – die wir menschengemachte Aussehen oder Klingen – und diese dann dadurch ersetzen?
00:19:17: Es geht auch darum….
00:19:19: dass KI-Inhalte menschengemachte Texte in der Aufmerksamkeit verdrängen.
00:19:24: Das sei ein echtes Problem, sagt Josef Drecksel, Direktor am Max Planck Institut für Innovation und Wettbewerb – in einem jüngst veröffentlichten Diskussionspapier.
00:19:34: Martin Holland berichtet
00:19:36: Also dass es gar nicht um kopierte Inhalte geht, sondern das KI-generierte Inhalt menschengemachte Inhalter verdrängen.
00:19:43: Also einfach die Aufmerksamkeit auf sich ziehen und dann liest man halt weniger Zeitungstexte, guckt weniger, gemahlte Bilder anhört, weniger Menschen gemachtes Songs zum Beispiel.
00:19:54: Und dass das Urheberrecht darauf nicht vorbereitet ist weil da geht's nicht darum.
00:19:59: Deswegen hat er jetzt in diesem Diskussionspapier den Vorschlag gemacht, verpflichtet werden, eine Abgabe zu zahlen die an Urheber und Urhebern verteilt wird.
00:20:12: Und er sieht das auch im Interesse von KI-Firmen weil die KI-Modelle ja darauf angewiesen sind dass es Menschen gemachte Inhalte gibt weil sie nur damit sinnvoll trainiert werden können sobald man anfängt die nur mit KI generierten Materialien zu trennen dann aluzinieren die halt öfter also generieren falsche Sachen oder sie können sogar kollabieren, was ja immer wieder erzählt wird.
00:20:32: Dass es dann halt nicht funktioniert ohne Menschen gemachte Inhalte und dass man jetzt irgendwie den Menschen die diese Inhalten machen, irgendwie den finanziellen Anreiz erhalten soll.
00:20:41: deswegen schlägt er dieser Abgabe vor uns.
00:20:43: auch da gibt's ja schon bestehende Strukturen für also wie gesagt GEMA es gibt vor Geworts gibt solche Sachen wo das jetzt schon funktioniert.
00:20:50: und das ist seinen Vorschlag unabhängig davon, dass man den Journalismus auch anders noch schützen muss.
00:21:01: Weil er sagt das ist alles für die Demokratie wichtig, dass Menschen sich äußern, dass menschen sich Gedanken machen, dass Menschensachen hinterfragen und dass Journalismus deswegen auch noch anders gefördert werden soll.
00:21:12: und er plädiert dafür eine Abgabe zu machen, die an Presseverlage verteilt wird, Verantwortungsvolle im Qualitätsjournalismus wird man, wie genau das aussieht müsste man dann gucken.
00:21:25: Aber da soll jedes Jahr bestimmt werden wer das macht und dann werden die Gelder daran verteilt auch gerade an die, die nun wirklich Menschen bezahlen.
00:21:32: Das ist noch ein anderer Aspekt der aber damit zusammenhängt.
00:21:35: Der Vorschlag insgesamt ist nicht neu dieser Vorschlag.
00:21:38: Das wurde immer schon mal gemacht.
00:21:40: Da wurde gesagt Spotify für Journalismus so was, damit man sich das vorstellen kann bislang es daraus aber noch nichts erwachsen.
00:21:46: Danke Martin!
00:21:48: Wenn ihr jetzt Lust habt, noch tiefer in das Thema KI einzusteigen und wenn ihr gleichzeitig diesen Podcast unterstützen wollt könnt ihr das mit einem heiße Plus-Abo tun.
00:21:58: Die Kolleginnen und Kollegen geben da derzeit zum Beispiel Tipps wie sich eine schlanke Open Claw Version installieren lässt – sie haben aber auch gerade den Wirtschaftsinformatiker Prof.
00:22:09: Jinn Gerlach interviewt der erklärt, warum eine radikale Effizienzsteigerung durch KI-Tools seiner Meinung nach fatale Folgen haben könnte.
00:22:19: Es gibt täglich neue aktuelle KI-Themen für Heiseplus-Abonnenten – ihr findet dort aber auch jede Menge Hintergründe und Tests zu anderen Techthemen.
00:22:29: Sichert euch jetzt!
00:22:30: Zwölf Wochen HeisePlus mit fünfzig Prozent Rabatt unter heiseplus.de.
00:22:35: slash audio.
00:22:39: Das war das KI-Update von heiser online vom sechsten März, zwei tausendfünfundzwanzig.
00:22:44: Eine neue Folge gibt es immer Montags Mittwochs und Freitag um fünfzehn Uhr.
Neuer Kommentar