KI-Update kompakt: GTC-Neuigkeiten, Iran-Konflikt, Deepfakes, didacta
Shownotes
Das ist das KI-Update vom 18.03.2026 unter anderem mit diesen Themen:
Die Neuankündigungen von Nvidias Hausmesse GTC KI-Fakes im Informationskrieg um den Iran-Konflikt Von Deepfakes betroffene Minderjährige klagen gegen xAI und KI-Angebote auf der didacta 2026
=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===
Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11215893
Weitere Links zu diesem Podast: https://www.heiseplus.de/audio https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.ct.de/ki
Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Transkript anzeigen
00:00:02: Das KI-Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.
00:00:13: Ich bin Isabel Grünewald und die sind heute unter anderem unser Thema.
00:00:17: Die Neuankündigungen von NVIDIAs Hausmesse GTC – KI Fakes im Informationskrieg um den Irankonflikt Von Deepfakes betroffenen minderjährige Klagen gegen XAI Und KI Angebote auf der Didakta.
00:00:33: Firmenchef Jensen Hwang schüttelte auf NVIDIAs Hausmesse, GTC-GTZ-Gtz.E, eine Fülle neuer Chips und Serverplattform aus dem Ärmel.
00:00:42: Mein Hardware-Kollege Mark Mantl fasst die Ankündigungen zusammen.
00:00:46: Nvidia zeigt sich bei seiner Hardware für KI-Rechenzentren weiter ambitioniert – Auf den diesjährigen besteuniger Rubin folgt es im Jahr ultrar.
00:00:54: Er kommt mit vier statt zwei GPU Schipplets was die Rechenleistung grob verdoppelt.
00:00:59: Analog verdoppels ich auch die Anzahl der HBM Boschsteine das bis zu fünfhundert zwölf Gigabyte Speicher ergibt.
00:01:04: Zwarzig, achtundzwanzig kommt ein Feynman.
00:01:07: Optisch wird diese Generation deutlich dicht aussehen als Rubin Ultra allerdings trügt erscheinen.
00:01:12: Nvidia will bei Feynmen erstmals GPU Dice stapeln statt sie nebeneinander auf einen Silizium Trigger zu platzieren.
00:01:18: Dadurch wird der Beschleuniger deutlich kleiner.
00:01:20: Spannend wird wie in Video unter Schippauftrags fettiger TSMC die Wärmeabfuhr in den Griff bekommen.
00:01:25: Immerhin könnte Feyn-Man mehr als zweitausend Watt aufnehmen.
00:01:28: entsprechend teils werden die unteren Dice.
00:01:30: Eine zweite Neuerung betrifft den Speicher.
00:01:32: NVIDIA wechselt auf Custom-HBM, das an die eigenen Bedürfnisse angepasst ist.
00:01:37: Zwanzig, sechsundzwanzig kommt auch der ARM Prozessor Vera mit selbst entwickelten CPU Kernen.
00:01:42: Hier plant NVIDia einen Schlag gegen AMD und Intel – denn Vera erscheint für reine CPU Server und nicht mehr nur an GPUs gekoppelt.
00:01:49: Zur Vernetzung von Servern erscheinend wie inzwischen typisch eine fülle neue Hardware darunter Netzwerkprozessoren und Switches.
00:01:55: Vielen Dank Mark!
00:01:57: Nvidia will mit DLSS-Fünf das Spiele-Rendering neu denken.
00:02:02: Aus Farmen und Bewegungsvektoren eines Videospiels soll ein KI-Modell fotorealistische Grafik basteln, die Spielecommunity ist davon allerdings nicht begeistert, berichtet mein Kollege Daniel Herbig.
00:02:15: Ja in den sozialen Medien schaukelt sich das aktuell tatsächlich sehr hoch.
00:02:18: also Spielefans und einige Journalisten auch zeigen sich da wirklich vollkommen schockiert von den Vergleichsbildern Und bei der Kritik geht es vor allem eben um die Gesichter, der Figuren, die da gezeigt werden.
00:02:30: Und wir haben ein paar Vergleiche veröffentlicht, wo dann zum Beispiel die Hauptfigur von Resident Evil neun plötzlich sowieso einen Instagram-Girlie mit übertriebenem KI-Filter aussieht und allgemein dass man mit den Gesichtern bei Dialessus V schon ziemlich im Uncanny Valley unterwegs... ...und die Befürchtung das diese KI dann irgendwie die künstlerische Visionen der Entwickler überschreibt kann ich schon nachvollziehen.
00:02:55: Auf der anderen Seite finde ich die Reaktionen dann schon überzogen.
00:03:00: Man sieht hier ein paar Beispiele aus einer frühen Beta-Version, das kann zum Release im Herbst alles noch besser aussehen und überhaupt sagt den Video ja dass die Entwickler eigentlich die Kontrolle darüber bekommen sollen wie intensiv und wo genau DLSS V überhaupt aktiv wird.
00:03:15: also theoretisch könnten die Entwicklers auch sagen hey lass die Gesichter mal in Frieden und konzentriere dich lieber auf realistische Materialeigenschaften oder die Beleuchtung.
00:03:25: Die grundlegende Technik ist nämlich eigentlich schon sehr beeindruckend.
00:03:28: Also ich würde noch abwarten, bis sich da ein finales Urteil
00:03:31: fällt.".
00:03:31: Danke schön Daniel!
00:03:34: Immer wieder klagen Medien schaffende Gegenteckkonzerne weil diese urheberrechtlich geschütztes Material ohne Genehmigung für das Training ihrer KI-Modelle verwenden.
00:03:44: Nun zieht auch die Encyclopedia Britannica gegen OpenAI vor Gericht.
00:03:49: OpenAI soll unberechtigterweise knapp einhunderttausend Online-Artikel sowie Encyclopedie und Wörterbucheinträge von der Encyclopia Britanniker und Merriam-Webster genutzt haben, um ChatGPT zu trainieren.
00:04:03: Der Chatboard hat dann nahezu wortgetreue Kopien der Einträge erstellt – und so nutzende von einem Besuch der Websites von Britannika abgelenkt!
00:04:12: Weniger Besucher bedeuten weniger Werbeeinnahmen.
00:04:16: OpenAI soll auch gegen ein Markengesetz verstoßen haben, in dem ChatGPT erfundene Inhalte oder Halluzinationen generiert und diese fälschlicherweise der Online-Enzyklopädie zugeschrieben hat.
00:04:29: Das schadet dem Ruf der vermeintlichen Quelle – weswegen Britanniker eine Entschädigung fordert.
00:04:34: Außerdem soll dieses Verhalten der Chatbots künftig unterbunden werden!
00:04:40: Laut Reuters reichte Britanniker im vergangenen Jahr ebenfalls eine ähnliche Klage gegen Perplexity ein.
00:04:46: Diese ist noch nicht entschieden!
00:04:49: Die New York Times hat in den ersten zwei Wochen des Kriegs zwischen den USA, Israel und dem Iran über onehundertzehn KI-generierte Fakebilder und Videos auf Plattformen wie X, TikTok und Facebook identifiziert.
00:05:03: Zusammengenommen erreichten die Fälschungen einen Millionenpublikum.
00:05:07: Der Iran setzt fakes offenbar gezielt als Informationswaffe ein.
00:05:11: Gleichzeitig wird es für unabhängige Beobachte immer schwerer, Fakten von Fiktion zu unterscheiden – beobachtet Max Schreiner von The Decoder.
00:05:20: Die Fälschung decken sämtliche Aspekte des Krieges ab von frei erfunden Explosionen in Tel Aviv nie angegriffene Straßenzügen, protestierenden Soldaten die nicht existieren.
00:05:29: Neue KI-Werkzeuge, insbesondere die Videomodelle ermöglichen das fast jedem für wenig Geldteils täuschend echte Kriegssimulation zu erstellen.
00:05:38: Laut dem Analyseunternehmen CIAPRA dient die Mehrheit der Fakes pro iranischer Propaganda – zumindest von denen, die hier von den New York Times und dem Analyseunternehmen gefunden wurden!
00:05:49: Medienforscher Mark Owen Jones von der Northwestern University sagt beispielsweise, das Erzähl dieser Videos sei die militärische Stärke des Iran zu übertreiben und den Krieg für Amerikas Verbündete verheerender erscheinen zu lassen als er tatsächlich ist.
00:06:04: Ein besonders virales Beispiel nach dem Irans Revolutionsgarten behaupteten den US-Flugzeugträger USS Abraham Lincoln angegriffen zu haben, überfluteten KI generierte Bilder eines brennenden Schiffs.
00:06:15: die Netzwerke, die USA erklärten, der Angriff sah erfolgreich gewesen.
00:06:19: Während der echte Kriegsaufnahmen oft aus der Distanz oder bei Nacht entstehen, inlernen die KI-Fälschungen eher Hollywood-Actionfilmen mit großen Pilzwolken und leuchtenen Hüberschallreaketen.
00:06:29: Die Desinformation erreicht aber auch deutsche Redaktionen – Der Spiegel entfernte kürzlich mehrere Bilder aus seiner Iranberichterstattung, die mit hoher Wahrscheinlichkeit KI generiert waren.
00:06:40: Betroffen waren auch andere deutsche und europäische
00:06:43: Redaktion.".
00:06:44: Erschwerend kommt auch hinzu, dass unabhängige Überprüfungen zunehmend schwieriger werden.
00:06:48: Denn der Satellitenbetreiber Planet Labs hat etwa die Verzögerung für hochauflösende Bilder der Region von vier Tage auf zwei Wochen verlängert – die Sperre umfasst den gesamten Iran, verbündete Militärbasen und die Golfstaaten.
00:07:02: Auch der Branchenführer Wantoor blockiert Aufnahmen von US- oder alliierten Stützpunkten.
00:07:06: beide Unternehmen erklärten nicht auf Regierungsanweisungen zu handeln.
00:07:10: Diese Lücke hilft natürlich auch Desinformationsakteuren.
00:07:13: In sozialen Medien tauchen gefälschte Accounts auf, die sich als seriöse Open-Source-Analysten ausgeben – sie verbreiten dann KI generierte Satellitenbilder als angeblich echte Aufklärung.
00:07:24: So veröffentlichte die Regime nahe Terrain Times ein angebliches Satellitebild der Zerstörung eines US Radars in Qatar.
00:07:31: das machte schnell die Runde auf X und anderen Plattform.
00:07:34: es stellte sich dann als per KI manne Pille des Google Earth Bild heraus.
00:07:38: Wenn echte Aufnahmen also mehr und mehr verschwinden, können KI-Fakes dieses Vakuum auch leichter füllen.
00:08:04: Zwei der Personen sind noch minderjährig.
00:08:06: Eines ist inzwischen volljährig geworden und das könnte eine der ersten größeren Fälle werden, wo diese Problematik vor Gericht behandelt wird.
00:08:15: Das hat Anfang des Jahres für viel Aufsehen gesorgt dass GROC den man einfach auf X auf dem Kurznachrichtendienst quasi benutzen kann also beauftragen kann Bilder zu erstellen.
00:08:27: Der hat da sexualisierte Deepfakes erstellt von möglichen Leuten, von Promis und nicht Promis aber eben auch Minderjährigen.
00:08:35: Also es hat so funktioniert dass man einfach ein Bild gegeben hat oder sogar ein Bild kommentiert hat das jemand reingestellt hat und gesagt hat Gok mach doch mal das dieses Bild ändert das Bild doch mal so dass die Person nackt ist.
00:08:47: Die drei Personen die jetzt Klage eingereicht haben die werfen nun vor Dass das von ihnen passiert sei als sie Mindergerik waren, wie gesagt.
00:08:55: Und sie sind erst darauf aufmerksam geworden als Sie drauf hingewiesen wurden dass diese vermeintlichen Nacktbilder, keine richtigen Nackte bilden also diese angeblichen nackte Bilder auf Discord geteilt worden.
00:09:07: die erste Person von den dreien die das rausgefunden hat da ist es schon im letzten Jahr passiert Im Herbst Das ging auch schon länger.
00:09:14: Also der Skandal war Anfang des Jahres aber das ging schon hat schon länger funktioniert Und die ist im Herbst eben drauf aufmerksam gemacht worden.
00:09:22: Dann hat sie auf Discord eine Gruppe entdeckt, wo auch noch andere Personen aus ihrer Schule, andere Frauen aus der Schule solche Bilder... Also da gab es solche Bilder von denen und die anderen beiden, die jetzt klar geeignet haben sind dann im Februar darauf aufmerksam gemacht wurden.
00:09:40: Die Anwaltskanzlei macht nun xR schwere Vorwürfe sagt das sei gemacht worden um Profit einzustreichen ohne an Menschen zu denken und außerdem weisen sie drauf hin?
00:09:52: oder weiß die Anwaltskanzlei daraufhin, dass die jungen Frauen und die Mädchen jetzt Zeit ihres Lebens da drauf hingewiesen werden.
00:10:00: Dass diese Bilder existieren?
00:10:02: weil es gibt eine Datenbank für solche Darstellungen und jedes Mal wenn in einem Gerichtsverfahren wieder jemand angeklagt wird oder vor Gericht steht, weil ihr Missbrauchsbilder irgendwo hatte oder die in einem Verfahren dann Erwähnt werden, kriegen Sie ein Hinweis, dass diese Bilder wieder da sind.
00:10:21: Also jedes wird andauernd passieren, dass die Personen darauf hingewiesen werden, dass da diese Bilder von Ihnen existieren und deswegen finden sie das besonders schwerwiegend.
00:10:33: Danke Martin!
00:10:35: OpenAI plant offenbar einen strategischen Kurswechsel.
00:10:39: Statt wie bisher auf viele Produktfronten gleichzeitig zu setzen, will das Unternehmen seine Ressourcen auf Coding-Werkzeuge und Geschäftskunden konzentrieren.
00:10:48: Der Auslöser ist der Aufstieg des Konkurrenten Anthropic.
00:10:52: Fiji Simo bei OpenAI verantwortlich für alle Anwendungen stellte die Pläne Laudit Morsi Journal in einem unternehmensweiten Meeting vor.
00:11:01: Man dürfe diesen Moment nicht verpassen, weil man sich von Nebenmissionen ablenken lasse", sagte sie den Mitarbeitenden.
00:11:08: Im vergangenen Jahr hatte OpenAI zahlreiche Produkte angekündigt – dem Videogenerator Zora, den Webbrowser Atlas ein Hardware-Gerät mit Designer Joni Ives sowie eComes Funktion für Chat GPT.
00:11:20: Doch die Vielzahl paralleler Projekte habe zu mangelndem Fokus geführt.
00:11:24: Zora etwa erreichte nach dem Start kurzzeitig Platz eins im Apple App Store.
00:11:29: Danach stagniert sie die Nutzung aber.
00:11:31: Der Konkurrent Anthropic hat sich derweil mit seinen Produkten Claude Code und Co-Work zum schnell wachsenen KI Anbieter für Unternehmen entwickelt.
00:11:40: Anthropik hat dabei deutlich weniger Produktwetten platziert, und Audio-, Bild- und Videogenerierung bislang bewusst vermieden.
00:11:48: Simo bezeichnete Anthropics Erfolg gegenüber den Mitarbeitenden als Wegruf!
00:11:54: Ganz im Sinne des neuen Fokus bringt OpenAI zwei neue Modelle auf den Markt.
00:11:58: Wie eigentlich immer alle neuen Modelle, sollen GPT-Fünfpunkt vier Nano und Mini effizienter und leistungsfähiger als die Vorgänger sein – zudem auch noch besonders schnell!
00:12:09: Dabei ist GPT fünfpunkt vier nano das kleinste und schnellste Modell, was dazu auch am kostengünstigsten ist.
00:12:16: OpenAI empfiehlt es für Aufgaben wie die Klassifizierung, Datenextraktionen.
00:12:22: GPT-Fünf.v Mini soll besonders effektiv in Coding Workflows sein, die von schnellen Iterationen profitieren – auch hier gilt schnell und kostengünstig!
00:12:32: Es soll zudem durchweg im Benchmarks besser abschneiden als GPT Fünf Mini.
00:12:37: GPT fünf.v mini ist ab sofort via API, Codecs & InterGPT verfügbar.
00:12:43: Die Nano Version ist nur via API verfügba.
00:12:47: OpenAI-Sprachmodell GPT-IV.V hat in Destiny-Touring-Test bestanden, allerdings nur unter einer Bedingung – die KI musste sich absichtlich schlechter geben als sie ist!
00:12:59: Lässig schreiben, Tippwähler machen, schlechte Mathe sein und es nicht zu sehr versuchen.
00:13:04: In einer Studie hielten seventy drei Prozent der teilnehmenden GPT IV mit dieser lässigen Person für einen Menschen.
00:13:12: Das war sogar häufiger als beim tatsächlichen menschlichen
00:13:15: Gesprächspartner.".
00:13:16: Ohne die Anpassung lag die Quote allerdings nur bei sießunddreißig Prozent.
00:13:21: Der KI-Risiko bewährter Schabell Raphael Segeri nennt das Ergebnis ironisch, KI könne seitenlange gut strukturierte Texte in Sekunden produzieren und genau das müsse Sie verbergen um als Mensch durchzugehen!
00:13:35: Tatsächlich ist der Touring Test als Maßstab für KI mittlerweile umstritten – er misst keine Intelligenz sondern nur die Fähigkeit menschliches Verhalten überzeugend nachzuahmen.
00:13:47: Microsoft rückt Gerüchten zufolge von seinen Plänen ab, Co-Pilot in sämtliche Bereiche der Windows-Oberfläche zu integrieren.
00:13:54: Es scheint als bewährte Microsoft den KI Ansatz für das Betriebssystem neu erklärte Knob von Heises Security.
00:14:16: Dazu gehörten KI-Funktionen auf Systemebene für die Einstellungen, Benachrichtigung und den Datei-Explorer.
00:14:23: Die wurden vor rund zwei Jahren angekündigt haben sich bis jetzt jedoch nicht manifestiert.
00:14:28: KI Funktion gibt es natürlich trotzdem ohne Co-Pilot Branding etwa in den Einstellenden eine semantische Suche und im Datei Explorer ein KI Aktionsmenü das jedoch ausgewähltes an weitere Apps durchreicht.
00:14:42: In den ersten Vorführungen von Co-Pilot waren derartige Aktionen noch ohne das öffnen weitere Apps möglich.
00:14:48: Sie doch gibt es in dem Benachrichtigung keine KI Funktion, die hätten etwa direkte Reaktionen auf Mausklick ermöglichen sollen – etwa das Öffnen von Dateien oder das Antworten auf Nachrichten.
00:14:59: Änderungen gab's auch unter der Haube.
00:15:01: Die Windows Copilot Runtime wurde in Windows AI Arpies umbenannt.
00:15:07: Weitere anonyme Quellen, die angeblich mit Microsofts Pläne vertraut sind haben zunehm angegeben, dass Microsoft Windows Elf dieses Jahr weniger mit KI aufblähen wolle.
00:15:17: Microsoft wolle stattdessen taktvoller vorgehen, wo die Marke Co-Pilot und KI Erweiterungen in Apps und Schnittstellen auftauchen – das sei Teil größerer Anstrengung der Kritik und Bedenken von Nutzern entgegenzutreten, die Windows Elft Aufblähung und Entschrittefication attestieren.
00:15:34: Am Ende kommen trotzdem neue KI Funktionen hinzu.
00:15:37: Sie sollen jedoch optional und abscheidbar bleiben!
00:15:40: Microsoft selbst lieferte dem Medium eine Stellungnahme, die solchen Plänen zumindest nicht entgegensprechen.
00:15:47: Unser Ansatz in der Produktentwicklung basiert auf Funktionsvorschauen mit Kunden und Weiterentwicklungen basierend auf ihren Rückmeldungen.
00:15:54: Einige Funktionen können lediglich im abgeschotteten Kreis getestet und aktualisiert werden bevor sie weiteren Kreisen zugänglich gemacht werden während wir andere öffentlich mit den Feedback von Windows Insider testen und verbessern.
00:16:06: In beiden Fällen können Funktionen sich ändern oder im Laufe der Zeit entfernt oder ersetzt werden, wenn wir Rückmeldung von Kunden einsammeln.
00:16:13: Vielen Dank Dirk!
00:16:15: Die Linux Foundation hat zwölf Komma fünf Millionen US-Dollar gesammelt – das Geld soll Open Source Projekte unterstützen.
00:16:23: Es stammt von Firmen wie Anthropic, Google, Microsoft und OpenAI.
00:16:27: Ziel sind sichere und nachhaltige Lösungen.
00:16:30: Maintainer sollen bessere Werkzeuge erhalten.
00:16:34: Ein Problem nämlich ist sogenannte KIS-Schlopp.
00:16:37: KI Tools ermöglichen vielen Menschen Codebeiträge, auch ohne viel Erfahrung.
00:16:41: reichen sie dann Pull Request sein – das überlastet die Maintainer!
00:16:46: Einige Projekte reagieren bereits, dass CurlProjekt stoppte kurzzeitig seinen Bug Bounty Programm.
00:16:51: GitHub kündigte neue Funktionen an damit Vorschläge leichter gelöscht werden können.
00:16:56: Die Geldgeber sind allerdings Teil des Problems da Sie diese KI Tools anbieten.
00:17:02: Gleichzeitig erkennen sie den Wert von Open Source.
00:17:05: Diese bildet die Basis vieler Systeme – ihre Sicherheit ist also entscheidend!
00:17:11: Die Mittel werden über Initiativen wie AlphaOmega und OpenSSF verteilt.
00:17:17: Während in den vergangenen Jahren der Begriff künstliche Intelligenz an vielen Ständen der deutschen Bildungsmessen prominent auf jeder Oberfläche prangte, war auf der diesjährigen Didakterin Köln vor allem die smartphonefreie Schule Thema der Aussteller.
00:17:32: Meine Kollegin Christina Baer konnte beobachten, dass KI in Bildungsangeboten inzwischen als Selbstverständlichkeit angenommen wird und nicht mehr Dutzendfach auf jeder kleinen Handreichung erwähnt werden muss.
00:17:44: KI war natürlich trotzdem überall auf der Detaktor ein Thema – eine weite Spannbreite gab es zwischen sehr präzisen Prompting-Anleitungen etwa für die Ausdifferenzierung von Lern- und Lehrmaterialien und den Einklickversprechen.
00:18:00: Was sich als besser und anwendungsfreundlicher erweisen wird, müssen umfangreiche Vergleichstests ermitteln.
00:18:06: Anleitungen wie zum Beispiel eine Handreichung von Bestermann unter Universität zu Köln die im Didakterartikel auf Heise online verlinkt ist könnten bei der Qualitätseinschätzung aber schon einmal Hinweise liefern.
00:18:20: Spannend waren Kölner das Panel zur Lernprozessplattform Lernlock mit der KI.
00:18:25: Freddy Lernlock brüstet sich nicht mit Einklick-Lösungen, sondern wird mit der Vergesslichkeit von Freddy.
00:18:32: Die KI will für ihren Einsatz Daten zu Schülerinnen und Schülern nicht maßlos sammeln, speichern oder agrigieren, sondern diese nur in vordiffinierten Grenzen erheben – und für dezidierte Anfragen zusammenstellen um sie dann wieder der Ablage P dem Papierkorb zuzuführen.
00:18:49: Lernock will also Learning Analytics mit möglichst geringem Risiko bereit stellen!
00:18:55: Was das Konkreter heißt?
00:18:56: Ziel ist es unter anderem nicht, dass Freddy für Lehrkräfte auflistet wer das leistungsstärkste Kind ist und welches das Schwächste.
00:19:04: Stattdessen soll die KI-Lehrkräften nötige Datenpunkte zusammenstellen damit sie Kinder individuell darin unterstützen können das Lernen besser zu lernen.
00:19:14: Das Konzept soll so schrittweise die Selbststeuerung und Kompetenzentwicklung fördern.
00:19:20: Lernlock arbeitet für dieses Konzept mit der Firma Ontodigital, Datenschützern und Experten wie Prof.
00:19:27: Dr.
00:19:27: Ing-Axl Wagenitz von der Hochschule für angewandte Wissenschaften in Hamburg zusammen.
00:19:33: Die Plattform ist eine Initiative der Montagsstiftung Jugend & Gesellschaft – wird nicht gewinnorientiert
00:19:40: betrieben!
00:19:40: Danke schön, Christina!
00:19:43: Handshake AI sucht aktuell Menschen mit Erfahrung im Theater, Improvisation oder Comedy.
00:19:49: Sie sollen in Online-Sessions, Szenen spielen und Dialoge entwickeln.
00:19:54: Dabei sollen sie Emotionen möglichst realistisch darstellen – die Bezahlung liegt bei etwa US dollar pro Stunde.
00:20:02: Das Ziel wird nicht direkt genannt.
00:20:04: Die Anzeige deutet jedoch auf Trainingsdaten für Sprachmodelle hin.
00:20:08: KI-Systeme sollen Emotion und Gespräche besser verstehen.
00:20:12: Davon könnten Assistenten mit natürlicher Sprache profitieren!
00:20:16: Handshake vermittelt Fachkräfte an KI-Anbieter, die menschliches Feedback, Trainingsdaten und Tests für ihre Modelle benötigen um Lücken im Wissen oder in Fähigkeiten der KI-Modelle zu schließen.
00:20:27: Solche Jobs sind nicht neu – meist geht es um Bereiche wie Medizin, Recht, Naturwissenschaften oder Technik.
00:20:34: Neu ist jetzt der Fokus auf Schauspiel und Performance damit die KI Menschen besser versteht!
00:20:41: Der chinesische Technologiekonzern Alibaba fasst seine Aktivitäten in einer neuen Geschäfts-Einheit zusammen.
00:20:47: Die Sparte trägt den Namen Alibaber Token Hub und wird direkt von CEO Eddie Wu geleitet, das berichtet die Nachrichtenagentur Bloomberg.
00:20:57: Die Einheit vereint das Forschungsteam hinter den Quentsprachmodellen, die Verbraucherabsparte, die Kommunikationsplattform Ding Talk & Hardware wie Smart Glasses.
00:21:08: Alibaba plant zudem noch diese Woche einen KI-Agenten für Firmenkunden zu veröffentlichen, der schrittweise mit der Handelsplattform Taobao und dem Bezahldienst Ali Pay verknüpft werden soll.
00:21:19: Erst kürzlich war der Chefentwickler der Quellenmodelle entlassen worden – diese waren bisher größtenteils Open Source!
00:21:26: Mit ihm sind auch einige weitere Forschende der Gruppe gegangen.
00:21:30: Der isntische Fahrdienstvermittler Bolt plant eine Zusammenarbeit mit Nvidia im Bereich Robotaxis.
00:21:37: Während NVIDIA die Technologie liefern soll, will Bolt Daten aus seinem Fahrbetrieb beisteuern.
00:21:43: Die technische Grundlage liefert NVIDias Drive Hyperion – eine Plattform, die Hardware-Sensorik und Software für den Einsatz von Robotaxis auf Level IV Niveau bündelt.
00:21:53: Bolt wiederum will seine umfangreichen Fahrdaten nutzen, um darauf basierende KI-Systeme zu trainieren.
00:21:59: Darüber hinaus bleibt die Partnerschaft wage – konkrete Schritte und einen Zeitplan nennen beide nicht!
00:22:05: Für Bolt ist die Partnerschaft ein strategischer Schritt, um sich im entstehenden Markt für autonome Fahrdienste zu positionieren – ohne selbst die zugrunde liegende Technologie entwickeln zu müssen.
00:22:16: Bolt will zusammen mit Stellantis Testfahrzeuge für den Einsatz in europäischen Ländern entwickeln.
00:22:21: In drei Jahren sollen diese Serien reif sein!
00:22:25: Das war das KI-Update von Heise Online vom Eightzehnten März, zwanzigundzwanzig.
00:22:30: Eine neue Folge gibt es immer Montags, Mittwochs und Freitags um fünfzehn Uhr.
Neuer Kommentar