KI-Update kompakt: Hannover Messe, Rechenleistung, Polizei-Daten, Ring-Kameras
Shownotes
Das ist das KI-Update vom 20.04.2026 unter anderem mit diesen Themen:
Deutsche Industrie liegt weltweit beim Einsatz KI vorn
KI-Branche kämpft mit Rechenleistungs-Engpass
Kritik an KI-Training mit Daten der Polizei
und Ring-Kameras jetzt mit optionaler Gesichtserkennung
=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===
Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11264118
Weitere Links zu diesem Podast: https://www.heiseplus.de/audio https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.ct.de/ki
Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Transkript anzeigen
00:00:02: Das KI Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.
00:00:13: Ich bin Isabel Grünewald und dies sind heute unter anderem unsere Themen.
00:00:17: Deutsche Industrie liegt weltweit beim Einsatz von KI Form.
00:00:21: KI-Branche kämpft mit Rechenleistungsengpass.
00:00:24: Kritik an KI Training mit Daten der Polizei – und Ringkameras jetzt mit optionaler Gesichtserkennung!
00:00:32: Deutsche Industrieunternehmen nutzen schon ziemlich viel künstliche Intelligenz und liegen damit im weltweiten Vergleich vorne.
00:00:39: Das zeigt eine neue Studie, mein Kollege Robin Ahrens aus der CT Redaktion hat sie sich angeschaut.
00:00:45: Auch wenn man manchmal den Eindruck bekommt dass die Digitalisierung in Deutschland ziemlich schleppend vorangeht – in der Industrie ist das nicht der Fall!
00:00:52: Das IT-Unternehmen Cisco hat weltweit mehr als tausend Führungskräfte befragt allein fünfhundert davon Europa.
00:00:59: Dabei kam raus Sechzig Prozent der deutschen Industriebetriebe nutzen künstliche Intelligenz schon für die laufende Produktion.
00:01:06: Damit liegt Deutschland über dem europäischen Durchschnitt, der ist nämlich bei sechsundfünfzig Prozent.
00:01:11: Laut der Cisco-Studie sind KI Assistenten die am weitesten verbreitete Technologie.
00:01:16: Drei von vier deutschen Unternehmen nutzen die schon oder experimentieren zumindest mit KI Assistenzen.
00:01:21: Die wichtigsten Ziele der KI Offensive in der Industrie sind vor allem Produktivitätssteigerung und Kostensenkungen.
00:01:27: Die zu realisieren sei mittlerweile auch realistisch, sagt der Vertriebsleiter von Cisco Christian Korff.
00:01:33: Nach zwei Jahren könnten sich KI-Investitionen schon rechnen.
00:01:36: Korff betont aber auch, dass viele Firmen beim Thema KI noch immer hinterherhängen.
00:01:41: Mal sehen was ich in den Industrien.KI noch so tut.
00:01:44: Ab heute findet ja die Hannover-Messe statt und ich werde mich dort mal umschauen und am Mittwoch berichten.
00:01:49: Denn KI-Assistenten kennen wir schließlich alle – aber da muss es doch mehr geben!
00:01:53: Danke schön Robin.
00:01:55: Die Hannover-Messe wurde Sonntagabend von Bundeskanzler Friedrich Merz zusammen mit dem brasilianischen Präsidenten Luiz Ignacio Lula da Silva eröffnet.
00:02:03: Brasilien ist in diesem Jahr das Partnerland.
00:02:06: Prägende Themen für die nächsten Tage sind die Themen KI und Robotik, die für die Industrie und die Gesellschaft große Chancen bieten – aber auch der Bereich Rüstung!
00:02:16: Bundesjustizministerin Stefanie Hubeich hat den seit Wochen erwarteten Entwurf für ein Gesetz vorgelegt Mit dem Opfer gegen die Erstellung und Verbreitung von Intim-Deepfakes sowohl strafrechtlich als auch zivilrechtlich besser vorgehen können sollen.
00:02:32: Nicht die Betroffenen sollen verstummen, sondern die Täter – und digitale Gewalt muss endlich konsequent geahndet werden, so hubig zur Vorstellung des Gesetzentwurfs!
00:02:42: Mit dem neuen Paragrafen « one hundred eighty four K » im Strafgesetzbuch soll verboten werden, dass intimes Bildmaterial unbefugt hergestellt oder verbreitet wird.
00:02:52: Mit dem neuen Paragrafen-Zweihundert-Einsb soll zudem der neuen KI Realität Einheit geboten werden, indem der mittels Computerprogramms erzeugte Anschein eines tatsächlichen Geschehens in Bezug auf eine andere Person strafbar wird.
00:03:09: Denn damit könnte das Ansehen eines lebenden oder auch verstorbenen erheblich beschädigt werden – dafür soll es bis zu zwei Jahre Haft geben!
00:03:17: In Fällen, in denen Abbildungen etwa von Kindern oder Jugendlichen erstellt wurden können bereits härtere Strafen greifen.
00:03:25: Um legale Bildgenerierung geht es bei Google.
00:03:28: Der Fotostienst und das KI-Modell Nano Banana II sollen enger verzahnt werden.
00:03:34: Malte Kirchner aus dem heise online Newsroom erklärt wie das geht
00:03:37: Gestalte mein Traumhaus.
00:03:39: Dieser Prompt soll bei Google Gemini künftig genügen um das eigene Traumdomizil mit Samtfamilie in einem KI generierten Bild zu sehen und das ganz ohne dass erst dutzende Fotos hochgeladen oder allen lange Beschreibungen getippt werden müssen.
00:03:53: Der Konzern verknüpft seinen Fotodienst Google Photos enger mit dem Bildgenerierungsmodell Nano Banana II, das ist Googles KI für das Erstellen von Bildern innerhalb der Gemini-Familie.
00:04:03: Die Idee dahinter – wer ohnehin schon Fotos bei Google gespeichert hat soll diese Bilder direkt als Grundlage für KI generierte Bilder nutzen können.
00:04:12: Keine mühsame Vorbereitung mehr.
00:04:13: die KI kennt die Menschen an Orte schon!
00:04:16: Möglich macht das eine Funktion namens Personal Intelligence.
00:04:20: Sie erlaubt Gemini auf die eigene Fotosammlung zuzugreifen, analysiert dabei Text und Personenmarkierungen, erkennt so Familienmitglieder und Haustiere und schlägt bei Bedarf selbst passende Referenzbilder vor.
00:04:32: Wer das Ergebnis nicht mag der kann per Text nachkorrigieren oder selbst andere Fotos auswählen Und wer wissen will warum die KI jemanden auf eine bestimmte Weise dargestellt hat Der kann sich sogar die verwendeten Quellbilder anzeigen lassen.
00:04:45: Google betont ausdrücklich, die privaten Fotos sollen nicht fürs Modelltraining verwendet werden.
00:04:50: Ob man das glaubt?
00:04:51: Das muss jeder selbst entscheiden!
00:04:53: Datenschützer dürfte das Ganze trotzdem aufhorchen lassen – denn Personal Intelligence geht weit über Fotos hinaus.
00:05:00: Die Funktion kann optional auch mit Gmail, Google Calendar, Drive, YouTube, Maps und weiteren Google-Diensten verknüpft werden.
00:05:07: Google bekommt damit potenziell ein sehr vollständiges Bild von seinen Nutzern.
00:05:12: Für Menschen in Europa ist das zunächst keine akute Frage.
00:05:15: Personal Intelligence ist hierzulande noch nicht verfügbar, in den USA startet die Funktion zunächst für Abonnenten der kostenpflichtigen AI Plus pro und ultra Tarife – ein Rollout für weitere Nutzergruppen ist geplant.
00:05:37: benannt nach der DNA-Forscherin Rosalyn Franklin.
00:05:40: Es ist auf Biologie, Wirkstoffentdeckung und translationale Medizin zugeschnitten – also der Umsetzung von Forschungsergebnissen in der Gesundheitsversorgung.
00:05:50: Das Frontier Reasoning Modell soll Forschenen bei der Evidenzsyntese, Hypothesengenerierung und Experimentplanung helfen und damit frühe Phasen der Medikamentenentwicklung beschleunigen, die in den USA typischerweise zehn bis fünfzehn Jahre dauern.
00:06:05: Wie OpenAI in seinem Blog erläutert, versteht GPT Rosalind vertiefte Zusammenhänge in Chemie, Protein-Engineering und Genomik.
00:06:14: Zudem kann das Modell über ein neues Life Sciences Plug In für Codecs auf mehr als fünfzig wissenschaftliche Tools und Datenquellen zugreifen.
00:06:22: Damit reitet sich in die Strategie ein nach GPT fünftpunkt vier Cyber für die IT Sicherheit nun auch andere Fachdomänen mit spezialisierten Modellen zu bedienen?
00:06:32: Rosalind tritt dabei in einen zunehmend umkämpften Markt
00:06:35: ein.
00:06:36: Anthropic bietet mit Claude for Life Sciences ein vergleichbares Produkt an, während Google DeepMines Alpha Fold sich auf Protein-Faltung spezialisiert hat.
00:06:46: Anthropic hat derweil mit Claudesign ein neues KI Werkzeug für die Gestaltung von Designs, Prototypen, Präsentationen und Webseiten vorgestellt.
00:06:54: Das experimentelle Tool basiert auf dem neuen KI-Modell Claude Opus vier Punkt sieben.
00:07:00: In Beispielvideos ist zu sehen, wie zum Beispiel eine Website mit Hintergrundanimationen erzeugt wird.
00:07:05: Wenn es um Designfragen ging war Ansropic bislang eher zurückhaltend – Mit den Artefakten bot Ansropik zuletzt immerhin interaktive Komponenten und Diagramme im Chat an!
00:07:15: Das ändert sich nun.
00:07:17: Wobei Ansropics seinem Fokus auf Entwicklerinnen und Entwickler treu bleibt aber auch durchaus für Lein interessant wird….
00:07:23: Nutzer können nach dem anfänglichen Prompt mit dem Modell in Interaktion treten und etwa Kommentare in den Rückmeldungen einpflegen, Patchett über das Design diskutieren oder mit KI-generierten Skiberreglern Einfluss auf Abstände, Farben & Layout nehmen.
00:07:39: Claude Design ist für Abonnenten der Abo Pläne Pro, Maxteam und Enterprise ohne Zusatzkosten verfügbar!
00:07:46: Trotz, oder wahrscheinlich eher aufgrund der immens besseren Angebote, steckt die KI-Branche in einer Kapazitätskrise.
00:07:54: Die Nachfrage nach Rechenleistung wächst schneller als die Infrastruktur mithalten kann – die Folgen Ausfälle bei führenden Anbietern, eingestellte Produkte und stark steigende Chippreise.
00:08:06: Das berichtet das Wall Street Journal Kim Scheurenbrand von The Decoder mit den Einzelheiten.
00:08:11: Besonders hart trifft es das KI-Unternehmen Anthropic, dem Hersteller des Chatbots Cloud.
00:08:16: Seit Mitte Februar häufen sich die Ausfälle so stark, dass erste Unternehmenskunden zu Konkurrenten wechseln.
00:08:22: Die Verfügbarkeit der Programmierschnittsstelle lag in den vergangenen neunzig Tagen bis zum achten April bei nur acht neunzigkommennein fünf Prozent.
00:08:31: In der etablierten Cloudbranche geht neunneunzigkommenneun neun Prozent als Standard Davids zu.
00:08:36: Gründer der Software-Plattform Retool, sagte dem Wall Street Journal.
00:08:40: Ein Bevorzuge eigentlich Anthropics-Modell habe aber wegen der ständigen Ausfälle auf OpenAI umgestellt.
00:08:46: Gleichzeitig wächst Anthropic stark – die analysierte Umsatzrate stieg von neun Milliarden Dollar Ende twenty-fünfundzwanzig auf über dreißig Milliarden Dollar nur wenige Monate später!
00:08:56: Auch OpenAI spürt den Engpass.
00:08:58: OpenAI hat das Ende seiner Videogenerierungs-App Sora angekündigt, um Rechenressourcen für Coding und Enterprise Produkte freizumachen.
00:09:06: Die Tokennutzung in der Programmierschnittstelle stieg von Oktober bis März von sechs auf fünfzehn Milliarden pro Minute.
00:09:13: Obmey als Finanzchefin Sarah Fryer sagte, sie verbringe viel Zeit damit kurzfristig verfügbare Rechenkapazität zu finden.
00:09:20: Das Unternehmen müsse derzeit schwierige Entscheidungen treffen welche Produkte es nicht weiterverfolge.
00:09:25: Die Knappheit trifft die gesamte Branche.
00:09:28: Github führt neue Obergrenzen für sein Programmiertool Copilot ein.
00:09:32: Obmeye stellte die Abrechnung für Unternehmen auf tokenbasierte Messungen um Und ein Propicboard zeitweise doppelte Nutzung außerhalb der Stoßzeiten an, um die Last besser zu verteilen.
00:09:42: Normales Chatten und rechenintensive Arbeit mit KI-Agenten werden zunehmend getrennt bepreist.
00:09:48: Auf dem Spotmarkt für Nvidia's Grafikprozessoren – also den Markt für kurzfristig buchbare Rechenzeit – sind die Preise laut dem On-Compute Price Index um forty-eight Prozent gestiegen.
00:09:59: Der KI Cloud Anbieter Cowweave erhöhte seine Preise um mehr als zwanzig Prozent und verlangt von kleineren Kunden nun drei Jahre.
00:10:07: Analysten der Bank of America erwarten, dass die Nachfrage das Angebot bis mindestens in den Jahren.
00:10:14: JJ Cardwell, Chef des Cloud-Infrastrukturanbieters Walter beschreibt die Lage gegenüber dem Wall Street Journal als die schlimmste Kapazitätskrise in über fünf Jahren.
00:10:23: Walter vermietet Rechenleistungen unternehmen.
00:10:25: Cardwell sagte, die Lieferzeiten seien zu langen, Rechenzentren brauchten zu lange und der verfügbare Strom sei bis Ende im Jahr auch bereits vergeben.
00:10:36: Ein Forschungsteam der University of Colorado, das Guangyu Institute of Science and Technology und von Google hat ein System entwickelt, dass Smart Glasses in einen dauerhaft aktiven KI-Assistenten verwandelt.
00:10:50: Der bisherige KI-assistenten können zwar Programme bedienen und im Web arbeiten – sehen aber nicht was in der realen Umgebung passiert!
00:10:57: Smart Glass es wiederum erfassen die Welt über Kamera und Mikrofon, können aber kaum selbstständig handeln….
00:11:04: Das Projekt Vision Claw bringt nun beides zusammen.
00:11:07: Das System koppelt eine Ray-Ban Matter-Brille über ein Smartphone App mit Google's Gemini Sprachmodell und dem Open Source Agenten OpenClaw.
00:11:17: Die Brille streamt dann laufend Bild und Ton an die KI, die dann entweder direkt per Sprache antwortet oder Aufgaben anstößt.
00:11:25: Der Agent nutzt dafür Werkzeuge wie Browser, E-Mail oder Kalender.
00:11:29: In einer ersten Studie mit zwölf Personen war Visionclaw je nach Aufgabe bis zu siebenundreißig Prozent schneller als Vergleichssysteme und wurde als weniger anstrengend empfunden.
00:11:39: In einer zweiten Studie nutzten vier der Autoren das System über mehrere Wochen im Alltag, dabei entstanden fünfundundfünfzig Interaktionen unter anderem für Informationsabruf, Einkäufe und das Speichern von Inhalten.
00:11:53: Allerdings sind die Stichproben sehr klein!
00:11:56: Und die Alltagsstudie wurde ausschließlich von Autoren des Papers durchgeführt.
00:12:02: Zudem sind Google-Forscher an der Arbeit beteiligt und das Unternehmen will noch in diesem Jahr eigene Kaibrielen auf den Markt bringen!
00:12:11: Die Landesbeauftragte für Datenschutz und Informationsfreiheit Nordrhein-Westfalen Bettina Geig hat im Gespräch mit meiner Kollegin Marie Claire Koch den Einsatz der KI- und Analysesoftware von Palantir bei der Polizei kritisiert.
00:12:25: In NRW wurde das Polizeigesetz entsprechend geändert, damit die Polizei die KI mit ihren Daten trainieren darf – welche Risiken Geig dabei sieht?
00:12:34: Fast Marie für uns zusammen!
00:12:35: Das Grundproblem beim Training von KI mit großen Polizeidatenbeständen ist aus Sicht von Frau Geik.
00:12:41: Diese Daten sind nicht neutral und nicht fehlerfrei, sie enthalten nicht nur gesicherte Erkenntnisse sondern auch Verdachtsmomente mögliche Fehlinterpretationen und veraltete Informationen.
00:12:52: in Polizeidatenbanken finden sich Aussagen die sich später als falsch herausstellen Einträge zu Personen die nie verurteilt wurden oder Daten die eigentlich längst hätten gelöscht werden müssen.
00:13:04: Gleichzeitig sei die gesetzliche Grundlage dafür sehr global galaktisch geregeltsagte.
00:13:08: Geig.
00:13:09: Gemeint ist, das Gesetz erlaubt den Einsatz von KI ziemlich pauschal ohne klar festzulegen welche Daten konkret verwendet werden dürfen unter welchen Bedingungen und zu welchen Zwecken.
00:13:20: zwar soll möglichst viel anonymisiert werden aber wenn es als zu aufwändig gilt darf auch mit Klardaten gearbeitet werden.
00:13:28: in Nordrhein-Westfalen wurde das Polizeigesetz dafür im Dezember.
00:13:33: Seitdem darf die Polizei ihre eigenen Daten für das Training von KI nutzen.
00:13:37: Dazu wird auch der Einsatz der Analyse-Software Palantir ausgeweitet, die in NRW unter dem Namen Da – Datenanalyse und Recherche läuft und große Datenmengen miteinander verknüpfen kann!
00:13:47: Das verschärft natürlich die Risiken, denn wenn eine KI mit solchen Daten trainiert wird und daraus Muster ableitet entstehen schnell Schlussfolgerungen wie zwar möglich erscheinen aber nicht zwingend richtig sind.
00:13:58: Gerade in der Gefahrenabwehr kann es dazu führen dass Menschen ins Visier geraten ohne das Nachvollziehbar ist, auf welcher Datengrundlage das passiert.
00:14:05: Hinzu kommt die schiere Menge und Vielfalt der Daten.
00:14:09: Im Polizeisystem stehen nicht nur Informationen über beschuldigte oder sogenannte Gefährder sondern auch überzeugenden und zeugen Anwältinnen und Anwälte – oder Menschen, die einfach nur eine Anzeige erstattet haben.
00:14:20: Wenn all das ungefiltert in das Training einfließt es kaum vorhersehbar welche Schlüsse eine KI daraus zieht.
00:14:26: Und genau darin liegt das zentrale Problem.
00:14:29: KI liefert keine gesicherten Wahrheiten, sondern Wahrscheinlichkeiten und die basieren wiederum auf einer Datenbasis, die oft unvollständig oder fehleranfällig ist.
00:14:38: Im schlimmsten Fall kann das dazu führen dass Unbeteiligte zu Unrecht verdächtigt oder beobachtet werden.
00:14:44: Geil kündigt deshalb an sich das System genauer ansehen zu wollen.
00:14:47: Gespräche mit dem Landeskriminalamt sind geplant und außerdem soll auch der Einsatz im laufenden Betrieb überprüft werden, um besser einschätzen zu können was tatsächlich möglich ist.
00:14:56: Und welche Folgen das für Betroffene haben kann.
00:15:18: Geklagt hat er eine Tierfotografin, die unter Wasserbilder von Hunden anbietet.
00:15:22: Ein früherer Kooperationspartner hatte eines ihrer Fotos in eine KI-Software geladen und die daraus entstandene komikartige Abbildung auf seiner Website veröffentlichte.
00:15:32: Das Gericht bießt die Klage ab.
00:15:35: Die KI-Abbildung übernehmen nicht die schutzfähigen Elemente des Originals also etwa Bildausschnitt Perspektive Belichtung und Schärfe.
00:15:43: das Motiv selbst – in diesem Fall ein tauchender Hund sei nicht geschützt.
00:15:48: Das Gericht stützte sich dabei auf ein aktuelles Urteil des europäischen Gerichtshof.
00:15:52: Demnach kommt es darauf an, ob konkrete kreative Elemente wieder erkennbar übernommen werden – nicht auf den Gesamteindruck.
00:16:01: Zusätzlich stellte das Gericht klar, dass KI-Erzeugnisse nur dann urheberrechtlich geschützt sind, wenn der Mensch erkennbare kreativen Entscheidungen trifft.
00:16:10: Die bloße Auswahl eines KI-Vorschlags oder allgemein gehaltene Eingabebefehle reichen dafür nicht aus!
00:16:18: Bislang war das Gesichtserkennungsfeature von Amazons Ring-Kameras nur in den USA verfügbar.
00:16:24: Nun kommt es auch nach Deutschland, was diese Funktion kann und warum sie umstritten ist, erklärt Daniel Herbig von Heise Online.
00:16:32: Diese Funktion heißt Bekannte Gesichter – wenn die aktiviert ist dann hinterlegen diese Sicherheitskameras oder smarten Türklingen erstmal alle Gesichter, die gut sichtbar im Blickfeld der Kamera erkennbar sind.
00:16:45: Nutzer dieser Kameras können diese Scans dann benennen und abspeichern.
00:16:49: Und wenn sie das nicht tun, verfallen die nach einer Weile.
00:16:52: Wenn die aber gespeichert sind kann einem Ring zum Beispiel eine App sagen, guck mal da steht gerade Oma vor der Tür.
00:16:58: Das ist so die Nutzerperspektive.
00:17:00: Kritisieren kann man natürlich aus Datenschutzsicht weil Amazon hier ja erstmal eine Gesichtserkennung auf alle laufen lässt, die sich irgendwie im Blickfeld der Kamera aufhalten also... zum Beispiel zur Tür kommen, bei einer smarten Tür können jetzt.
00:17:13: Theoretisch müssten Nutzer dieser Kameras eigentlich jede Person fragen ob sie das denn überhaupt dürfen.
00:17:20: aber dass das in der Praxis passiert ist natürlich erstmal ziemlich zweifelhaft.
00:17:24: zudem hat man eigentlich auch das Recht, dass diese Aufnahmen nachträglich noch gelöscht werden wenn man die Einwähigung zurückzieht.
00:17:31: Aber prüfen kann man das natürlich wirklich sehr schwer.
00:17:34: In den USA hat ja noch eine zweite Funktion namens Search Party für Aufsehen gesorgt.
00:17:39: Kommt die jetzt auch nach Deutschland?
00:17:41: Search Party schaltet im Grunde die Ring-Kameras mehrerer Nutzer zusammen, um das zumindest der von Amazon angeführte Einsatzzeug bei der Suche nach einem verschwundenen Haus hier zu helfen.
00:17:53: Die Funktion ermöglicht es also quasi die Kameras... Also die Bilder und die Daten verschiedener Kameras zu bündeln.
00:18:00: Und da ist natürlich die Bepflichtung groß, dass sowas nicht nur zum Widerfinden eines entlaufenden Hund genutzt werden könnte sondern auch zum Tracking von Personen.
00:18:09: Stand jetzt gibt es das aber nicht in Deutschland und ist noch nicht
00:18:12: angekündigt.".
00:18:13: Danke, Daniel!
00:18:15: DeepL führt mit Voice to Voice eine neue Produktreihe ein.
00:18:19: Es ist unter anderem als Alternative zu Googles Angebot zu verstehen da DeepLs neues Angebot ebenso Sprache-zu-Sprache Übersetzung in Echtzeit ermöglicht.
00:18:29: Mit DeepL Voice to Voice sollen Nutzerinnen und Nutzer natürlich in der eigenen Sprache sprechen, während das Gesagte beim Empfänger präzise übersetzt werden soll.
00:18:38: Es kann sowohl in virtuellen Meetings persönlichen Gesprächen als auch kundenorientierten Touchpoints via API eingesetzt werden.
00:18:47: Damit sollen Teams weltweit mühelos Übersprachbarrieren hinweg zusammenarbeiten – erklärt das Kölner Unternehmen für KI-Sprachtechnologie!
00:18:55: Das würde Unternehmen helfen, Support in Sprachen anzubieten, in den qualifiziertes Personal rau und teuer einzustellen sei.
00:19:04: Zum Start des Angebots unterstützt Deeper Voice über vierzig Sprachen darunter die vierundzwanzig offiziellen EU-Sprachen.
00:19:13: Das war das KI Update von Heise Online vom zwanzigsten April.
00:19:16: zwei tausendsechsundzwantig.
00:19:18: Eine neue Folge gibt es immer Montags, Mittwochs oder Freitag um fünfzehn Uhr!
Neuer Kommentar