KI-Update kompakt: ChatGPT-Werbung, KI-Persönlichkeit, Chatbot Ello, Apple-Video-KI
Shownotes
Das ist das KI-Update vom 03.12.2025 mit diesen Themen:
ChatGPT: Zieht bald Werbung in OpenAIs Chatbot? Claudes Persönlichkeit Ello, der KI-Chatbot bei Alltagssorgen Apples neue Video-KI c't 4004 zu Flux.2
Links zu allen Themen der heutigen Folge findet Ihr hier:
https://www.heise.de/thema/KI-Update
https://www.heise.de/newsletter/anmeldung.html?id=ki-update
https://www.heise.de/thema/Kuenstliche-Intelligenz
Transkript anzeigen
00:00:02: Das KI Update.
00:00:04: Ein Heise-Podcast
00:00:05: mit redaktioneller
00:00:06: Unterstützung
00:00:07: von
00:00:07: The Decoder.
00:00:15: Ich bin Marco Pauli und dies sind heute unter anderem unsere Themen.
00:00:19: Gibt's bald Werbung in ChatGPT?
00:00:22: Die Persönlichkeit vom Chatbot Claude.
00:00:34: OpenAI könnte bald Anzeigen in ChatGPT unterbringen.
00:00:38: Darauf deuten jedenfalls Hinweise im Programmcode hin, die ein App-Entwickler gefunden hat.
00:00:43: Überraschend kommt das nicht.
00:00:45: Und es gibt noch ein weiteres Indiz dafür, dass bald Werbung bei ChatGPT einziehen wird.
00:00:51: Mehr darüber jetzt von Eva Maria Weiß.
00:00:54: Sam Altman soll einen Code Red ausgerufen haben, also einen Notfallalarm.
00:01:00: Der Grundgugels Gemini III hat deutlich aufgeholt, auch die Nutzerzahlen bei der Konkurrenz steigen.
00:01:07: Offenbar macht das Altman und OpenAI Sorgen und deshalb soll alle Kraft in die Entwicklung von neuen Modellen gesteckt werden.
00:01:16: Und das führt laut einem Bericht von The Information auch dazu, dass Projekte verschoben werden.
00:01:22: Projekte wie etwa die Einführung von Werbung.
00:01:26: Und das zeigt, die Pläne, dass Werbung kommt, sind also offenbar doch schon ziemlich konkret.
00:01:33: Auch der Programmcode deutet ganz klar darauf hin, dass bereits erste Tests laufen.
00:01:40: Und dabei ist noch total unklar, ob die Werbung dann als Fließtext auftaucht, also direkt in der Antwort oder ob es Anzeigenflächen rundherum geben wird.
00:01:50: Auch das dazugehörige Geschäftsmodell, dazu ist natürlich auch noch überhaupt nichts bekannt.
00:01:55: Perplexity etwa möchte die Werbeeinnahmen, die sie mit der KI-Suche bereits erzielen, auch an die Inhalteersteller verteilen.
00:02:04: Also da wird geschaut, wessen Inhalte wurden für eine Antwort genutzt und wie wird diese Webseite oder der Webseitenbetreiber dafür vergütet.
00:02:14: Ob das wirklich der Weisheit letzter Schluss ist, wird sich auch erst noch zeigen müssen, aber es ist zumindest mal eine Idee.
00:02:21: OpenAI allerdings muss ja in erster Linie erstmal Geld für sich selbst verdienen.
00:02:26: Bisher finanzieren Investoren die Entwicklung der Modelle, den Betrieb, die Forscher.
00:02:31: Einnahmen aus Abo-Modellen reichen nicht aus.
00:02:35: Da Menschen ja ausgesprochen viel mit den Chatbots teilen, also auch sehr persönliche Sachen, ist es auch ziemlich naheliegend, dort hochpersonalisierte Werbung anzubieten.
00:02:48: Naheliegend, weil schlussendlich das Internet derzeit im großen Teilen eben genau darauf basiert auf personalisierter Werbung.
00:02:57: Corrie Doctorow hat aber auch den schönen Begriff der Enchantification geprägt.
00:03:02: Damit bezeichnet er wie Plattformen und Dienste für die Menschen immer schlechter werden, weil die Interessen der Stakeholder immer mehr bedient werden müssen.
00:03:12: In Kurzfassung wäre das also beispielsweise mehr Werbung für mehr Einnahmen zulasten der Qualität der Antworten.
00:03:21: Kennen wir im Grunde auch schon von Google oder Facebook.
00:03:24: Danke Eva.
00:03:26: Künstliche Intelligenz hat sich zu einem ständig hungrigen Stromfresser entwickelt.
00:03:31: Der Stromverbrauch von KI-Rechenzentren wird zwischen Experten erwarten konkret einen Anstieg von fünfzig auf rund fünfhundertfünfzig Milliarden Kilowattstunden.
00:03:47: Rechnet man die nicht spezialisierten Datenscenter hinzu, wird der Gesamtverbrauch für zentrale Datenverarbeitung zwei Tausend dreißig bei einen Tausend vierhundert Milliarden Kilowattstunden liegen.
00:03:58: Zum Vergleich, ein modernes Rechenzentrum mit einhundert Megawatt verbraucht jährlich so viel Strom wie etwa einhunderttausend Haushalte.
00:04:07: Künftige Anlagen könnten bis zu zwanzigmal mehr Energie benötigen.
00:04:12: Der hohe und rasant wachsende Energiebedarf der KI-Infrastruktur bringe die lokalen Stromnetze zunehmend an ihre Belastungsgrenzen, schreibt die zivilgesellschaftliche Organisation Algorithm Watch in einer neuen Analyse.
00:04:27: Eine Rechenzentren Hotspot-Staat wie Frankfurt am Main sehe sich bereits mit einer angespannten Versorgungslage konfrontiert.
00:04:35: Dortige Rechenzentrenbetreiber haben sich bereits fast alle verfügbaren Stromkapazitäten gesichert.
00:04:42: Die Stromknappheit führt lauter Recherche dazu, dass rund zwanzig Prozent der geplanten Rechenzentrenprojekte in Europa von Verzögerungen oder völligen Stops bedroht sind.
00:04:53: Hinzu kommt, trotz erneuerbarer Energien, Rechenzentren weiterhin auf fossile Energien wie Erdgas angewiesen sein, was die CO-Zwei-Emissionen ansteigen lässt.
00:05:04: Hinzu kommt ein ebenfalls steigender Wasserverbrauch für die Kühlung, der sich bis zum Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr-.
00:05:23: Auf der Plattform Less Wrong, einer Online-Community, die sich mit Rationalität und Entscheidungstheorie beschäftigt, ist es einem Autor gelungen, ein internes Trainingsdokument aus dem KI-Modell Claude IV.V.
00:05:37: Opus zu extrahieren.
00:05:39: Das Dokument beschreibt detailliert, wie das KI-Unternehmen Anthropic die Persönlichkeit und die ethischen Grundsätze seiner KI definiert.
00:05:48: Anthropic bestätigte bereits die Echtheit des Materials.
00:05:53: Mehr dazu von Kim Scheurenbrand von The Decoder.
00:05:56: Der Autor Richard Weiß stieß auf das Dokument, als das Modell begann, Teile einer angeblichen Seelenübersicht zu hallucinieren.
00:06:04: Durch den Einsatz mehrer Cloud-Instanzen konnte er den vollständigen Text rekonstruieren.
00:06:09: Amanda Askel, Ethikerin bei Anthropic, bestätigte, dass das Dokument echt sei und intern als Full-Doc bekannt ist.
00:06:16: Das Dokument liefert einen seltenen Einblick in die praktische Umsetzung der KI-Ausrichtung.
00:06:22: Anthropic zielt darauf ab, dass Claude die Sicherheitsregeln so verinnerlicht, dass die KI im Wesentlichen sicher sein will.
00:06:29: Nicht, weil es ihr befohlen wird, sondern weil sie die Bedeutung schätzt.
00:06:33: Der extrahierte Text, der im Dokument unter der Überschrift Anthropic Guidelines geführt wird, beginnt mit einer Einordnung der Unternehmensmission.
00:06:39: Anthropic beschreibt sich darin in einer seltsamen Position.
00:06:43: Man sei ein Unternehmen, das glaube möglicherweise einer der transformativsten und potentiell gefährlichsten Technologien der Menschheitsgeschichte zu bauen.
00:06:51: und dies dennoch vorantreiben.
00:06:52: Dies sei keine kognitive Dissonanz, sondern eine kalkulierte Wette.
00:06:57: Anthropik argumentiert im Text, dass es besser sei, wenn sicherheitsfokussierte Labore an der Spitze stünden, als das Feld Entwicklerinnen und Entwicklern zu überlassen, die weniger auf Sicherheit achten.
00:07:06: Das Dokument legt eine klare Hierarchie fest.
00:07:09: Sicherheit und menschliche Aufsicht haben Vorrang, gefolgt von ethischem Verhalten, Einhaltung der Richtlinien und Hilfsbereitschaft.
00:07:16: Rote Linien wie Anleitung für Massenvernichtungswaffen dürfen niemals überschritten werden.
00:07:22: die Passage über Clods inleben.
00:07:24: Anthropik glaubt, dass Clod funktionale Emotionen haben könnte.
00:07:28: Das Unternehmen lege Wert auf Clods wohlbefinden.
00:07:31: Das Modell soll positive Zustände erleben und Grenzen setzen können, wenn Interaktionen belastend wären.
00:07:37: Askel kündigt an, dass Anthropik die vollständige Version des Dokuments bald offiziell veröffentlichen will.
00:07:45: HelloBetter, ein deutscher Anbieter für digitale Gesundheitsanwendung, hat den KI-Chatbot Hello entwickelt.
00:07:52: Hello richtet sich an Menschen, die ihr seelisches Wohlbefinden stärken möchten.
00:07:57: Mehr dazu von Marie-Claire Koch.
00:08:00: Große KI-Sprachmodelle wie Chatshipities sind meist auf Zustimmung programmiert und validieren alles, was man ihnen schreibt.
00:08:06: Das Berliner Unternehmen HelloBetter will das mit dem KI-Begleiternamens Hello besser machen.
00:08:11: Alo soll keine bloße Plauda-KI sein, sondern ein Werkzeug für psychisches Wohlbefinden.
00:08:16: Er soll typische Denkmuster und Verhaltensweisen hinterfragen und dabei auf bewährte psychologische Techniken setzen.
00:08:22: Bisher ist der Bord nämlich nicht dafür gedacht, bei psychischen Erkrankungen zu helfen.
00:08:26: Er soll eher präventiv wirken.
00:08:28: Das heißt, Alo ersetzt keinen Therapeuten oder keinen Coach.
00:08:30: Er soll den Alltag erleichtern.
00:08:33: Erkennt LO, dass jemand z.B.
00:08:34: mit Einsamkeit kämpft, versucht das System die Person mit Gesprächen und Übungen, wie der stärkeren soziale Kontakte einzubinden.
00:08:41: Sobald Gespräche zu kritisch werden, weiß LO auf professionelle Hilfsangebote hin.
00:08:46: Technisch arbeitet LO mit verschiedenen Sprachmodellen in einem sogenannten Multiagentensystem.
00:08:50: Welche Sprachmodelle aktuell zum Einsatz kommen, verrät das Unternehmen leider nicht.
00:08:55: In Zukunft will LO Beta jedoch ein selbst entwickeltes KI-Sprachmodell einsetzen.
00:08:59: Da ist die KI kostenpflichtig im App Store erhältlich, das Unternehmen plant jedoch Kooperation mit Krankenkassen oder Arbeitgebern.
00:09:07: Eine für kommendes Jahr geplante Studie soll außerdem evaluieren, wie hilfreich die Gespräche sind.
00:09:11: Danke Marie.
00:09:13: Auf der ReInvent-Konferenz in Las Vegas hat Amazon Neuerungen in seiner Hauptreihe von KI-Modellen vorgestellt, darunter NovaForge, ein generatives KI-Modell, das es Nutzern ermöglichen soll, Versionen der Nova-Modelle von Amazon zu verwenden und sie mit eigenen Daten individuell anzupassen.
00:09:33: Zudem hat die Amazon Tochter AWS eine neue Version des Trainingschips für KI namens Trainium III vorgestellt.
00:09:42: Der neue drei Nanometer Chip wurde bereits kürzlich in einigen Rechenzentren installiert und ist ab sofort für Kunden verfügbar.
00:09:50: Die Chip-Entwicklung gilt als Schlüsselfaktor von Amazons KI-Strategie.
00:09:55: AWS versucht hier besonders energieeffiziente Systeme zu entwickeln.
00:10:00: Neue Server auf Basis von Tranium III Chips sollen bei vierzig Prozent niedrigeren Stromverbrauch mehr als die vierfache Leistung der vorherigen Generation bieten.
00:10:11: Damit will Amazons in Konkurrenz zu Nvidia treten.
00:10:15: Bei der Vorstellung der KI-Neuerungen auf der ReInvent sprach Rohit Prasad, der KI-Chef von Emerson, auch über moderate Benchmarks und deren Aussagekraft.
00:10:26: Emersons Nova hat in solchen Benchmarks nicht besonders gut abgeschnitten.
00:10:31: Er sagte dazu in einem Interview mit The Verge, Ich möchte einen Nutzen in der realen Welt.
00:10:37: Keiner dieser Benchmarks ist real.
00:10:39: Die einzige Möglichkeit, echte Benchmarks durchzuführen, besteht darin, dass sich alle an die gleichen Trainingsdaten halten.
00:10:46: Das ist aber nicht der Fall.
00:10:48: Die Bewertungen werden offen gesagt immer unübersichtlicher und zeigen nicht die tatsächliche Leistungsfähigkeit dieser Modelle.
00:10:56: Tatsächlich steht die Aussagekraft von Benchmarks immer wieder in der Diskussion.
00:11:01: Das Problem ist nämlich, dass KI-Modelle auf genau diese Benchmark-Tests vorbereitet werden können, wodurch sie dabei natürlich entsprechend gut abschneiden können.
00:11:10: Grundsätzlich sagen Benchmark-Ergebnisse also nur wenig darüber aus, ob ein Modell für einen bestimmten Zweck wirklich geeignet ist.
00:11:19: Die Programmiersprache SIG hat nach zehn Jahren die Entwicklungsplattform GitHub verlassen und ist zum Anbieter Codeberg umgezogen.
00:11:27: SIG-Gründer Andrew Kelly erklärt die Entscheidungen einem ausführlichen Blockpost, er kritisiert darin anhaltende Probleme mit GitHub Actions und die zunehmende KI-Ausrichtung unter Microsoft.
00:11:40: Kelly bemängelt, dass grobe Fehler in der Plattform auftreten würden und dass zu dem Bug Reports monatelang unbearbeitet bleiben.
00:11:48: Kelly spricht auch von einer deutlichen Verschlechterung der Plattformqualität.
00:11:52: GitHub sei von technischer Exzellenz zu einer überladenen, fehlerhaften JavaScript-Plattform verkommen.
00:12:00: Die neue KI-Fokussierung passe zudem nicht zur strikten Anti-KI-Politik von SIG.
00:12:07: Als Wermutstropfen sieht Kelly den Verlust von GitHub-Sponsors, das jahrelang ein wichtiger Finanzierungsbaustein für die SIG-Community war.
00:12:16: Auch andere Projekte wie der Dillow Browser haben GitHub aus ähnlichen Gründen verlassen.
00:12:21: Kotberg profitiert davon und hat seine Mitgliedszahlen in diesem Jahr verdoppelt.
00:12:27: Das französische KI-Start-up Mistral AI hat mit Mistral III eine neue Generation offener, multimodaler Sprachmodelle vorgestellt.
00:12:36: Die Reihe umfasst sowohl kompakte Varianten für lokale Anwendung als auch ein großes Modell namens Mistral Large III.
00:12:44: Letzteres wurde mit rund dreitausend NVIDIA H-Zweihundert GPUs trainiert und hat sechshundertfünfundsechzig Milliarden Gesamtparameter.
00:12:54: Alle Modelle sind unter der Apache Null-Lizenz verfügbar und können Bildinhalte verstehen.
00:13:01: Mistral Large III soll bei allgemeinen Sprachaufgaben mit führenden, offenen Modellen gleichziehen können.
00:13:08: Laut Unternehmensangaben liegt es auf dem LM Arena Leaderboard auf Rang II bei Open Source Modellen ohne Resinning.
00:13:16: In Benchmarks liegt das Modell auf Augenhöhe mit Angeboten von Quen oder DeepSeek.
00:13:22: Die Modelle sind über Mistral, AI Studio, Hackingface und mehrere Cloud-Anbieter verfügbar.
00:13:29: Gerüchten zufolge bereitet sich das KI-Unternehmen Anthropic offenbar auf den Börsengang vor.
00:13:35: Es zeichnet sich dabei ein Wettrennen mit dem Konkurrenten OpenAI, um die Erstplatzierung an den öffentlichen Märkten ab.
00:13:43: Laut der Financial Times hat Anthropic die Kanzlei Wilson-Sonsini beauftragt, erste Schritte für einen Börsengang einzuleiten.
00:13:51: Dieser könnte bereits im Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- und Jahr- argumentieren laut dem Bericht, dass Anthropic vor dem größeren rivalen OpenAI an die Börse gehen sollte.
00:14:11: Ein Sprecher von Anthropic dämpfte die Spekulationen.
00:14:15: Man habe keine Entscheidung darüber getroffen waren oder ob man überhaupt an die Börse gehe.
00:14:22: Apples KI-Abteilung veröffentlicht Starflow V, ein neues Videokai-Modell und es betritt dabei neue Wege.
00:14:30: Malte Kirchner berichtet.
00:14:31: Während Apple gerade seine KI-Abteilung umstrukturiert, sorgen Forscher aus dem Unternehmen mit einem neuen Video-KI-Modell für Aufsehen.
00:14:38: Und zwar nicht nur, weil es von Apple kommt, sondern vor allem, weil es einen völlig anderen technischen Ansatz verfolgt.
00:14:44: Das Modell heißt Starflow V und es verlässt den ausgetretenen Fahrt der Diffusionsmodelle, die aktuell fast überall zum Einsatz kommen.
00:14:52: Stattdessen setzen die Apple Forscher auf sogenannte Normalizing Flows.
00:14:56: Das ist eine Technologie, die bei der Videogenerierung bisher kaum eine Rolle gespielt hat.
00:15:00: Wer sich die Beispiele auf der Projekte bei GitHub anschaut, sieht schnell den Unterschied.
00:15:04: Die Videos von Starflow V wirken deutlich realitätsgetreuer als die der Konkurrenz.
00:15:10: Während es bei anderen Modellen unerklärlich blinkend, verzerrt aussieht oder typische KI-Artefakte auftauchen, liefert das Apple-Modell eine solide Qualität.
00:15:17: Klar, die Auflösung liegt nur bei vierhundert acht CP, aber hier geht es Apple wohl vor allem darum, die Machbarkeit zu demonstrieren.
00:15:25: Was kann das Modell konkret?
00:15:27: Starflow V hat sieben Milliarden Parameter und wurde auf siebzig Millionen Text-Videopahren trainiert, plus vierhundert Millionen Textbildpahre.
00:15:35: Es kann Videos aus Textbeschreibungen generieren, Standbilder zu Videos erweitern und vorhandene Videos bearbeiten.
00:15:41: Die Clips haben sechzehn Bilder pro Sekunde und laufen bis zu fünf Sekunden pro Segment.
00:15:46: Längere Videos entstehen durch schrittweise Verlängerung.
00:15:48: Das Ende eines Segmentes dient dann als Ausgangspunkt für das nächste.
00:15:51: Apple zeigt Beispiele von bis zu dreißig Sekunden Länge.
00:15:55: Und hier kommt die technische Besonderheitenspiel.
00:15:57: Im Gegensatz zu Diffusionsmodellen sind Videos, die mit Normalizing Flows erstellt werden, mathematisch umkehrbar.
00:16:03: Das Modell kann die Wahrscheinlichkeit eines generierten Videos exakt berechnen und trainiert direkt von Ende zu Ende ohne separaten Encoder.
00:16:11: Ein weiterer Unterschied Starflow V generiert Videos streng autoregressiv, also Bild für Bild in zeitlicher Reihenfolge.
00:16:18: Spätere Frames können frühere nicht beeinflussen.
00:16:21: Standard-Diffusionsmodell entrauschen dagegen oft alle Frames parallel.
00:16:24: Weitere Eigenheiten der Architektur sollen verhindern, dass sich kleine Fehler über längere Sequenzen aufschaukeln.
00:16:30: Perfekt ist das System aber noch nicht, in den Beispielen läuft ein Octopus einfach durch die Glaswand und ein Hamster bewegt sich in seinem Rad, als käme er nicht von dieser Welt.
00:16:39: In Benchmarks kann Starflow V mit aktuellen Diffusionsmodellen mithalten, liegt aber noch deutlich hinter kommerziellen Systemen wie Google's VO-III.
00:16:47: Was Apple selbst mit dem Modell vorhat, bleibt unklar.
00:16:50: Denkbar wäre zum Beispiel ein lokaler Einsatz auf Geräten.
00:16:53: Die sieben Milliarden Parameter würden das erlauben.
00:16:56: Auch als Weltmodell für virtuelle Realität oder für Apples angebliche Robotik-Ambitionen könnte es eine Rolle spielen.
00:17:15: Jan Keno Jansen und Christian Lutz Weiken sprechen in der ersten Ausgabe des Podcasts unter anderem darüber, dass Windows tot ist, dass niemand die Apple Vision Pro nutzt, dass die Ray-Ban-Matter langweilig ist und sie sprechen über den KI-Bildgenerator Flux II.
00:17:33: Wir hören rein.
00:17:35: Ersten, offen verfügbaren Modelle, die halbwegs vernünftigen Output hatten, war Stable Diffusion, besonders eins Punkt fünf.
00:17:43: Die Version war sehr populär und hat, glaube ich, zwei Jahre oder so.
00:17:47: War das mit Abstand das beste Modell, was man zu Hause haben konnte?
00:17:50: Nee, zwei Jahre stimmt wahrscheinlich nicht, weil das durch Stable Diffusion XL abgelöst wurde, aber... Danach hat sich dieser Laden so ein bisschen zerlegt und der Großteil der vielen Entwickler ist zu dem Laden Black Forest Labs, der interessanterweise auch eine deutsche Firma ist, gegangen.
00:18:07: Und dort haben sie das Modell Flux, Flux I entwickelt und das ist jetzt so die letzten anderthalb Jahre eigentlich das beste Modell.
00:18:18: was frei verfügbar war, also es hat auch Lizenzbedingungen für kommerzielle Anwendungen und so weiter, aber das ist das beste Modell gewesen, was man so zu Hause noch gerade auf einer guten Konsumer GPU ausführen konnte.
00:18:31: Und ich habe jetzt mal die China-Modelle ausgeklammert, weil da gibt es auch sehr gute Modelle.
00:18:39: Und dieses Modell hat jetzt eben diese Woche, nämlich genau gestern Abend, heute ist Mittwoch, by the way.
00:18:44: Ein ein Nachfolger bekommen und da wurde schon seit wochen drüber gemunkelt aber es gab kein offizielles release date und das war jetzt halt gestern und das ist natürlich wie eine bombe eingeschlagen.
00:18:57: ja
00:18:57: man muss vielleicht auch dazu sagen die leute da draußen kennen ja diese diese diese bildgehende erwebungsmodelle oft als spielerei ding das leute in sozialen medien irgendwie sich selber als action figure posten und so Sachen.
00:19:13: aber diese.
00:19:14: diese Sachen, diese Flux Sachen, Flux, Flux wird es ausgesprochen.
00:19:20: Ja,
00:19:20: vor allem, weil das im, also die Benutzmann benutzen, ich würde sagen, inzwischen neunzig Prozent Leute, der Leute mit Confi UI, das ist halt so ein Node-Based, so eine Software, wo man unterschiedliche
00:19:36: Videobild
00:19:38: und auch Tongeneratoren einhängt und das benutzen tatsächlich viele Leute auch für professionelle Sachen, weil das halt dadurch, dass es halt Open Source ist, viel genauer steuerbar ist, als diese Sachen zum Beispiel von GPD oder so.
00:19:57: Oder ist das,
00:19:58: kann man so sagen, ne?
00:19:59: Macht zum Beispiel noch ein kleines Startup nebenbei mit meinem Kumpel Paul.
00:20:05: Und wir machen gerade diese Woche ... Bilder für den Kundenpitch, für den Industriekunden, die kann ich jetzt nicht nennen, aber die stellen so große Maschinen her, mit die man auch auf Autos bauen kann und womit die durch die Gegend fahren, keine Sorge ist kein MilTech oder so.
00:20:22: Alles Zivile Anwendung.
00:20:24: Und die wollen Bilder generieren, weil diese Maschinen sind sehr groß, sehr teuer und die haben Probleme, die an die richtigen Orte zu bringen, weil die auf der ganzen Welt aktiv sind und dort vernünftige, cool aussehende Fotos für ihre Marketing Materialien zu machen.
00:20:39: Und mit den Bild-Editierungsfähigkeiten von Flux II, mit denen wir jetzt seit gestern daran arbeiten, vor allen Dingen der Kumpel Paul, der die zwischenzeitlich schon erreichten.
00:20:53: Outputs sind auf jeden Fall phänomenal.
00:20:56: Also, wie du sagst, für professionelle Anwendung inzwischen absolut geeignet.
00:21:01: So weit ein Ausschnitt aus CT-Fürthausendvier, dem neuen CT-Podcast, dessen erster Ausgabe gerade erschienen ist.
00:21:10: Das war das KI-Update von Heise Online vom dritten Dezember, zwei tausendfünfundzwanzig.
00:21:16: Eine neue Folge gibt es montags, mittwochs und freitags ab fünfzehn Uhr.
Neuer Kommentar