KI-Update kompakt: Telekom-Rechenzentrum, Meta, Roboter, Super-Bowl-Werbung
Shownotes
Das ist das KI-Update vom 06.02.2026 unter anderem mit diesen Themen:
Telekom-Rechenzentrum soll deutsche KI-Leistung um die Hälfte steigern
Meta knüpft Mitarbeiter-Boni an KI-Nutzung
Warum auch Roboter von einem Schläfchen profitieren
und Anthropic stichelt mit Super-Bowl-Werbung gegen OpenAI
=== Anzeige / Sponsorenhinweis === Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. https://wonderl.ink/%40heise-podcasts === Anzeige / Sponsorenhinweis Ende ===
Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-11167600
Weitere Links zu diesem Podast: https://www.heiseplus.de/audio https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.ct.de/ki
Eine neue Folge gibt es montags, mittwochs und freitags ab 15 Uhr.
Transkript anzeigen
00:00:02: Das KI Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.
00:00:14: Ich bin Isabel Grünewald und die sind heute unter anderem unsere Themen.
00:00:17: Telekom Rechenzentrum soll deutsche KI-Leistung um die Hälfte steigern.
00:00:22: Meta knüpft Mitarbeiter Boni an KI-Nutzung.
00:00:26: Warum auch große Sprachmodelle von einem Nickerchen profitieren?
00:00:29: und Ansropik stichelt mit Super Bowl Werbung gegen OpenAI.
00:00:35: In München hat die Telekom ihr bislang größtes KI-Rechenzentrum eröffnet.
00:00:39: Zur Eröffnung kam politische Prominenz.
00:00:42: Und mein Kollege Christoph Windeck von der CT war auch dabei.
00:00:45: Am vierten Februar hat die Telekom in München das erste Rechenzentrum ihrer Industrial AI Factory, also ihrer KI-Fabrik für die Industrie, in Betrieb genommen.
00:00:57: Darin sind ungefähr zehntausend NVIDIA KI-Beschneuniger und das Rechenzentrum ist in mehrerer Hinsicht eine Besonderheit.
00:01:07: Es ist ein souveränes KI-Rechenzentrum in Europa bzw.
00:01:11: Deutschland und es hat eine Rechenleistung oder eine insgesamt installierte Serverleistung von bis zu zwölf Megawatt.
00:01:20: Das ist sehr viel kleiner als das, was in den USA derzeit schon im Betrieb ist.
00:01:24: Das sind mehrere hundert Megawatt und mehrere Rechenzentren damit.
00:01:28: Einige stoßen schon in den Gigawattbereich vor, also das mehrere hundertfache.
00:01:34: Aber trotzdem ist dieses Rechenzentrum in München eines der bisher stärksten KI-Rechenzentren in Deutschland.
00:01:41: Das wird es allerdings nicht so lange bleiben, denn auch in Deutschland sind Rechenzentren und auch KI-Rechenzentren für mehr als twenty-fünf Milliarden Euro derzeit in Bau und in Planung.
00:01:53: Das in München von der Telekom kostet rund eine Milliarde.
00:01:56: Da haben mehrere Partner investiert, aber es gab keine öffentlichen Subventionen.
00:02:00: Das Rechenzentrum hat auch noch mehrere Besonderheiten.
00:02:04: Das ist nämlich ein altes Rechenzentrum in sogenannten Tucherpark hinter dem Englischen Garten in der Nähe des Eisbachs.
00:02:10: Der ist ja für seine zurzeit nicht funktionierende Surferwelle bekannt.
00:02:14: Und dieser Eisbach dient auch zur Kühlung dieses Rechenzentrums, was nämlich unterirdisch gebaut ist.
00:02:20: Und das ist ja ein Gehörte mal einer Bayerischen Bank und wurde jetzt retrofitted, wie man das in Neudeutsch sagt.
00:02:27: Also einfach umgebaut für diese modernen KI-Beschleuniger.
00:02:32: Dazu war sehr viel Arbeit nötig, aber es ist gelungen und durch diese Wasserkühlung können die eben diese sehr viel höhere Leistung auch abführen.
00:02:40: Das Rechenzentrum ist auch eine Bewerbung der Telekom für die European AI Gigafactories, also wirklich größere, große KI-Rechenzentren, die eben mit EU Fördermitteln entstehen sollen.
00:02:54: Dafür sind ja mehrere Standorte geplant.
00:02:57: Es ist noch nicht ganz klar wo überall, aber die Telekom bewirbt sich hiermit eben für einen Standort in Deutschland und deswegen aber auch hohe politische Prominenz.
00:03:06: anwesend, also der Finanzminister und Vizekanzler Lars Klingball, natürlich der bayerische Ministerpräsident Markus Söder.
00:03:13: Hubert Aiwander der Wirtschaftsminister von Bayern, der Oberbürgermeister von München, aber zum Beispiel auch Behördenleiterin wie Andrea Nahles, denn die Telekom sieht auch Einsatzbereiche ganz klar in der Verwaltung und hofft auf drauf, dass eine gewisse Grundlast eben von der öffentlichen Hand gebucht wird.
00:03:32: Danke Christoph.
00:03:33: Die Deutsche Medienaufsicht warnt vor fertig formulierten Zusammenfassungen wie bei Googles AI Overviews oder der KI Suchmaschine Perplexity.
00:03:43: Nach Informationen der Wochenzeitung Die Zeit haben die Medienanstalt Berlin-Brandenburg sowie die Landesanstalt für Medien in Nordrhein-Westfalen bereits Mitte Januar offizielle Verwaltungsverfahren gegen die beiden Tech-Rößen eingeleitet.
00:03:56: Dabei handelt es sich um ein Novum.
00:03:58: Die zentrale Frage soll geklärt werden, ob und wie algorithmisch generierte Antworten die öffentliche Meinungsbildung manipulieren oder verengen könnten.
00:04:09: Im Kern der Untersuchung steht laut dem Bericht die Sorge um die mediale Vielfalt.
00:04:13: Die Behörden wollen nun klären, wer die journalistische und rechtliche Verantwortung für diese KI-generierten Inhalte trägt.
00:04:21: Die rechtliche Basis für das Vorgehen der Medienanstalten bildet unter anderem der Digital Services Act der EU.
00:04:28: Er verpflichtet große Plattformen dazu, systemische Risiken für die Meinungsfreiheit und den Medienpluralismus vorab zu überprüfen und zu minimieren.
00:04:37: Die Verfahren markieren den Beginn einer Debatte darüber, ob Suchmaschinen lediglich neutrale Vermittler bleiben müssen oder ob sie durch die Erstellung eigener Inhalte zu einer neuen Form von Superredaktionen werden, die einer strengeren Aufsicht unterliegen.
00:04:54: Metta will ein neues Tool zur Leistungsbewertung seiner Belegschaft einführen.
00:04:58: Das soll die Nutzung von KI besonders belohnen.
00:05:02: Mein Kollege Robin Ahrens aus der Zitierredaktion berichtet.
00:05:05: Vibecoding wird bei Metabalt fürstlich entlohnt.
00:05:08: Ja, richtig gehört, das Unternehmen animiert seine Mitarbeitenden dazu, Software mithilfe von KI zu programmieren.
00:05:15: Und nicht nur das, auch für alle anderen Tätigkeiten des Arbeitsalltags soll man möglichst viel KI benutzen.
00:05:21: Wer das erfolgreich umsetzt, kann mit satten Gehaltsboden rechnen.
00:05:25: Der Preis dafür, man wird zum gläsernen Arbeitnehmer.
00:05:29: Denn um die Datengrundlage für solche Boni zu schaffen, wir meta ein neues Tool zur Leistungsbewertung der Mitarbeitenden einführen.
00:05:36: Checkpoint soll das heißen und selbst KI gestützt arbeiten.
00:05:40: Das Performance Tracking Tool kann bis zu zweihundert Datenpunkte auswerten.
00:05:44: Zum Beispiel erkennt es, wie viele Code-Zahlen mit KI-Hilfe programmiert wurden oder es ermittelt die Anzahl von Fehlern im Code.
00:05:51: Erreicht man dann ein besonders hohen Score in allen vier möglichen Leistungskategorien, kann man mit Gehaltsboni von bis zu zweihundert Prozent rechnen.
00:06:00: Checkpoints soll laut Meta nur Daten nutzen, die ohnehin schon gesammelt werden.
00:06:04: Etwa aus Anwendung wie dem Google Workspace.
00:06:07: Ein Personalleiter bei Meta betonte unterdessen, dass Checkpoint kein Aktivitätstracker sei, fiem er ein Instrument zur Ermittlung der Effizienz einzelner Mitarbeiter in.
00:06:17: Und damit die noch wirksame arbeiten, ermöglicht der Konzern nun auch den Zugriff auf KI der Konkurrenz.
00:06:23: Neben den eigenen Lama-Modellen können die Beschäftigten jetzt auch Gemini III, GPT-V und andere KI-Modelle nutzen.
00:06:30: Die Meta-Konzernführung um Mark Zuckerberg spekuliert schon länger auf enorme Effizienzsteigerungen durch den Einsatz von KI in Arbeitsabläufen.
00:06:39: Das Unternehmen hat bereits begonnen, Teile seiner Belegschaft zu entlassen, sogenannte Low-Performer, also Mitarbeitende, die vermeintlich wenig leisten.
00:06:47: Und auch in der KI-Abteilung und der Metaverse-Sparte hat es zuletzt einen massiven Personalabbau gegeben.
00:06:53: Ob das neue Leistungstracking-Tool diesen Trend befeuern wird, bleibt abzuwarten.
00:06:58: Prinzipiell schlägt es aber in dieselbe Kerbe.
00:07:00: Danke schön, Robin.
00:07:02: Besser soll nicht nur die Leistung der Mitarbeitenden, sondern auch die des neuen KI-Modells von Meta werden.
00:07:08: Nach Problemen mit dem Vorgänger Lama IV soll das Modell mit dem Code namen Avocado die Wände bringen.
00:07:15: Laut einem internen Dokument, aus dem das Fachmedium The Information zitiert, hat Metta das sogenannte Vortraining abgeschlossen.
00:07:22: In dieser ersten Phase lernt ein KI-Modell aus großen Datenmengen, grundlegende Muster und Zusammenhänge zu erkennen.
00:07:29: Avocado übertreffe in diesem Stadium bereits die besten frei verfügbaren Basismodelle und könne bei Wissen, visueller Wahrnehmung und mehrsprachiger Leistung sogar mit führenden, fertig trainierten Modellen mithalten.
00:07:42: Zudem arbeitet das Modell deutlich sparsamer bei der Rechenleistung, als die alten Meta-Modelle, zehnmal effizienter als Maverick und hundertmal effizienter als Behiebes.
00:07:53: Sollte das tatsächlich stimmen, könnte Meta mit dem neuen Modell nach turbulenten Monaten wieder aufholen.
00:07:59: Das Unternehmen hatte im vergangenen Jahr erhebliche Probleme mit Lama IV.
00:08:03: Die Veröffentlichung musste mehrfach verschoben werden, Meta manipulierte Benchmarks und Entwicklerinnen zeigten sich nach dem Start enttäuscht von der Leistung.
00:08:11: Meta baute daraufhin seine KI-Abteilung um.
00:08:14: Laut Gerüchten will sich das Unternehmen mit Avocado auch vom bisherigen Open-Source-Ansatz der Lama-Modelle abwenden.
00:08:21: Für für für für für für für für für für für für für für für für für für für für für für.
00:08:38: Arthabet hat Umsatz und Gewinne sowohl im vierten Quartal als auch im gesamten letzten Jahr erneut gesteigert.
00:08:44: In dem Jahr ist der Umsatz gegenüber im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im.
00:09:01: Alphabet-CEO Sunder Pichai kündigte Investitionen zwischen onehundertfünfundsiebzig und onehundertfünfundsachzig Milliarden US-Dollar an.
00:09:08: Das entspricht praktisch einer Verdoppelung gegenüber dem Vorjahr.
00:09:11: Das meiste davon soll in KI-Computing-Kapazitäten für Google-Diebmeinfliessen, um der Kunden nach Frage im Cloud-Bereich gerecht zu werden.
00:09:19: Google's KI-App Gemini wächst auch und zählt mittlerweile mehr als siebenhundertfünfzig Millionen Nutzerinnen und Nutzer.
00:09:26: Das sind einhundert Millionen mehr als noch im letzten Quartal.
00:09:30: Mit zunehmender Größe werden wir deutlich effizienter, sagte Pichai dazu.
00:09:34: Durch Modelloptimierungen sowie Effizienz- und Nutzungsverbesserungen konnten wir die Gemini-Service-Kosten pro Einheit bis zum Jahr- und-Zwanzig um seventy- acht Prozent senken.
00:09:46: Auch Amazon.com hat mit seinen Quartalszahlen die Erwartungen der Analysten übertroffen.
00:09:51: Der Konzern profitiert vom wachsenden Handelsgeschäft und der hohen Nachfrage nach Cloud-Kapazitäten aufgrund künstlicher Intelligenz.
00:09:59: Deshalb erhöht Amazon seine Investitionen ebenfalls um mehr als fünfzig Prozent gegenüber dem letzten Jahr.
00:10:05: Angesichts der starken Nachfrage nach unseren bestehenden Angeboten und wegweisenden Möglichkeiten wie KI, Chips, Robotik und Satelliten im niedrigen Orbit gehen wir davon aus, im Jahr zwanzig sechsundzwanzig rund zwei Hundert Milliarden US-Dollar in Kapitalausgaben bei Amazon zu investieren.
00:10:23: und erwarten eine starke langfristige Rendite auf das investierte Kapital, sagte Amazon-Chef Andy Yassi.
00:10:30: Der überwiegende Teil dieses Kapitals ist für Rechenzentren und andere Infrastrukturen vorgesehen.
00:10:37: Schon ein kurzes Ninkerchen kann einen synaptischen Reset bewirken, der dem Gehirn hilft, neue Sinnes-Eindrücke, Gedanken und Erfahrungen besser zu verarbeiten und zu speichern.
00:10:48: Das haben Forschende des Universitätsklinikums Freiburg und der Universität Genf erst kürzlich in einer neuen Studie gezeigt.
00:10:55: Die Forschungsergebnisse sind aber nicht nur für die Medizin interessant.
00:10:58: Solche Mechanismen könnten auch die Performance von großen Sprachmodellen deutlich verbessern, erklärt Wolfgang Stieler von der MIT Technology Review.
00:11:08: Es soll aber, genau wie beim Menschen, sozusagen die Gedächtnisleistung verbessern, vor allem soll es kontinuierliches Lernen ermöglichen.
00:11:21: Denn eigentlich sind große Sprachmodelle ziemlich vergesslich.
00:11:24: Sie können zwar in einem laufenden Chat aus konkreten Beispielen lernen, Zum Beispiel, wie ich schreibe mir eine Bewerbungsmail, hier sind drei Formulierungsvorschläge, die finde ich gut.
00:11:35: Und dann macht das Ding das genau in der Art und Weise, aber wenn man die Chat-Session beendet, sind normalerweise diese Lernfortschritte wieder weg.
00:11:43: Dann kann man das Modell fein abstimmen, ein Fortrainetsmodell nehmen und das mit Spezialtexten nachtrainieren.
00:11:50: Dann läuft man aber in Gefahr, dass die ursprünglichen Fähigkeiten des Modells verloren gehen.
00:11:55: und künstlicher Straf so genau dieses Problem lösen, die neu aus Kontext oder sonst irgendwie aus Spezial- Trainingsmaterial gelernten Fähigkeiten in das Modell einzuspeisen, so dass es darauf zugreifen kann, ohne vorher trainierte Fähigkeiten versehentlich zu überschreiben und zu löschen.
00:12:12: Und da ist die Idee, dass so ähnlich wie beim Schlafen zu machen, nämlich eine Offlinephase, eine Phase, in der es keinen neuen Input gibt und in der das Modell dann die Infos aus der Aktivitätsphase, aus der Wachphase sozusagen, während des Tages irgendwie nochmal überarbeitet, nochmal durchlaufen lässt und nochmal neu verarbeitet.
00:12:35: Und in den Jahr zwanzig zweiundzwanzig gab es einen Paper dazu, wo eine Technik vorgestellt worden ist, die mittlerweile viel verwendet wird in Experimenten.
00:12:43: Das heißt Sleep Replay Consolidation.
00:12:46: Da wird in der Schlafphase den neuronalen Netz der Input aus der Wachphase nochmal neu vorgespielt.
00:12:51: Aber der Lernmechanismus, der Trainingsmechanismus, der dann angewendet wird, ist ein anderer.
00:12:57: Nämlich nicht mehr der übliche Trainingsmechanismus, sondern sehr viel einfacher, dass die Hepsche lernen, bei dem Neuronen, die parallel für einen bestimmten Input aktiviert sind, deren Verknüpfung verstärkt wird.
00:13:12: So, das funktioniert.
00:13:14: besser, aber es ist noch nicht der Weißerletzer Schluss und mittlerweile sind die Mechanismen, die da zum Einsatz kommen, noch mal erheblich verfeinert wurden.
00:13:22: In den Jahren, in den Jahren, in der International Conference on Learning Representations vorgestellt wird, dass zwei neuronale Netze zum Einsatz bringen, nämlich ein kleineres Modell, ein kleineres Sprachmodell.
00:13:39: das während des Tages die wesentlichen Dinge aus dem Input lernt und dann synthetische Daten erzeugt, die dem großen Sprachmodell dann in der Schlaf- in Anführungszeichenphase zur Feinabstimmung mithilfe von Reinforcement Learning neu vorgespielt werden.
00:14:01: Und die ersten Ergebnisse sind sehr vielversprechend.
00:14:04: Insgesamt ist das Ganze aber natürlich noch in einer starken Forschungsphase.
00:14:09: Man kann aber festhalten, dass viele Forschende sich von diesem von dieser Vorstellung, dass es eben eine Wachphase und eine Schlafphase gibt.
00:14:17: In der Schlafphase werden die Infos aus der Wachphase nochmal neu verarbeitet und vertieft und verstärkt.
00:14:23: Das ist wesentlich herausgezogen, dass das eine sehr interessante Idee für KIS ist.
00:14:27: Danke schön, Wolfgang.
00:14:30: Innerhalb weniger Stunden haben Anthropic und OpenAI neue Spitzenmodelle für Programmiererinnen und Programmierer vorgestellt.
00:14:38: Beide Unternehmen beanspruchen die Führung bei den wichtigsten Leistungstests.
00:14:42: Der Wettlauf um die beste KI für Softwareentwicklung erreicht damit eine neue Intensität.
00:14:48: Anthropic veröffentlichte Claude Opus-Fürpunkt-Sechs, ein Upgrade seines bisherigen Flaggschiffmodells.
00:14:54: Die wichtigste Neuerung?
00:14:56: Erstmals kann ein Opus-Modell bis zu eine Million Token verarbeiten.
00:15:00: Das entspricht etwa siebenhundertfünfzigtausend Wörtern oder mehreren umfangreichen Büchern.
00:15:05: Damit sollen Nutzerinnen und Nutzer sehr große Dokumente oder komplette Code-Basen auf einmal analysieren können.
00:15:13: Das Problem dabei ist, je mehr Text ein Modell verarbeiten muss, desto ungenauer werden die Ergebnisse.
00:15:19: Fachleute nennen dieses Phänomen Context-Rot.
00:15:22: Laut Anthropic soll das neue Modell hier aber einen deutlichen Sprung im Vergleich zum älteren Sonnet-Vier-Punk-Fünf darstellen.
00:15:30: OpenAI konterte kurz darauf mit GPT-Fünf-Punk-Drei-Codex.
00:15:34: Das Modell sei twenty-fünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünffünf.
00:15:52: Laut OpenAI helft das Modell sogar bei seiner eigenen Entstehung mit.
00:15:56: Das Codex-Team nutzte frühe Versionen, um Fehler im Training zu finden, die Bereitstellung zu steuern und Testergebnisse auszuwerten.
00:16:05: Das Team sei überrascht gewesen, wie sehr Codex seine eigene Entwicklung beschleunigt habe, so OpenAI.
00:16:11: Gleichzeitig stuft OpenAI das Modell erstmals mit einem hohen Cyber-Sicherheitsrisiko ein.
00:16:17: Das Unternehmen spricht von einer Vorsichtsmaßnahme, auch wenn es bisher keinen sicheren Beweis für konkrete Gefahren gebe.
00:16:24: Bei der Sicherheit zeigt auch ein Thropics-Modell Schwächen.
00:16:27: Opus-Fürpunkt sechs ist bei sogenannten indirekten Prompt-Injections sogar leicht anfälliger als ein Vorgänger.
00:16:34: Bei dieser Angriffsmethode soll die KI durch versteckte Anweisungen in Dokumenten manipuliert werden.
00:16:41: Sowohl GPT-Fünf-Punkt-Drei-Kodex als auch Opus-Fier-Punkt-Sechs stehen zunächst nur zahlende Nutzenden zur Verfügung.
00:16:49: Dass Anthropic und OpenAI-Konkurrenten sind, ist ja kein Geheimnis.
00:16:53: Nun stichelt das kleinere Unternehmen mit einer Superbowl-Werbung gegen den Chat-GPT-Hersteller.
00:16:59: Anthropic will beim Superbowl damit werben, dass die hauseigene KI Claude keine Werbung einblendet.
00:17:06: OpenAI-Chef Sam Altman reagiert, angefasst.
00:17:09: Martin Holland aus dem Heise online Newsroom mit der ganzen Geschichte.
00:17:13: Enthropik hat mehrere Werbeklipps vorgestellt, die am Wochenende beim Super Bowl laufen sollen und damit eine Debatte über Werbung in Kai Yang gestoßen, in denen ... Videos selbst sind jeweils zwei Personen zu sehen, die miteinander reden.
00:17:28: Bittelsweise die eine Person fragt die andere etwas, und man kriegt schnell mit, dass das so eine KI-Konversation darstellen soll, weil die andere Person dann immer so einen Moment wartet, bis sie druckreif antwortet, also wie ein KI-Chatbot.
00:17:42: Und erst klingen die Antworten ganz hilfreich.
00:17:44: Da geht es immer mal mal um welche Probleme oder Wünsche, die man hat.
00:17:47: Und ganz schnell kommt dann aber in diesen Antworten... mit einmal Werbung und teilweise sehr abstrose Werbung.
00:17:54: Das ist ziemlich lustig, weil die Person, die gefragt hat, sehr irritiert ist, warum jetzt die andere Person halt einfach Werbung erzählt.
00:18:02: Und dann kommt der eingeblendete Text, der das erklären soll.
00:18:05: Und da heißt es eben, Werbung kommt in KI, aber nicht bei Claude.
00:18:09: Das sind die KI-Chatbots von Einfraubig selbst.
00:18:13: Gleichzeitig ohne... Also darauf explizit hinzuweisen, versteht eigentlich jeder, der sich ein bisschen auskennt, dass es da um Open AI geht, weil Open AI schon seit ein paar Wochen daran arbeitet, den Chech GPT Werbung anzeigen zu lassen, um damit eben Geld zu verdienen.
00:18:28: Und offensichtlich hat in Throbbeck mit dieser Werbung ein Nerv getroffen, weil Sam Altman, der Open AI Chef,
00:18:35: auf...
00:18:35: dem Kurznachrichtendienst X, mit einer nicht so kurzen Nachrichter darauf geantwortet hat, in der er zuhause behauptet, er habe darüber gelacht, aber eigentlich sei das ja alles ganz schön unfair, was er im Topic da behauptet, weil natürlich habe man nicht vor, dass Werbung in Chatchi Pity direkt in den Antworten gescheitert wird, sondern es gehen.
00:18:54: Also würde das anders machen, die Leute würden das niemals tolerieren.
00:18:57: Trotzdem kommt da eine Debatte der Aufmerksamkeit, die durchaus spannend zu verfolgen sein wird, weil Anthropik eben behauptet, dass sie keine Werbung schalten wollen, während OpenAI sagt, dass man nur so die KI-Funktion, KI-Werkzeuge auch Menschen anbieten kann, die kein Abo bezahlen können.
00:19:17: Und Anthropik bietet ja nur ein teures Werkzeug für reiche Leute an, während man bei der OpenAI eben das für die große Matze anbieten will.
00:19:26: Das wird jetzt, mit man in der kommenden Zeit, also in den kommenden Tagen und Wochen sehen, wie das nun sich entwickelt.
00:19:31: Erstmal wird am Wochenende der Super Bowl sein und dann wird die Werbung von viel, viel mehr Leuten gesehen.
00:19:36: Das ist ja das größte Sportereignisse in den USA und dann kann man mal sehen, ob ein Topics gelingt, JGBT ein paar Marktanteile abzuluchsen.
00:19:44: Danke Martin.
00:19:46: Amazon hat im August eine Abteilung gegründet, die spezialisierte KI-Werkzeuge für die Film- und Serienproduktion entwickelt.
00:19:54: Wie Reuters berichtet, werden ausgewählte Industriepartner die Software jetzt ab März im Rahmen eines geschlossenen Beta-Programms ausprobieren dürfen.
00:20:03: Erst der Ergebnisse dieser Testphase werden dann voraussichtlich im Mai veröffentlicht.
00:20:07: Das bei den Amazon-MGM-Studios angesiedelte AI-Studio steht unter der Leitung von Albert Cheng, der zuletzt für Amazons Video- und Filmsparte verantwortlich zeichnete.
00:20:18: Cheng zufolge ist das Team überschaubar klein und besteht primär aus Produktentwicklern und Wissenschaftlerinnen.
00:20:24: Die KI-Werkzeuge sollen in erster Linie dazu beitragen, die Effizienz zu steigern und nicht dazu menschliche Kreativität zu ersetzen.
00:20:33: Als Beispiel verweist Amazon auf das Bibel Epos House of David.
00:20:38: In der zweiten Staffel kombiniert der Regisseur John Irwin reale Aufnahmen mit KI-generierten Inhalten.
00:20:45: Dieses hybride Verfahren ermöglichte es dem Studio, längere Kampfszenen bei einem gleichzeitig geringeren Budget umzusetzen.
00:20:53: Das war das KI-Update von heise online vom sechsten Februar.
00:20:58: Eine neue Folge gibt es immer, Montags, Mittwochs und Freitags um fünfzehn Uhr.
Neuer Kommentar