KI-Update DeepDive: DeepLs Erfolgsrezept gegen KI-Giganten

Shownotes

Schon lange bevor Chatbots mit generativer KI ein Alltagstool wurden, kannten wohl die meisten, die sich mit Übersetzungen beschäftigen den Namen DeepL. Denn die KI-Übersetzungen des deutschen Unternehmens waren schon richtig gut, als Google Translate noch in erster Linie für Lacher gesorgt hat. Wie es ein Kölner Start-up geschafft hat, mit einem US-Giganten nicht einfach nur mitzuhalten, darüber hat meine Kollegin Eva-Maria Weiß mit dem Chief Scientist von DeepL, Stephan Mesken, gesprochen.

Artikel zur Podcastfolge: https://heise.de/-10629969 https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki https://www.deepl.com/en/ai-labs https://www.deepl.com/de/

Transkript anzeigen

00:00:02: Das KI Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.

00:00:14: Hallo, ich bin Isabel Grünewald und dies ist unser Deep Dive zum Wochenende.

00:00:20: Die Sommerpause ist vorbei und unsere Deep Dives gehen wieder los.

00:00:24: Alle zwei Wochen beschäftigen wir uns am Freitag mit einem Thema ganz ausführlich.

00:00:30: Los geht es heute mit KI-Übersetzungen.

00:00:33: Schon lange bevor Chatbots mit generativer KI ein Alltagstool wurden, kannten wohl die meisten, die sich mit Übersetzungen beschäftigen, den Namen DeepL.

00:00:42: Denn die KI-Übersetzungen des deutschen Unternehmens waren schon richtig

00:00:46: gut, als

00:00:47: Google Translate noch in erster Linie für Lacher gesorgt hat.

00:00:51: Wie es ein Kölner Startup geschafft hat, mit einem US-Giganten nicht einfach nur mitzuhalten.

00:00:57: Darüber hat meine Kollegin Eva Maria Weiß mit dem Chief Scientist von DeepL gesprochen.

00:01:05: Ich freue mich zu begrüßen Stefan Mesken, Chief Scientist bei DeepL.

00:01:11: Guten Morgen, ich freue mich auch.

00:01:13: Ja, vielleicht kannst du als erstes ein bisschen erzählen, seit wann bist du bei DeepL?

00:01:17: Was gehört dazu deinem Aufgabenbereich?

00:01:19: Wie ist das Unternehmen vielleicht auch so ein bisschen aufgebaut?

00:01:24: Ja, ich bin jetzt seit knapp fünf Jahren bei Diebel, das heißt im Oktober, zwanzig, zwanzig bin ich der Firma beigetreten.

00:01:30: Damals war das alles noch ein bisschen überschaubarer als es heute ist.

00:01:33: Meine ersten Aufgaben im Unternehmen waren einer der Research Scientists zu sein, die die KI's entwickeln von Diebel.

00:01:40: Eines der allerersten Aufgaben, die ich hatte, war neue japanische und chinesische Modelle zu trainieren.

00:01:45: Was eine spannende Aufgabe ist, wenn man keine der beiden Sprachen auch nur im Ansatz spricht, dann über die Zeit.

00:01:51: Da hat geklappt.

00:01:53: Vielen Dank an meine Kollegen, die mir geholfen haben und auch an die Sprachexperten, die wir intern haben, die Brücke zu schlagen zwischen der mathematischen Seite und der Sprach, den Sprachaspekten, die bei so einer Entwicklung sehr wichtig sind.

00:02:06: Und dann über die Zeit sind die Aufgaben bei DeepL gewachsen, für mich persönlich, aber auch für das Unternehmen.

00:02:12: Und über die Zeit habe ich mehr Verantwortung über Normal and Light in zwischen den wissenschaftlichen Bereich bei uns.

00:02:18: Wie ist das denn aufgebaut?

00:02:19: Ich finde gerade bei KI scheint das immer so ein bisschen eine Mischung zu sein.

00:02:24: Man hat sehr viel wirklich wissenschaftliche Arbeit, aber dann auch eine Produktseite.

00:02:29: Ist das da auch getrennt oder wie arbeitet man da?

00:02:33: Wie geht man vor?

00:02:34: Was ist so das Ziel der Plan?

00:02:36: Grundsätzlich ist es bei uns auch so, es gibt viele Aspekte von wirklich fundamentaler Forschung, die wir leisten müssen, um unsere Produkte zu entwickeln.

00:02:45: Wir arbeiten allerdings sehr hart daran, insbesondere ist es auch eines meiner Interessensfelder, die Spalte zwischen Produkt und grundlegender Forschung nicht zu groß werden zu lassen.

00:02:57: Das heißt, eines meiner täglichen Aufgaben ist diese Balance herzustellen.

00:03:01: Wie geben wir unseren Wissenschaftlern genug Freiraum, große Würfe zu leisten, nicht nur an kleinen Verbesserungen zu arbeiten, aber wie schaffen wir es auch der anderen Seite auch verlässliche Produktentwicklungen für unsere Kunden bereitzustellen?

00:03:14: Wie groß ist das Team der so wie viele Wissenschaftler sind angestellt?

00:03:19: Ja, als ich damals angefangen habe, war die ganze Firma ungefähr achtzig Leute groß, zwölf Leute in der Forschung.

00:03:25: Das hat sich sehr verändert in den letzten fünf Jahren.

00:03:28: Wir sind inzwischen über tausend Mitarbeiter auf dem ganzen Planeten verteilt.

00:03:32: In der Forschung und Technik selbst haben wir etwa vierhundert Leute.

00:03:40: Das ist eine Menge schon.

00:03:42: Man hört ja jetzt tatsächlich schon immer, es gibt schon eine Art Kampf oben die besten Talente.

00:03:49: Merkt ihr das dann auch schon oder habt ihr vielleicht einfach nur solide Basis an Mitarbeitern, die eben auch genau da drin interessiert sind, bei euch zu arbeiten und da jetzt nicht komplett, ich sag mal, was zu flippen?

00:04:03: Ja, eine der Dinge, die mich persönlich interessiert an Softwareentwicklung allgemein und auch an der Entwicklung von KI ist, dass es eines von wenigen Interessensfeldern ist.

00:04:14: der gesamten Menschheit, indem man sehr, sehr großen Einfluss draufnehmen kann, wie viel man eigentlich beiträgt zu einem Produkt, zu einer Technologie.

00:04:22: Es ist tatsächlich so, dass große Innovationen nach wie vor tagtäglich passieren und auch in der Zukunft passieren werden und die natürlich von Individuen getragen werden.

00:04:32: Die richtigen Leute zu finden, ist dabei eine große Herausforderung, das ganze hinzubekommen.

00:04:39: Wir haben auf der einen Seite das große Glück, eine solide Basis zu haben an Wissenschaftlern an Technikern, die das Produkt seit nunn zehnt, kontinuierlich weiterentwickeln.

00:04:49: Aber auch wir sind nach wie vor auf der Suche nach den weltbesten Talenten, um unser Teams zu stärken und weiterhin die beste Technologie zu entwickeln.

00:04:58: an was arbeitet das team denn?

00:05:00: alles so weil wir wissen es gibt den übersetzungsdienst.

00:05:03: klar den kennen wir glaube ich wirklich alle.

00:05:06: aber es gibt ja noch so ein paar weitere Produkte.

00:05:10: kannst du da vielleicht ein bisschen erzählen was es gibt und vor allem auch wie also an was ihr arbeitet?

00:05:16: wahrscheinlich darfst du da nicht zu viel erzählen aber so ein bisschen eine richtung weil ich kann mir immer relativ wenig verstehen.

00:05:23: also es gibt wissenschaftler und teams die irgendwie Sich überlegen, was für Studien kann man machen und wie kann das in Produkte schließen, aber in welche Richtung geht man denn

00:05:33: da?

00:05:33: Die Mission, die wir uns auf die Fahne geschrieben haben, ist Kommunikation für Menschen zu vereinfachen mit der Hilfe von KI.

00:05:40: Das machen wir in diverser Form.

00:05:43: Der Übersetzer ist das Produkt, für das wir mit Sicherheit am bekanntesten sind.

00:05:47: Darüber hinaus haben wir einen Schreibassistenten, der es auch in der eigenen Muttersprache oder innerhalb einer Sprache erlaubt.

00:05:54: Die Feinheiten von Sprache heraus zu differenzieren, dafür zu sorgen, bessere Kommunikation zu haben, der man auch einfach mit mehr Selbstsicherheit gegenüberstehen kann.

00:06:04: Das dritte große Feld für uns ist gesprochene Sprache.

00:06:08: Wie können wir schaffen, ähnliche Durchbrüche, die wir mit dem Übersetzer geleistet haben, in gesprochener Sprache zu verwirklichen?

00:06:16: Aktuell haben wir die Belfarvoice in zwei Kombination.

00:06:19: Das eine ist für den Einsatz in Online-Meetings, so wie das jetzt gerade haben.

00:06:23: Und das andere ist wirklich für die Interaktion mit Menschen in dem wahren Leben über, in dem Fall ein Smartphone, in dem man mit Menschen kommunizieren kann, mit denen man typischerweise nicht kommunizieren könnte.

00:06:36: Interessant finde ich auch, dass über die Produktentwicklung hinaus die Bell ist eine der wenigen Firmen, die vertikal integriert sind.

00:06:42: Das bedeutet, dass wir den gesamten Prozess von Daten, Infrastruktur bis hin zu den Produkten begleiten.

00:06:48: Über die Produktarbeit hinaus gibt es dementsprechend noch viele interessante Probleme, die wir lösen müssen, um diese KI-Entwicklung voranzutreiben.

00:06:56: Und sind es denn eher kleinere Probleme oder geht es auch um den nächsten großen Wurf?

00:07:03: Also, habt ihr Mitarbeiter, die vielleicht wirklich an ganz neuen Modellen, an einer neuen Architektur arbeiten oder ähnlichem, oder geht es eher darum so... kleine Schritte, kleine Verbesserungen an den Diensten vorzunehmen und das kann ja auch dann zu einem großen Durchbruch führen.

00:07:20: Ja, es ist beides.

00:07:21: Am Ende des Tages die Entscheidung, woran wir gerade arbeiten, arbeiten wir an iterativen Verbesserungen von bestehenden Systemen oder an dem großen Wurf, bestehende Prozedere komplett über den Haufen zu werfen und mit was Neues zu gestalten, ist bei uns stark davon informiert, was für ein Problem wir lösen worden.

00:07:39: Ein gutes Beispiel dafür ist Clarify.

00:07:43: eine Technologie, die wir gebaut haben, auf dem Translator hinaus, um nach dem tatsächlichen Übersatzungsverfahren Menschen dabei zu helfen, Text-Feel einfacher editieren zu können, insbesondere auch, wenn sie die Sprache, in der der Text letztendlich verfasst wurde, nicht beherrschen.

00:08:00: Da haben wir einen interaktiven KI-Assistenten gebaut, der es erlaubt, sinnvolle Fragen zu stellen, die Antworten auf diese Fragen in den Editierungsprozess einzubeziehen.

00:08:09: Und das war eine der Technologien, die wir Jahr lang auf unserem Schirm hatten, dass wir es gerne bauen wollen würden.

00:08:15: Aber die Technologie war letztendlich nicht bereit, ein solches Produkt bauen zu können.

00:08:20: Erst mit dem großen Umschwung auf große Sprachmodelle ist die Technologie in greifbarer Nähe gerückt, sodass wir dann die Produktentwicklung darauf aufbauen konnten.

00:08:30: Und diese Balance, woran arbeiten wir als nächstes, ist es einfach nur ein kleines Update von bestehenden Systemen oder müssen wir hier grundsätzlich hinterfragen, wie wir diese Technologie bauen.

00:08:41: Das ist ein fortwährender Tanz, den wir jedes Jahr, jeden Monat wieder beantworten müssen.

00:08:48: Ist das auch so ein Thema denn zwischen den Leuten schon oder dass jemand ein Mitarbeiter ankommt, sagt, ich würde total gerne irgendwie was ganz Verrücktes Neues machen und muss man überlegen, kann sich das wirklich lohnen oder nicht?

00:09:01: Das kommt definitiv vor.

00:09:03: Eine der Sachen die mich sehr glücklich macht bei die Welt zu arbeiten ist, dass wir Leute im Team haben, die sehr daran interessiert sind, Dinge zu tun, die im Alltag von Menschen einen Unterschied machen.

00:09:14: Das heißt, viele der Fragen, die wir beantworten, stammen aus ganz greifbaren konkreten Problemen unserer Nutzer.

00:09:22: Es ist also weniger die Frage, wäre es nicht schön, wenn wir diese tolle Technologie anwenden könnten, aber wir haben keine Ahnung, was diese Technologie bringen kann, sondern es ist viel mehr ein Prozess, bei dem wir all diese Sachen mit Interesse verfolgen.

00:09:35: Aber die Sachen konkret herauspicken, die für unsere Kunden einen Riesenunterschied machen.

00:09:42: Das klingt gut, weil manchmal habe ich schon gerade bei Softwareentwicklung das Gefühl, es ist so, hier ist die Technik, aber sucht noch mal kurz nach dem Problem dafür, was damit gelöst werden könnte.

00:09:53: Ich glaube, Immun ist dort niemand.

00:09:55: Ich baste gern, ich bin mir sehr sicher, viele Mitarbeiter in meinen Teams basteln gerne.

00:10:01: Das ist auch vollkommen okay.

00:10:03: Ich glaube, diese Art von Neugier gehört dazu, richtige Entscheidungen treffen zu können, überhaupt den Lösungsraum aufzumachen, indem man sich bewegt.

00:10:11: Am Ende des Tages, wenn man etwas zu einem Produkt entwickeln möchte, ist uns aber allen bewusst, dass der Weg von einer Idee zum Produkt sehr, sehr lang ist.

00:10:20: Und wir sind alle gut daran beraten, dass sich dieser Weg auch richtig lohnt.

00:10:27: tatsächlich in Haus, also ist alles von Grund auf bei DeepL aufgebaut oder nutzt ihr auch irgendwelche andere Technik.

00:10:36: Wir sind tatsächlich vertikal integriert, das heißt von den Daten über den Modellen, über den KI Supercomputern, die wir betreiben bis hin zu der Produktentwicklung findet alles bei DeepL statt.

00:10:50: Es gibt natürlich Aspekte außerhalb von DeepL, die wir nutzen für diese Produktentwicklung.

00:10:55: Ganz, ganz wichtig ist, das Feedback von Menschen einzusammeln, wie das Produkt funktioniert, um es dann verbessern zu können.

00:11:03: Und dort gibt es natürlich auch Freibuchler, die daran mitwirken, unsere Produkte zu verbessern.

00:11:10: Aber es ist ganz klar, dass ihr nicht viel Sprachmodelle von anderen Anbietern benutzt oder so, sondern, dass ihr das alles selbst wirklich entwickelt.

00:11:20: Ja.

00:11:20: Genau, also die Modelle, die wir uns im Betrieb laufen, das sind die, die wir selbst entwickeln.

00:11:24: Natürlich experimentieren wir auch mit Modellen Dritter Anbieter herum, insbesondere um zu sehen, was der Stand der Technik ist und was Verbesserungspotenziale sind, die wir hineinbringen können.

00:11:35: Aber am Ende, die Produkte, die wir entwickeln, sind nicht nur unsere eigenen Produkte, sondern laufen auch auf unsere Infrastruktur.

00:11:44: Was ist denn so, also die Bellcamern ja kostenlos benutzen einfach?

00:11:48: wenn man möchte, den meisten tun das wahrscheinlich genau so.

00:11:51: Wie ist das denn so vom Geschäftsmodell?

00:11:54: Kann man das sagen, es gibt auch Abomodelle im Grunde oder?

00:11:59: Und Dienste, die dann kostenpflichtig sind?

00:12:02: Genau, es gibt Abomodelle.

00:12:04: Manche davon sind auf einzelne Nutzer zugeschnitten, die das entweder in einem Umfang nutzen möchten, den wir im freien Dienst nicht anbieten oder von den... von den fortgeschrittenen Features profitieren, die wir nur in diesen Abos anbieten.

00:12:19: Und darüber hinaus sehr wichtig sind für uns Geschäftskunden, die das Produkt in deutlich größerem Umfang natürlich nutzen, mit all den Features, die wir speziell für fortgeschrittener Nutzer bauen und dann entsprechende Lizenzabkommen mit uns haben.

00:12:35: Forschung, Wissenschaft ist ja auch nicht unbedingt kostenlos, also auch eher teuer.

00:12:41: und die Experten.

00:12:42: Wie ist das?

00:12:43: funktioniert das trotzdem?

00:12:46: Also das Geschäftsmodell scheint ja ein solides zu sein, kann man dazu irgendwie was sagen?

00:12:52: Das funktioniert sehr gut.

00:12:53: Am Ende des Tages ist es wichtig, Produkte zu bauen, die Menschen tatsächlich wollen und zu wertschätzen.

00:13:02: Das zu balanceieren mit unseren Investitionen in der Forschungsabteilung ist natürlich eine der großen Aufgaben, die wir als Unternehmen haben.

00:13:10: Also ich frage danach und finde das auch so spannend, weil man hatte immer das Gefühl, dass nur, also das Narrativ, was man so hört, ist häufig, dass nur die riesen Konzerne mit ihren gigantischen Datenmengen halt KI entwickeln können.

00:13:24: Und offensichtlich stimmt das ja gar nicht, sondern es geht eben auch in Deutschland mit vielen Mitarbeitern, die über die Welt verteilt sind.

00:13:33: Das geht definitiv.

00:13:35: Es ist eine Frage des sinnvollen Einsatzes von Ressourcen am Ende des Tages.

00:13:43: Es gibt drei große Arten, wie Unternehmen das heutzutage machen.

00:13:47: Das eine ist, Produkte zu entwickeln aufbestehender Technologie und diese Forschungsinvestitionen nicht zu tätigen.

00:13:55: Ich würde sagen, die allermeisten Firmen fallen in diesem Bereich.

00:13:58: Und dann gibt es auf der anderen Seite die Open-Eyes und Anthropics dieser Welt, die mit Einsatz aller erdenklichen Ressourcen versuchen, die Technologie so schnell und so breit wie möglich voranzupuschen.

00:14:12: Und das verursacht immense Kosten.

00:14:15: Und dann gibt es den Mittelweg, in dem man versucht die Technologie in entscheidenden Punkten voranzutreiben, um ein konkretes Problem zu lösen.

00:14:24: Das ist dort, wo wir uns positionieren.

00:14:26: Es erlaubt mit einem Bruchteil der des Einsatzes von Ressourcen, Klassenbeste Resultate zu erzielen, allerdings spezialisiert auf die tatsächlichen Anwendungen, die wir uns auf sie fahren schreiben.

00:14:41: Aber da sind wir schon bei einem spannenden Thema, nämlich auch dieses spezialisiert.

00:14:47: Also im Moment generative KI auf Nei und Co.

00:14:52: haben immer so dieses, also wir wollen... immer schnellere, immer größere, immer leistungsfähigere Modelle ringen.

00:14:58: Ich habe das Gefühl, es überschlägt sich immer alles ganz viel.

00:15:03: Was dann tatsächlich die kleinen Verbesserungen sind, ist manchmal, manchmal merkt man es fast gar nicht, aber es wird wahnsinnig viel Geld reingesteckt.

00:15:13: Manchmal hat man das Gefühl, es wird verbrannt.

00:15:17: Das heißt, also ihr geht da einfach mit dem anderen Weg, in dem ihr sagt, man kann auch Spezialisierter, das ganz anders machen.

00:15:26: Da frage ich mich, ist das vielleicht auch eine Chance für uns in der EU, in Deutschland?

00:15:33: Grundsätzlich glaube ich, ist es eine sehr, sehr große Chance, nicht nur Deutschland in der EU, sondern weltweit Anwendungsfälle zu finden, in denen KI heute einen großen Unterschied macht.

00:15:44: Es gibt viele Visionen, viele Aspirationen, viele langfristige Pläne, was wir alles mit KI machen möchten.

00:15:50: Und am Ende des Tages haben wir heute Produkte, die Menschen in ihrem Alltag nutzen und entweder ihre Aufgaben gut erfüllen oder nicht.

00:16:00: Bis dato über die letzten zehn Jahre und vermutlich über die nächsten zehn Jahre hinaus hat sich herausgestellt, dass es nach wie vor sehr solide Produktentwicklung braucht, um diese Probleme sinnvoll zu lösen.

00:16:14: Also nicht einfach nur interessante Tech-Demos zu erstellen, die auf großer Bühne Beanbrechend aussehen, aber dann im Alltag nicht funktionieren, sondern genug Empathie zu haben für die Nutzer, die man betreuen möchte, um herauszufinden, wo genau die Probleme eigentlich liegen und wie man sie mit bestehender Technologie lösen kann.

00:16:33: Wenn man das sinnvoll macht, hat man auf der einen Seite enorme Einsparungen an Forschungsauslagen, die man ansonsten tätigen müsste und auf der anderen Seite baut man Produkte, die nicht nur besser einsetzbar sind in der heutigen Form.

00:16:48: sondern auch anhaltende Geschäftsbeziehungen ermöglichen mit diesen Kunden, die sehr dankbar dafür sind, dass man ihr konkretes Problem gelöst hat.

00:16:58: Erst kürzlich hat auch Nei Ai einen ChatGPT Agent rausgebracht und im gleichen Artenzug hat Sam Altmann dann aber gesagt, ja, ist sehr experimentell, benutzt ihn besser nicht so, wie man ihn eigentlich benutzen sollte bei der Präsentation.

00:17:16: Ist das so ein Beispiel auch, oder was du meinst, weil ich habe dann auch immer das Gefühl, also hier ist es das Produkt, aber es ist eigentlich nicht fertig, es ist nicht sicher und hilft es dann überhaupt?

00:17:30: Nein.

00:17:31: Genau, das ist die Spannung, die wir uns auch sehen.

00:17:34: Wir alle insbesondere in der Forschungsabteilung finden neue Technologie unfassbar spannend und experimentieren generell damit herum, aber uns ist auch bewusst welche Verantwortung wir für uns... Benutzer haben und diese Balance sinnvoll zu gestalten, ist eine der ganz zentralen Herausforderungen.

00:17:54: Gibt es im Team jemanden, der da konkret reinsitzt?

00:17:58: Ich glaube, also ich habe gerade so ein bisschen im Kopf, das ist wirklich eine sehr... zur psychologischen Rangenehensweise auch an Produktentwicklung.

00:18:05: Also nicht einfach aus diesem alles, was geht, das muss und das kommt raus, sondern eher wirklich so sehr verantwortungsvoll, sehr durchdach, eher vielleicht auch langsamer.

00:18:19: Wie entscheidet ihr das?

00:18:21: Ist das die Geschäftsführung?

00:18:22: Gibt es da wirklich einen Produktteam, die solche Aspekte mit einfließen lassen?

00:18:28: Natürlich gibt es Produktteams, es gibt auch Individuelle Leute, die sich konkret um Sicherheitsaspekte kümmern, so wie das in jeder Groß-NAT-Firma der Fall ist.

00:18:36: Darüber hinaus ist es aber auch ganz zentral Teil der DNA von Diebel sich um Datensicherheit und auch die Sicherheit der Nutzung von Produkt intensiv zu kümmern.

00:18:48: Langsamer zu sein ist nicht unser Ziel, wir operieren in dem selben kompetitiven Umfeld wie alle anderen KI-Entwickler auch.

00:18:56: Das heißt, ich möchte unseren Kunden nicht sagen, hier ist ein schlechteres Produkt, das wir bewusst langsamer entwickeln, aber dafür Vorzüge hat in Sicherheit, sondern was ich unseren Kunden sagen möchte und bislang erfolgreich sagen kann, ist, hier ist die beste Technologie der Welt für euer konkretes Problem, die da genau wie hinaus auch sicher ist.

00:19:18: Wie ist das mit der Größe von Modellen?

00:19:21: Also hat mir eben schon kurz dieses Skalieren ist ja immer im Moment auch so ein Riesenthema.

00:19:28: Ist das für die Bell etwas, wo dran geforscht wird, wie kann man noch mehr Daten, noch größere Modelle schaffen?

00:19:36: oder und es geht ja soweit.

00:19:39: Leute gibt, die sagen, so erreichen wir eine AGI, also eine Artificial General Intelligence.

00:19:45: Wenn wir nur noch mehr Daten reinstopfen, ist diese Skalierungshypothese etwas für die Bell oder ist das eher was, was schon abgezwackt ist?

00:19:55: Diese Skalierungshypothese ist auch bei uns immer noch etwas, das wir im Alltag sehen und sich bewährt.

00:20:01: Das heißt auch, wir sind daran interessiert, größere Modelle zu trainieren mit mehr Daten, auch mit mehr Expertise aus Menschen, um der KI letztendlich zu sagen, was Menschen präferieren und was nicht.

00:20:13: Das ist ein sehr zentraler Aspekt von der ganzen Modellentwicklung.

00:20:16: Es ist unglaublich spannend, was passiert, wenn man diese Modelle eskaliert.

00:20:19: Es ist nicht einfach so, dass sie ihre Qualität entlang von bereits bekannten Dimensionen verbessern, sondern es tun sich auch neue Aufgabenfelder auf, die vorher einfach... unmöglich waren.

00:20:31: Und das zu balancieren ist spannend und auch schwierig.

00:20:35: Den Schritt, den wir dadurch hinausmachen, ist diese Modelle hinterherzunehmen, die wir im Forschungsfeld einsetzen und sie spezialisieren für tatsächliche Kundenwünsche und Sozialwünsche.

00:20:45: Dort entscheidet sich unser Ansatz auf jeden Fall von dem Ansatz von der OpenAI beispielsweise.

00:20:52: Das heißt, das Ziel von DeepL ist nicht unbedingt eine AGI?

00:20:56: Das Ziel von DeepL ist nicht unbedingt eine AGI, nein.

00:21:00: Da wir haben viele Probleme zu lösen, bevor wir tatsächlich komplett breiteinsatzbare KI so einsetzen können, dass sie uns hilft.

00:21:13: Und wie ist das mit den Daten?

00:21:15: Nur ist k gradisch schon gesagt, also schon möglichst viel, aber ihr arbeitet auch viel mit Experten zusammen.

00:21:20: Das heißt, die Daten, es ist jetzt nicht möglichst alles rein, sondern um was für Daten geht es?

00:21:25: um eher, also auch experimentieren mit synthetischen Daten oder vielleicht eben nur speziellen Daten.

00:21:32: Wie kann ich mir das vorstellen?

00:21:35: Über die letzten knapp zehn Jahre haben wir einen großen Datenschatz aufgebaut, der natürlich ziemlich divers ist.

00:21:42: Die wichtigen Aspekte von den Daten sind neben der grundsätzlichen, dem den Vortraining des grundsätzliches Wissen über die Welt veräußert, diese Modelle zu nehmen und ihnen beizubringen, was konkret sie eigentlich tun sollen.

00:21:58: In dem Fall von Übersetzung ist es okay, wie sieht eigentlich gute Übersetzung aus?

00:22:03: Das bedeutet, auf der einen Seite viel zu verstehen, darüber wie die Sprache grundsätzlich funktioniert.

00:22:07: Auf der anderen Seite bedeutet es aber auch, etwas über ganz konkrete menschliche Präferenzen zu lernen.

00:22:15: Bevorzugten Menschen, die eine Art etwas übersetzen, die andere Art, sollten wir eher mit kurzen, sehr prägnanten Sätzen arbeiten, ist das Ganze eher etwas ausgeschmückt und indirekter.

00:22:28: Dort gibt es unglaubliche Unterschiede nicht nur in verschiedenen Kulturen, sondern auch in verschiedenen Domänen.

00:22:35: Das zu steuern, das für Nutzer möglichst einfach verfügbar zu machen, ist eine der großen Herausforderungen.

00:22:42: Und am Ende des Tages, weil wir es mit Spracher zu tun haben, bei dem uns kein Naturgesetz der Welt sagt, was die korrekte Antwort ist, sondern Menschen am Ende darüber entscheiden, ob das gut ist oder nicht, bedeutet das natürlich auch, dass wir die Expertise von Menschen einsammeln müssen und diesen Modellen zu.

00:22:57: vergänglich machen müssen.

00:23:00: Das ist auch total spannend, weil ich glaube, da habe ich jetzt auch selber überhaupt noch nicht darüber nachgedacht, dass ja dieses Empfinden von Sprache und in welchem Kontext sich etwas haben, wo auch ganz unterschiedlich ist.

00:23:13: Manchmal möchte ich ja nur kurze, kurze Informationen und dann eben möglichst live, verständlich, möglichst kurze Sätze und so ähnlich, wahrscheinlich wie beim Radio oder bei unseren Newsfolgen im Podcast.

00:23:24: Kurze Sätze, möglichst simple, damit jeder das einfach gleich verstehen kann.

00:23:28: Aber in einem anderen Kontext in einem Deep Dive möchte ich vielleicht ein Gespräch, wo alle einfach so ein bisschen erzählen und was sind das für Menschen, die in dem Bereich arbeiten?

00:23:40: Aus welchen Disziplinen kommen die denn überhaupt?

00:23:43: Ziemlich breit.

00:23:45: Es ist einer der Erfahrungsschätze, die wir angesammelt haben, dass es sehr schwierig ist herauszufinden, welche Person für welchen Aufgabenbereich besonders geeignet ist, ohne das auszuprobieren.

00:23:59: Man würde vielleicht erwarten, dass wir die Literaturprofessoren dieser Welt einsammeln, um an solchen Feedback-Mechanismen zu arbeiten.

00:24:07: Das stimmt auch in begrenzten Umfang, aber es sind nicht nur die Literaturprofessoren dieser Welt, die besonders gute Informationen für unsere Kais zur Verfügung stellen, sondern am Ende des Tages sind das Menschen aus breiten Hintergründen.

00:24:22: die sich in den Evolutionen, die wir intern laufen lassen, als besonders geeignet herausstellen für dieses konkrete Problem.

00:24:29: Und interessanterweise, je nachdem welches Problem man attackieren möchte, sind das manchmal die Sprachexperten, die man wirklich vermuten würde, also Leute mit langem Hintergrund als Autoren oder akademischem Hintergrund in der Linguistik, für andere Probleme, sind es genau diese Menschen, die besonders ungeeignet sind, uns zu helfen.

00:24:54: Ein interessanter Anwendungsfall ist, damit umzugehen, wie eigentlich Text typischerweise auf einem Smartphone verfasst wird.

00:25:04: Also stell dir vor, wir möchten jetzt Text übersetzen und ihr wollt einfach auf einem Smartphone geschrieben.

00:25:09: Dieser Text sieht sehr anders aus als etwas, das wir in einem publizierten Buch finden würden.

00:25:15: Trotzdem muss die KI lernen, mit diesen Texten umzugehen und diese Texte dann auf eine geeignete Form zu übersetzen.

00:25:21: und diese geeignete Form in den allermeisten Fällen wird lauten, etwas zu produziert ist, auch aussieht, als wäre das auf einem Smartphone getippt worden.

00:25:29: Das heißt, wir wollen keine Fehler machen, also keinen karateckartischen Fehler einmachen, einbauen, auch keine Rechtstreibwähler.

00:25:35: Wir müssen aber mit diesen Fehler umgehen können und dann etwas zu produzieren, das aussieht, als hätte das jemand wirklich auf seinem Smartphone getippt, sich aber besonders viel Mühe dabei gegeben.

00:25:44: Und für Leute, die sehr lange mit Sprache, insbesondere in einem professionellen Kontext gearbeitet haben, ist das keine natürliche Domain, sondern vielleicht ist ein Student geeignet, genau dieser Art von Texten zu verfassen.

00:26:00: Und wie kann man denn das wieder tatsächlich einfließen lassen?

00:26:05: Also wie baut man diese Regeln ein?

00:26:09: oder auch, kannst du das erklären, also ein bisschen aus technischer Sicht tatsächlich?

00:26:14: Ja, es sind keine Regeln und das ist sehr, sehr wichtig.

00:26:18: KI hat eine sehr, sehr lange Historie, geht zurück bis an die Frühzeiten der Computerwissenschaft und auch schon davor.

00:26:27: Der Versuch, die Welt in Regeln zu fassen, wurde oft unternommen.

00:26:32: und ist ausnahmslos gescheitert, weil sich herausstellt, dass sie wird einfach zu kompliziert ist, um sie in Regeln zu gießen.

00:26:37: Die Herausforderung ist also, all diese Präferenzen ein Modell zugänglich zu machen, ohne sie in ein Netz von Regeln zu flechten.

00:26:47: Wie genau man das macht, ist ziemlich kompliziert.

00:26:49: Am Ende des Tages ist wichtig, dass das Modell all diese Vielfalten von Daten gesehen hat und auch explizit gesagt bekommen hat, welche Arten von Daten, das gerade sieht und wie es damit umzugehen hat.

00:27:03: Wenn man das geschickt macht, hat man hinterher ein Modell, bei dem man nach dem Training diese Präferenzen wieder hervorlaufen kann.

00:27:10: Okay, das ist also wirklich im Grundmodell im Training quasi schon angelegt, schon mit drin und nicht nachträglich nochmal.

00:27:18: drauf gesetzt oder so.

00:27:20: Es

00:27:20: passiert beides.

00:27:20: Es ist im grundsätzlichen Training drin, im Vortraining und ist dann später, wenn es darum geht, die Feinheiten von den Modellen auszuarbeiten, wird es auch noch einmal besonders betont in dem deren Prozess des Modells.

00:27:34: Ja, es gibt diesen Fall, ja, das DO-Drei, der Videogenerator von Google soll immer wahnsinnig viele Untertitel generieren, weil er wohl auf sehr vielen YouTube-Videos trainiert wurde, wo es sehr häufig Untertitel gibt.

00:27:48: Das heißt, das geht dann in eine ähnliche Richtung.

00:27:51: Ja, da wurden in den Trainingsdaten, wurde nicht darauf geachtet, dass man diese Untertitel wegmacht und dann wurde das gelernt und muss jetzt wieder rausgeholt werden.

00:28:01: Ja, genau.

00:28:03: Wir haben es hier mit einer Datenmenge zu tun, die einfach für Menschen komplett unüberschaubar ist.

00:28:09: Es gibt keine Hoffnung, in Einzelfällen zu stören, wie genau diese Daten eingeflachten wird.

00:28:16: Was man allerdings tun kann, ist über viele Versuche, viele Experimente, besser und besser zu verstehen, wie man mit diesen Daten umgeht und sie modellenzugänglich macht.

00:28:27: Ich bin mir sicher, dass es jetzt ein Team bei Google gibt, dass sich genau dieses Problems annehmen wird und dafür sorgen wir, dass es in Video IV nicht wieder zum Vorschein kommt.

00:28:36: Das sieht bei uns intern nicht anders aus.

00:28:38: Auch wir entdecken neue Eigenarten von unseren Daten, die uns vielleicht noch nicht bewusst waren und arbeiten in der nächsten Modellgeneration daran, genau diese Fehler zu vermeiden und zum Gehen, arbeiten aber auch ganz konkret daran, ungeahnte Schätze, die in unseren Daten verborgen sind, verfügbar zu machen.

00:28:57: Das ist ein inneren iterativer Prozess.

00:29:00: Ich glaube, es gibt niemanden, der sich hinsetzen kann und für die nächsten Jahre genau vorausplanen kann, in welche Reihenfolge welche Art von Problemen beseitigt werden müssen, sondern am Ende des Tages baut man das beste Modell, das man mit dem Wissen, das man zu dem Zeitpunkt hat, bauen kann.

00:29:19: Bringt es an möglichst viele Nutzer.

00:29:21: Sie sammelt Feedback ein sowohl intern als auch extern um herauszufinden was gut funktioniert und was nicht funktioniert und leitet daraus dann die Forschungsagenda für den nächsten, für den nächsten iteration ab.

00:29:35: Da hab ich auch häufig das Gefühl wenn man mit Leuten spricht die.

00:29:41: K.I.

00:29:41: gerne nutzen und so ein bisschen, ich sage mal, den Hype vielleicht auch befallen, dass sie gerne in so eine lineare Erwartung reingehen.

00:29:49: Also, dass man sagt, na ja, aber da gibt es ja noch ein Problem.

00:29:53: Also, der, der Chatchi P.T.A.

00:29:55: von dem Sam Orkman selbst sagt, bitte nutzt es dafür noch nicht.

00:29:58: Der kann ja eben noch nicht alles.

00:30:00: Und dann kommt häufig so dieses Ja, aber schau dir doch die Entwicklung an und dann kann er das halt nächstes Jahr.

00:30:07: Das ist genau im... Nachdem, wie du das gerade erklärt hast, nicht der Fall.

00:30:11: Man kann nicht ein Jahr im Voraus planen.

00:30:13: im Moment oder gibt es doch so kleine Chancen, wo man sagen kann, naja, das ist schon klar, aber viel weiter kann man nicht gucken.

00:30:22: Ich glaube, es ist insbesondere für Forschungsteams sehr wichtig, diese Planbarkeit ins Auge zu fassen, selbst wenn die Realität komplizierter ist.

00:30:33: Wenn man sich einfach nur zurücklehnt und sich davon überzeugt, dass all diese Prozesse nicht kontrollierbar und nicht verstehbar sind, wird man auch keinen Fortschritt sehen.

00:30:42: Was wir intern machen, ist eine ganze Reihe von konkreten Problemen zu haben, die wir attackieren wollen.

00:30:48: Für jedes einzelne dieser Probleme ist es schwer absehbar, ob die nächste Modellgeneration das Problem lösen wird oder nicht.

00:30:55: Was wir aber machen, ist konkret in die Zatiten zu starten, die an all diesen Problemen arbeiten und erfahrungsgemäß irgendwo zwischen sechzig und achtzig Prozent dieser Probleme werden auch tatsächlich in der nächsten Modellgeneration gelöst.

00:31:09: Die Probleme, die übrig bleiben, sind natürlich Teil der Research Agenda und der Forschungsagenda für den nächsten Modellversuch.

00:31:17: Und auf die Art und Weise kann man eine gute Balance schaffen zwischen der limitierten Kontrolle, die wir alle über diese Modelle haben, ohne gleichzeitig die Hände zu heben und zu sagen, okay, das ist alles weder verstehbar, noch kontrollierbar und deshalb versuchen wir einfach irgendwas und das wird schon funktionieren.

00:31:37: Trotzdem ist es auch für die Produktentwicklung eine tatsächliche Herausforderung, mit der wir insbesondere in der Vergangenheit mehr zu kämpfen hatten als jetzt.

00:31:44: Also in den frühen Zeiten von Diewell war für alle Beteiligten diese Art von neuer Unsicherheit im Vergleich zu klassischer Softwareentwicklung nicht einfach umzusetzen in den internen Prozessen.

00:31:58: Wie gehen wir damit um, dass wir keine verlässliche Aussage darüber treffen können, ob dieses konkrete Problem in drei Monaten gelöst ist oder nicht?

00:32:06: Da stelle ich mir auch für die Mitarbeit wirklich teilweise recht herausfordernd vor.

00:32:12: Also der Frustrationslevel kann ja dann ganz plötzlich ganz hoch sein.

00:32:18: Die Überraschung kann aber auch natürlich total groß sein und man kann sich freuen.

00:32:22: Gab's da schon so Momente, wo ihr mit etwas nicht gerechnet habt und dann gedacht habt, das hat ja geklappt oder das funktioniert ja jetzt so viel besser?

00:32:33: Toll?

00:32:34: Bewegelmäßig, ja.

00:32:37: Manche der Dinge sind einfach intern, das heißt von außen nicht so einfach sichtbar.

00:32:42: Eine der in den frühen Zeiten von die Bella ist tatsächlich Übersetzungsfreiheit.

00:32:46: Hier sind ganz konkrete Probleme, bei denen die Modelle nicht intelligent sind, intelligent genug sind, damit umzugehen.

00:32:52: Man denke an Metaphon, an komplizierte grammatikalische Konstruktion, an... Umgangssprachliche Texte.

00:33:01: Wir hatten eine ganze Liste von Problemen, bei dem wir gesehen haben, okay, das sind einfach Dinge, die mit aktueller Technik nicht umsetzbar sind.

00:33:09: Und als sich die Modelle entwickelt haben über Monate und Jahre, ist diese Liste an Ausstehendenproblemen kleiner und kleiner geworden.

00:33:17: Und das war in den Frühentzeiten der Entwicklung unserer KI-Modelle so.

00:33:23: Inzwischen ist die Übersetzungsqualität in vielen Bereichen so gut.

00:33:27: dass diese ganz einfache Aussage unserer Modelle können grundsätzlich mit diesem Aspekt nicht umgehen, seltener und seltener wird.

00:33:37: Die Modelle können einfach mit sehr breiter Sprache bereits sehr gut umgehen.

00:33:41: Es gibt eine Menge Arbeit zu tun in den Feinheiten der Sprache und insbesondere darin, Nutzern zu helfen, besser mit diesen KI-Modellen zu interagieren, sie nicht nur als einfaches... Text geht rein, Text kommt raus, Werkzeug zu verstehen, sondern ihre individuellen Wünsche mit in den Übersetzungsprozess, mit in den Schreibprozess zu bringen.

00:34:07: Und Clarify ist da das ganz klare Feature, was letztendlich der Moment war, zu sagen, okay, wir haben versucht, ein Feature wie Clarify zu bauen, einen interaktiven Schreibassistenten, den Nutzern hilft, nach der Übersetzung uns... Erstmal machen wir unsere Nutzer nach der Übersetzung aufmerksam auf alle Bereiche, die potenziell Schwierigkeiten haben könnten, weil es mehr Deutigkeiten gibt, weil einfach Fragen ungeklärt sind.

00:34:32: Stellen intelligente Fragen völlig automatisch.

00:34:36: Lassen diese Fragen beantworten, können dann hinterher die Präferenzen mit in den Text einfließen lassen.

00:34:41: Das war ein Feature, das haben wir jahrelang auf der Forschungsagenda GH.

00:34:46: Und als das dann plötzlich, als unsere Modelle plötzlich in die Genkennung waren, das umzusetzen, war das definitiv ein Alizarer-Aha-Momente.

00:34:53: Wie feiert man das dann?

00:34:55: Weniger ausgelassen, als man sich zuständig jetzt vorstellt.

00:34:57: Weiter Arbeit.

00:34:58: Auf jeden Fall gab es.

00:34:59: Es gab auf jeden Fall internen Momente der Anerkennung für diesen konkreten Prozess, die wir mir jetzt nicht sagen.

00:35:06: Ich sag, ich hab so eine Party gehabt, müsste ich das Team mal fragen.

00:35:08: Ich wurde sich keiner eingeladen, so viel kann ich sagen.

00:35:11: Aber... Ich glaube, dass es auch für die involvierten Forscher auf der einen Seite definitiv ein Moment der Genugtuung und der Feier ist.

00:35:22: Und ich hoffe, dass Mitarbeiter, die daran konkret gearbeitet haben, diese Gelegenheit genutzt haben.

00:35:27: Aber ehrlich gesagt auch ein Moment der Erleichterung.

00:35:30: Denn für die gesamte Welt entsteht dort aus dem Nichts plötzlich eine Funktion, über die sie potenziell noch nicht nachgedacht haben.

00:35:39: Für uns in der Forschungsabteilung ist es das Ende eines langen Prozesses der Frustration, dass wir wieder und wieder versucht haben, aus den Modellen dieser Art von Eigenschaft herauszukitzeln und es endlich geglückt ist.

00:35:52: Deshalb glaube ich, dass zumindest Initialerleichterung das überwältigende Erlebnis war.

00:36:01: Und ich kann mir vorstellen, danach das große Loch.

00:36:04: Was jetzt, wenn dieses Problem gelöst ist, dann brauchen wir ein neues Problem.

00:36:08: Exakt, das gibt es immer.

00:36:09: Aber dafür haben wir Leute in der Forschungsabteilung, die genau diese Art von Balance in ihrem Leben wünschen.

00:36:15: Große, schwierige Probleme, von denen niemand weiß, wie man sie lösen kann.

00:36:20: Und dann ein Prozess dahin tatsächlich mehr und mehr, das auch Probleme zu lösen.

00:36:25: Was glaubst du, warum funktioniert die Bell so gut?

00:36:30: Also, ich glaube, wenn ich sage, funktioniert besser als Google Translate zum Beispiel, obwohl Google Jam wirklich schon seit E und K daran arbeitet und ein gigantisches Team haben wird, das wird wahrscheinlich jeder unterschreiben, dass die Bell einfach besser funktioniert.

00:36:47: Also zumindest alle, die ich kenne, benutzen eher die Bell-Werbeveranstaltung zu Ende.

00:36:52: Aber tatsächlich, glaube ich, kann man das so sagen.

00:36:55: Was glaubst du?

00:36:56: Was ist der Grund dafür?

00:36:58: Ich glaube, es gibt viele Gemeinsamkeiten zwischen den Forschungsabteilungen bei Google, bei OpenAI, bei Entropic und bei DeepL.

00:37:06: Es ist nicht so, dass wir grundsätzlich fundamental anders arbeiten würden.

00:37:11: Das glaube ich nicht.

00:37:12: Zwei Aspekte, die meiner Erfahrung auch extrem wichtig sind, ist auf der einen Seite ein konkretes Problem anzugehen, ob das man sich einordet und all die Unterprobleme, die es gibt.

00:37:27: Systematisch eliminiert.

00:37:29: Und das ist ein Prozess den wir nun seit Jahrzehnten kontinuierlich verfolgen und dementsprechend viel Erfolg vorzuweisen haben.

00:37:36: Und auf der anderen Seite halte ich es für sehr wichtig, dass die Forschungsarbeit nicht getrennt von der Produktentwicklung stattfindet.

00:37:45: Ich weiß, Nicht im Detail, wie das heutzutage aussieht, aber zumindest in der Vergangenheit gab es immer mal wieder Gerüchte, wie das bei Google zum Beispiel aussieht.

00:37:54: Und dort schien die Distanz zwischen Leuten, die die großen Ideen haben, um KI-Modelle voranzubringen und den Nutzern sehr, sehr viel größer zu sein, als es bei die jemals der Fall war.

00:38:07: Und auch heute arbeiten wir kontinuierlich daran, diese Distanz so gering wie möglich zu machen.

00:38:12: Wir wollen die besten Köpfe der Welt an Problemen arbeiten lassen, die für unsere Nutzer heute in einem Jahr und in fünf Jahren den größten möglichen Unterschied machen.

00:38:24: Das klingt, finde ich, sehr, sehr sinnvoll und das scheint ja auch zu funktionieren.

00:38:30: Siehst du denn bei KI, also gibt es noch so einen... Ein nächstes übergeordnetes Problem, wo du sagst, das ist das, wo wir alle dran zu knabbern haben und es ist nicht AGI, sondern so etwas ganz Praktisches, das einfach bisher noch nicht geklappt hat.

00:38:49: Es gibt sehr, sehr viele Probleme.

00:38:51: Insbesondere in der Übersetzung von gesprochener Sprache gibt es noch viele Herausforderungen.

00:38:57: Eines der Aspekte, die gesprochene Sprache schwieriger macht als geschriebene Sprache, ist zum einen... Das verfügbarkeit von guten Trainingsmaterial, das schwieriger ist, insbesondere Trainingsmaterial, das dem Alltagsbedürfnis von Nutzung gut entspricht.

00:39:14: Schwer zu bekommen ist.

00:39:16: Auf der anderen Seite gibt es aber auch grundsätzliche technische Unterschiede.

00:39:22: Der Fakt, dass man sich bei geschriebener Sprache am Ende auch mal umentscheiden kann und etwas editieren kann, während man bei gesprochener Sprache, ob man möchte oder nicht, Darauf angewiesen ist, den Satz vorzuführen, den man gerade angefangen hat, ist ein Riesenunterschied.

00:39:40: Der sorgt auf der einen Seite dafür, dass es grundsätzlich schwieriger ist, Echtzeitübersatzung in Sprache anbieten zu können.

00:39:50: Und auf der anderen Seite schafft er auch ziemlich harte Limitierung dafür, wie schnell insbesondere diese Übersatzung jemals sein kann.

00:40:00: Bei simultanen Übersetzern, gute simultanen Übersetzer schaffen die Übersetzung von Text, bei dem sie sich vorbereiten konnten.

00:40:09: Das ist ein wichtiger Aspekt.

00:40:11: Bin weniger Sekunden.

00:40:13: Mit KI können wir das noch etwas reduzieren, so dass das Erlebnis in einem Gespräch zwischen zwei Sprechern, die unterschiedliche Sprachansprechen deutlich effizienter sein kann, als es mit simultanen Übersetzern jemals der Fall sein könnte.

00:40:29: Wir werden aber leider nicht an einen Punkt kommen, an dem wir Nittensynchronen Sprache übersetzen können, weil das die Unterschiedlichkeiten in den Grammatik einfach nicht hergibt.

00:40:40: Schade.

00:40:41: Aber ich glaube, vielleicht ist es auch gar nicht so nötig, sondern es reicht auch, wenn man sich versteht überhaupt.

00:40:49: Den Punkt können wir auf jeden Fall erreichen und eines der lang stehenden Achievements die ich erreichen möchte ist eine Technologie mitzugestalten die gut genug ist, dass ich überall auf der Welt einfach auf lokalen Märkten mit den Händen ansprechen kann und erfolgreich Preise über die Waren verhandeln kann.

00:41:07: Und das ist ein Level an Integration in der Übersetzung von gesprochener Sprache, bei dem ich sehr zuversichtlich bin, dass wir das erreichen werden.

00:41:17: Das für mich ist ein Schöne Abschluss.

00:41:20: Ich fand das ein total spannendes Gespräch und wie Eingangs gesagt, ich finde wirklich, ich finde es toll, mal ein bisschen mehr über die Bell zu erfahren und ein bisschen was darüber zu erfahren.

00:41:31: Erfahren, dass auch KI hier entwickelt werden kann und Produkte hier entwickelt werden können, die super funktionieren und es müssen nicht immer nur die sehr laut schreienden Unternehmen sein, auch wenn die sicherlich auch natürlich ganz viel Tolles bringen.

00:41:47: Vielen, vielen Dank für das Gespräch.

00:41:50: Vielen Dank, es hat mich sehr gefreut.

00:41:54: Das war's

00:41:54: für heute.

00:41:55: Den nächsten Deep Dive hört ihr an dieser Stelle in zwei Wochen.

00:41:59: Dann beschäftigen wir uns, passend zum neuen Schuljahr, mit den besonderen Herausforderungen, die KI an Lehrkräfte stellt.

00:42:06: Denn wenn Kinder und Jugendliche KI-Führer Hausaufgaben benutzen, müssen schriftliche Projekte ganz anders bewertet

00:42:13: werden als

00:42:13: früher.

00:42:14: Wie das funktionieren kann, erklärt uns ein Praktiker mit viel KI-Erfahrung.

00:42:19: Bernhard meiner unterrichtet Englisch-Geografie und wirtschaftliche Bildung in Wien und teilt sein Wissen in frei verfügbaren Praxishandbüchern und in der monatlich erscheinenden der Standardkolumne KI im Klassenzimmer.

00:42:32: Ich würde mich freuen, wenn ihr dann wieder dabei seid.

00:42:35: Bis dahin könnt ihr natürlich mit unserem kompakten KI-Update

00:42:38: jeden

00:42:39: Montag, Mittwoch und Freitag auf dem Laufenden bleiben.

00:42:42: Untertitel im Auftrag des ZDF.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.