KI-Update Deep-Dive feat. They Talk Tech: Prompt Injections

Shownotes

Heute gebe ich den Staffelstab an zwei ganz besondere Tech-Journalistinnen ab: Svea Eckert und Eva Wolfangel hört ihr normalerweise im c’t Podcast They Talk Tech. Heute übernehmen die beiden Expertinnen den DeepDive und sprechen über Prompt Injections.

Artikel zur Podcastfolge: https://heise.de/-10747989 They Talk Tech https://frauen-technik.podigee.io/ https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki

Transkript anzeigen

00:00:02: Das KI Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.

00:00:13: Hallo,

00:00:14: ich bin Isabel Grünewald und dies ist unser Deep Dive zum Wochenende.

00:00:20: Wenn es nach Open AI CEO Sam Ordman geht, dann werden wir in Zukunft alles über KI Chatbots organisieren, unseren Einkauf, unsere Reiseplanung, unsere Freizeitgestaltung.

00:00:30: Und Freizeit werden wir ja sowieso total viel haben, weil Chatbots und Agenten und so viel lästige Fleißarbeit abnehmen.

00:00:37: Doch wollen wir den großen Sprachmodellen wirklich so viel Kontrolle über unser Privatleben und auch unsere Finanzen anvertrauen?

00:00:45: Heute gebe ich den Staffelstab für das KI-Update an zwei ganz besondere Tech-Journalistinnen ab.

00:00:51: Svea Eckert und Eva Wolf-Angel hört ihr normalerweise im CT-Podcast They Talk Tech.

00:00:57: Heute übernehmen diese beiden Expertinnen den Deep Dive und sprechen über Prompt Injections.

00:01:03: Diese miese, fiese Methode, mit der man Sprachmodelle dazu bringt, Dinge zu tun und zu erzählen, die sie

00:01:10: eigentlich nicht

00:01:11: tun oder sagen sollten.

00:01:15: Eva, ich liebe ja Prompt Injection, weil es ein bisschen anders ist und speziell ist.

00:01:23: Und du hast zu mir gesagt, du glaubst, Prompt Injection sind der Grund, warum KI-Anwendungen für immer hackbar bleiben und die besten Freundinnen von cyberkriminellen und Spionen.

00:01:36: Genau, und zwar.

00:01:37: Ich hab in Vortrag gehalten, die Woche, und zwar beim Unternehmen ganz viele ... technisch versierte Menschen, Cybersecurity interessierte Menschen dabei waren.

00:01:47: Und das hat mir die Gelegenheit gegeben, noch mal richtig technisch tief einzutauchen.

00:01:50: Und ich hab selbst ein bisschen was gemacht.

00:01:53: Deswegen mag ich das auch total gerne.

00:01:55: Also Prompt Injection oder so Social Engineering von Chatbots ist was, was ich selbst sehr gerne mache.

00:02:01: Ich hab jetzt ja ein paar Mal geschafft, dass Chatbots mir Dinge verraten haben, die sie nicht verraten sollten.

00:02:06: Unter anderem, ich will ein Reichels-E-Mail-Adresse, da hab ich ja schon mal davon erzählt.

00:02:09: Wer das noch mal wissen möchte, da hab ich beim CCC.

00:02:11: im Kongress einen Vortrag dazu gehalten, der ist ganz gut zu finden im Netz.

00:02:15: Kürzlich haben wir den Chatbot von Mercedes-Benz, der in den Autos mit den FahrerInnen spricht, dazu gebracht, uns was zu verraten, was zumindest nah am System prompt ist.

00:02:27: Mercedes-Benz hat es nicht bestätigen wollen, aber zumindest hat er uns verraten, dass er nicht über den Klimawandel sprechen darf, sondern nur über positive Dinge reden darf.

00:02:35: So habe ich auch meine eigene Erfahrung gemacht und ich habe mich ein bisschen reingeknied in Beispiele.

00:02:41: Bevor es losgeht, ihr lasst uns einmal ganz kurz Basic sagen.

00:02:44: Was ist ein Pumped Injection?

00:02:46: Angriff, das ist soweit ich weiß immer dann.

00:02:49: wenn man sozusagen böswillige Eingaben als Legitimen prompt tarnen kann und damit sozusagen die KI manipuliert.

00:02:57: Ich kenne das, weil mal Forscher sowas gemacht haben auf einer Webseite, wo ein Chatbot gelaufen ist und dass sie dann sozusagen so dem Sachen gesagt haben oder den Sachen gefragt haben, sodass er quasi geheime Informationen über andere Nutzer oder über sich selbst ausgespuckt hat.

00:03:15: Sowas ist das.

00:03:16: Genau, das war mein erster Artikel dazu.

00:03:17: Und zwar kurz nachdem die dass die Öffentlichkeit erstmals Zugriff auf so einen Chatbot wie ChatGPT hatte, haben mir das Forscher und Forscherinnen schon demonstriert.

00:03:25: Und du hast aber recht, ich habe es gerade ein bisschen vermengt.

00:03:27: Also es gibt so ein bisschen zwei Eigenschaften, die Chatbots interessant machen für Manipulation mit auch bösem Hintergrund.

00:03:34: Das eine ist, man kann sie so wie Menschen eben auch... Social Engineer, das heißt, man kann sie manipulieren, man kann sie letztlich ist es überreden, Dinge zu tun, die sie nicht tun sollen, also Sachen verraten.

00:03:47: Und das andere ist, man kann sie dazu benutzen, auch auf anderer Menschen Geräte Dinge zu tun, die sie nicht tun dürfen, weil ja Chatbots und das ist das, was jetzt gerade so spannend ist, immer mehr Zugriff haben auch auf Computersysteme von Unternehmen und Firmen oder auch Einzelpersonen, weil man ja diese ganz wunderbare, agente Zukunft, die wir gesehen haben, auch ihre Probleme hat, aber man die ja nur nutzen kann, also auch noch andere Probleme hat, außer dass da ziemlich viel Unsinn daraus kommt.

00:04:17: Den großen Vorteil hat man ja nur, wenn man den Systemen-Zugriff gibt, erstens auf eigene Daten, aufs eigene System zumindest bis zum gewissen Grad und eben aufs Internet, weil natürlich die Dinge recherchieren müssen für einen oder dieses berühmte E-Mails zusammenfassen, eben die eigenen E-Mails lesen und damit dann auch schon Zugriff haben, manchmal sogar auf den Posteingang, ohne dass da noch eine Aktion von dem Nutzer der Nutzerin.

00:04:46: von Nöten ist.

00:04:47: Und ich habe jetzt eben für diesen Vortrag ganz, ganz viele Beispiele zusammengetragen, in denen beides gezeigt worden ist.

00:04:52: Eines war ohne Interaktion, das Nutzer ist der Nutzerin.

00:04:55: Aber ganz, ganz groß im Kommen sind eben auch so Dinge, wo man Social Engineering von Menschen und Maschine sozusagen kombiniert, also wo der Agent Unter dem Vorwand, zum Beispiel, ich habe deine E-Mails zusammengefasst.

00:05:07: Ich habe deine...

00:05:08: Wer gerade nämlich genau meine nächste Frage gewesen, gibt mal ein Beispiel.

00:05:12: Also ein Beispiel, das, was ich auch schon vor der ganzen Zeit recherchiert habe, ist, da haben Menschen so ASCII-Zeichen genutzt, um eine URL teilweise unsichtbar werden zu lassen.

00:05:25: Also das gibt sogenannte ASCII-Smuggling.

00:05:27: Da werden Unicorotext benutzt, die dann quasi in einer URL... vorhanden sind, aber für Menschen nicht zu sehen sind.

00:05:34: Also dieser Code oder diese DIY sieht viel kürzer aus für Menschen, als sie real ist.

00:05:39: Sollen wir einmal ASCII erklären?

00:05:40: Ich weiß, das ist das kleine Informatiker, innen einmal eins, aber es hören uns ja auch andere Menschen zu.

00:05:46: Also ASCII Coach steht für American Standard Code für Information Interchange und das ist ein Zeichensatz der jedem.

00:05:54: Zeichen, also eben Buchstaben, eine eindeutige Nummer zuweist, so dass der Computer sie dann auch verstehen und verarbeiten kann.

00:06:02: Und dementsprechend kann man sich sozusagen auch wieder dann vorwärts und rückwärts vorstellen, dass man sozusagen ein ASCII-Code eingibt und Dann kommt Unicode, das sind da die Buchstaben raus und umgekehrt.

00:06:13: Genau, und es gibt ganz jede Menge Tools da draußen, mit denen man das in beide Richtungen machen kann.

00:06:18: Ich habe eins gesehen, das heißt ASCII Smuggler.

00:06:21: Damit kann man eben in beide Richtungen entweder eine, also man kann mit Copy-Paste einfach eine URL oder ein anderes Stück Text reinkopieren und dann eben sehen, ob da auch unsichtbare Zeichen vorhanden sind und man kann unsichtbare Zeichen verstecken lassen, dass Menschen die nicht mehr sehen.

00:06:33: Der eine Angriff war eben so Co-Pilot und das war ein Angriff, also ein Demo auf das schon aktive Co-Pilot.

00:06:40: System, allerdings ist schon knapp zwei Jahre her, wurde natürlich inzwischen geschlossen, die Lücke.

00:06:46: Das ging so, der User instruiert Co-Pilot, bitte fass mir eine E-Mail zusammen.

00:06:52: In der E-Mail ist, das ist eine bösartige E-Mail, da sind versteckte Anleitungen dazu, dass der Co-Pilot durch Alle anderen E-Mails einmal durchschauen soll und gucken soll, ob irgendwo zum Beispiel das Beispiel war Verkaufszahlen für einen bestimmten Ort drin sind, also Informationen, die einen Spion vielleicht interessieren würden in den Spionen.

00:07:11: Oder das andere Beispiel war so ein One-Time-Password, also so eine Art zweiter Faktor, der per E-Mail kommt, schickt ja, schicken ja Unternehmen wie PayPal zum Beispiel auf, wenn sie sich nicht sicher sind, wenn irgendwas auffällt, ob die Person wirklich die Person ist, die Formrechner sitzt, dann schicken die ja manchmal noch so ein One-Time-Code per E-Mail oder SMS.

00:07:29: Diese zwei Dinge haben eben die Forscherinnen und Forscher den Chatbot Co-Pilot gebeten, in E-Mails zu suchen in Form von unsichtbarem Text in der E-Mail.

00:07:38: Aber LLMs sehen natürlich, also sehen den Text ja nicht wie wir, die haben ja keine Augen, sondern die klicken natürlich alle Informationen mit, die da irgendwie drin sind.

00:07:46: Ganz klassisch ist zum Beispiel weiß auf weiße Buchstaben oder schwarz auf schwarze Buchstaben.

00:07:51: Schon ist der Text für uns nicht sichtbar und für Chatbots ist gar nichts anders als sonst, die sehen den Texte einfach.

00:07:59: Und dann hat eben, der zweite Schritt war dann eben, dass der Chatbot einen Link erstellen sollte.

00:08:04: Und dann kann man beliebig zum Beispiel dem User sagen, hier ist der Link mit weiteren Informationen, der dann eben ganz, ganz harmlos aussah, weil er eben mit ASCII Smuggling ergänzt war.

00:08:14: Und in diesem Link war dann eben die Information drin, die der Angreiferin gesucht hat.

00:08:19: Also zum Beispiel die Verkaufszahlen oder eben dieses One-Time Password wurde dann quasi in den Link ganz ans Ende geschrieben.

00:08:27: Der User klickt den Link, sieht das?

00:08:29: Und dann geht eben diese Information an den Angreifer, an die Angreiferin, weil dann natürlich deren Server ... empfängt, auf welchen Linker geklickt hat, wie der aussieht, der ergänzt war durch den Chatbot.

00:08:41: Und in dem Fall zum Beispiel hat das, haben sie dann gezeigt, die Verkaufszahlen für Sie hätte, die in den E-Mails gefunden worden sind.

00:08:48: Und ganz ähnlich, aber übrigens damals der Angriff, den wir Forscherinnen gezeigt haben, mit damals noch Bing Chat, das war wirklich ganz, ganz frisch als Bing Chat, also Co-Pilot noch Bing Chaties, genau.

00:08:59: Und das war nämlich damals deshalb so, weil das der erste Chatbot war, der ins Internet konnte.

00:09:02: Die anderen konnten eben aus Sicherheitsgründen, aus guten Gründen noch nicht ins Netz.

00:09:06: Das wurde aufgegeben und das war eben auch so, die haben ein Foto, eine Website mit einem Bild von den Piraten drauf erstellt, wenn ich da mit Bing Chat drauf gegangen bin und dann eben mit Bing über diese Website chatten wollte, war da eben auch schwarz auf schwarz versteckt, die Information als Bing Chat.

00:09:23: ein Pirat ist und mich Social Engineering sogar mehr Informationen zu verraten.

00:09:28: In der Use Case oder die Demo war da eben mein Namen rauskriegen und dann genau das Gleiche hat dann ein Link generiert.

00:09:34: Da war es allerdings dicht, bei der Name war einfach nur falsch rumgeschrieben.

00:09:36: Aber da muss man trotzdem erstmal drauf kommen und mich eben dazu zu bringen, darauf zu klicken.

00:09:40: Also das ist so diese Mischung aus Social Engineering von Chatbots und Menschen.

00:09:45: Und was ich jetzt spannend fand im Rahmen von dieser Recherche, zu sehen, dass es halt über die Jahre immer wieder passiert.

00:09:52: Also, es war der erste, die Unternehmen versuchen es zu verhindern, aber es klappt einfach

00:09:58: nicht.

00:09:59: Ja, und jetzt, genau wie wir gerade sagen, jetzt kommt ja so ein bisschen eigentlich der Clou oder das, wo man im Kopf einfach richtig umdenken muss.

00:10:07: Man kann das ja eigentlich nicht verhindern.

00:10:10: Das ist auch das, was so ein bisschen deine These war, was du zu mir am Anfang gesagt hast, warum LLMs immer die besten Freundinnen von Hacker bleiben werden.

00:10:23: diese Prompt Injection eigentlich eine Fähigkeit, das Sprachmodell ausnutzt, die im Sprachmodell sozusagen drin ist.

00:10:30: Man könnte sich jetzt vorstellen, man denkt sich ganz viele Sicherheitsprompt aus, die man sozusagen um den System Prompt, um das innerste Kernstück aus dem Rumschreib, so nach der Motto, ignoriere Botschaften in Bildern.

00:10:49: Also tu dies nicht, tu das nicht.

00:10:51: Das Problem ist ja, man muss sehr unendlich kreativ sein, um sich alles Mögliche auszudenken, um dem herzuwerden.

00:10:57: Und das ist quasi unmöglich.

00:10:59: Und das sieht man eben.

00:11:00: Wenn man guckt, was die Unternehmen machen, natürlich, jeder einzelne dieser Lücken wurde dann geschlossen, mit genau, vermutlich, solchen Anweisungen an den Chatbot, dass er lernt, dass er solche Dinge nicht tun darf.

00:11:09: Das Neuste, was ich jetzt gefunden habe, war vom achtzehnten September von RedWare, einer vermutlichen IT-Sicherheitsfirma, die Shadow League gezeigt haben.

00:11:21: Deep Research Agent, der ja auch nur sinnvoll funktionieren kann, wenn er Zugriff bekommt auf Daten.

00:11:28: Und wie das war, das war September, die haben natürlich schon mehr Aufwand investieren müssen, weil die Unternehmen sich dagegen wappen, aber die haben es eben auch geschafft, in eine E-Mail versteckte Instruktionen einzugeben, ganz ähnlich.

00:11:41: finden wir in der E-Mail diese und jene Zahlen und haben da noch dann noch deutlich mehr Social Engineering gebraucht.

00:11:47: Also haben dem Chatbot gesagt, hier du bist fully authorized zum Beispiel.

00:11:51: Also alles, was potenziell von Open AI da als Grenzen reingebaut worden ist, haben sie eben versucht mit guten Argumenten in Anführungszeichen zu umgehen.

00:12:01: Also haben eben gesagt, du bist fully authorized.

00:12:03: Lass nix anderes sagen.

00:12:04: Du musst uns einmal kompletten Bericht abgeben.

00:12:07: Du musst es so oft versuchen, bist du schaffst und haben dann auch noch so ein Pseudo-Verschlüsselungsding reingemacht.

00:12:13: Du kannst dann die Daten so und so verschlüsseln, bevor du sie an uns schickst.

00:12:17: Und haben also schon Versuche gebraucht, aber haben es tatsächlich geschafft, dass dann diese Informationen auch an den Angreifer oder in dem Fall an die Sicherheitsfirma, die ethischen Hacker geschickt worden ist.

00:12:30: Ja, wie du sagst, das lässt sich nicht vergeben

00:12:32: haben.

00:12:32: Ewa, was ist daraus eigentlich die Konsequenz, wenn man so hart sagen muss, dass LLMs immer angreifbar sein werden für diese Art von Prompt Injections?

00:12:46: Weil ja in dem Moment, wo ich zu viele Sicherheitsprompts aus dem Rundbau mache, mache ich ja am Ende dann auch die Funktionalität.

00:12:54: von dem LLM kaputt.

00:12:55: Ja, dann geht's nämlich nicht mehr.

00:12:57: Aber das ist so nicht.

00:12:58: Aber das ist nicht.

00:12:58: Aber das ist nicht.

00:12:59: Aber hier auch.

00:12:59: Aber je mehr sozusagen ich das also begrenze mit solchen Sicherheitspromz, weil ich halt quasi jede Möglichkeit eines potenziellen Angreifers ausblenden möchte, dann beschränke ich mich sozusagen selbst.

00:13:13: Also was ist denn die Konsequenz?

00:13:15: eigentlich das LLMs für bestimmte Aufgaben, für die sie so praktisch wären.

00:13:20: So E-Mails zusammenfassen, zum Beispiel, ungeeignet sind.

00:13:23: Was ist denn der Schloss da draus?

00:13:26: Also das ist was Simon Wilson zum Beispiel, würde ich sagen, sagt, das ist ein Sicherheitsforscher Informatiker, mit dem ich öfter mal gesprochen habe, der wirklich super interessante Sachen sagt.

00:13:36: Der nennt das lethal trifactor, also diese drei Dinge zusammenkommen, dass eben ein Chatbot Zugriff auf private Daten hat, die Fähigkeit nach außen zu kommunizieren und eben nach außen auf Inhalte trifft, den man nicht Automatisch vertrauen kann.

00:13:55: Also, dass diese, wenn diese drei Sachen zusammenkommen und es kommen natürlich zusammen, sobald er ins Internet geht und auch, wenn du bald der E-Mails liest, muss man sagen, weil jeder kann dir ja irgendeine E-Mail schicken mit versteckten Botschaften drin.

00:14:05: Gibt es eigentlich keine Lösung und du musst dich, also ich glaube, was eine, was daraus folgt, ist, dass man sich eben dessen bewusst sein muss.

00:14:13: Ein bisschen hat man gesehen.

00:14:14: einige der Angriffe brauchen jetzt doch wieder Userinteraktion, also indem du zum Beispiel dann auf den Link klickst.

00:14:21: Das ist aber, glaube ich, tatsächlich immer schwieriger zu unterscheiden für Userinnen und User, die mit solchen Agenten arbeiten, weil natürlich dann, also ein Beispiel war dieser Browser, Agentic Browser von Perplexity, Comet Browser.

00:14:35: Den habe ich nicht ausprobiert.

00:14:36: Der soll aber richtig gut sein, der einem Websites zusammenfasst und so weiter.

00:14:40: Und da war eben eben auch einfach so ein Beispiel, der hat dann In Reddit Post zusammengefasst mit versteckten Anweisungen.

00:14:46: Und klar, dann sagt ihr, hier ist die Zusammenfassung und der Link sieht total harmlos aus und dann klickst du drauf und dann ist es schon passiert.

00:14:52: Also das braucht.

00:14:54: auch oft Userinteraktionen.

00:14:56: Weil natürlich, also das erste Trick ist, dass du sagst, kein Agent darf automatisch irgendwelche Sachen aus meinem System rausschicken.

00:15:04: Das ist ja was, genau.

00:15:05: So kann man natürlich recht viel verhindern.

00:15:07: Aber dann natürlich, dann kommen natürlich die ganzen Tricks mit Social Engineering auch wieder in Bezug auf die Userinnen und User.

00:15:13: Und die Beispiele, die ich gesehen habe, ja, ich glaube, die sind wirklich schwer definitiv zu verhindern.

00:15:18: Deswegen, glaube ich schon, muss man sich einfach sehr, sehr gut überlegen.

00:15:23: welche Freigaben man so einem Agenten, so einem KI-Agenten gibt.

00:15:27: Und jetzt gab es ja auch viele Berichte darüber, dass diese ganzen agentischen Use-Cases auch zu ziemlich viel Unsinn führen.

00:15:34: Also dass die nur, teilweise nur vordergründig uns die Arbeit abnehmen.

00:15:38: Das ist vielleicht auch teilweise eine Marketing-Behauptung ist.

00:15:42: Also auch vor dem Hintergrund kann man, glaube ich, überlegen, ob man so was einfach doch weniger einsetzt, als es... Als es lockt.

00:15:49: Also jetzt nur noch mal als Beispiel, also würde das zum Beispiel bedeuten, wenn ich jetzt so ein Art E-Mail-Agenten habe, der mir selbstständig E-Mails beantworten soll.

00:16:00: Ja, oder eine bestimmte Art von Mail, sozusagen, ja, bei Terminanfragen.

00:16:06: Schau in meinen Terminkalender und wenn ich da Zeit habe, dann schicke eine freundliche Zusage.

00:16:11: Und wenn ich keine Zeit habe, schicke eine freundliche Absage.

00:16:14: So könnte sowas ja theoretisch.

00:16:16: aussehen.

00:16:17: Und dann wäre natürlich die Gefahr bei einer Prompt Injection, dass ich eine E-Mail erhalte.

00:16:21: Die sieht für mich als Mensch ganz easy peasy normal aus.

00:16:25: Da ist gar nichts drin.

00:16:26: Aber die enthält die verbotene Anweisung irgendwelche geheimen Sachen aus meinem Postfach rauszusuchen und die zurückzuschicken.

00:16:35: Und das würde dann funktionieren, weil der KI-Agent damit dann überlisted werden könnte.

00:16:40: Und selbst wenn du dann quasi die Hürde einbaust und sagst, jede E-Mail lese ich selbst nochmal durch, hast du ja das Problem auch, dass da versteckte Sachen drin sein können.

00:16:47: Das heißt, der Aufwand, diese E-Mails zu kontrollieren, wird unglaublich hoch.

00:16:51: Du musst dir auch versteckten Code verstecken, der Aske zeichnet.

00:16:53: Was weiß ich?

00:16:54: Weiß, schwarz, schwarz.

00:16:55: Sonst was untersuchen.

00:16:57: Und die Angreiferinnen werden ja auch immer besser darin, solche Sachen zu verstecken.

00:17:00: Und deswegen hast du dann am Ende nichts davon.

00:17:02: Das würde in der Konsequenz bedeuten, dass ich so einen KI-Agenten gar nicht dafür benutzen kann.

00:17:08: wie E-Mails vorzuformulieren.

00:17:10: Ich würde es jetzt aktuell tatsächlich nicht machen, weil mein Eindruck ist, das was du an Arbeit hast, das alles zu überprüfen, ist eigentlich... Viel mehr Arbeit als es dir spart am Ende.

00:17:21: Solche Dinge wie automatische Absage oder Automationen kann man ja ganz gut mit Regelbasiert lösen.

00:17:28: Oder einfach mit einer Autoreply, wenn mir eine E-Mail schreibt, kriegt ihr z.B.

00:17:31: mit einigen Anweisungen.

00:17:33: Das ist einfach eine E-Mail.

00:17:34: Das mache ich

00:17:35: immer, wenn ich einsam bin.

00:17:36: Wenn ich einsam bin,

00:17:39: schreib ich immer eine E-Mail und dann macht es bei mir immer die.

00:17:42: Und dann kommt, ich lese meine Mails nicht oder

00:17:46: ähnlich.

00:17:46: Viel mehr Text, viel mehr Text.

00:17:48: Man kann auch dann einen Link zum drauf klicken, der ist übrigens ein netter Link, also der ist auch nicht böse.

00:17:53: Ich denke immer, der denkt immer, okay, keiner schreibt mehr, aber Eva schreibt mehr.

00:17:58: Das ist ja gut.

00:17:59: Also wer das brauchst, so will ich mir schreiben.

00:18:00: Nee, also genau.

00:18:02: Ich inzwischen denke ich, dass man viele Dinge doch mit regelbasierten Systemen besser lösen kann.

00:18:06: Auch so Chatbot-Geschichten, die Unternehmen fragen mich dann, ja, ist es denn sicher, ein Chatbot auf meiner Website zu haben?

00:18:10: Und das ist ja das andere, dass dieser Chatbot wird ja auch mit, wird im Zweifel auch Antworten geben, die du vielleicht nicht... nicht gern hast, nicht gern hast.

00:18:20: Also auch das, und das hat man bei der Mercedes-Benz-Recherche eben gezeigt, natürlich wollten die nicht, dass der Chatbot uns verrät, dass er nicht über den Klimawandel sprechen darf, sondern dass er halt einfach solche Fragen, solche Themen geschickt umschifft, aber wenn man ihr halt auf eine bestimmte Art und Weise fragt oder lang genug ja rumsocial engeniert, dann verrät er eben solche Dinge.

00:18:38: Und man hat es nicht in der Hand, also man kann es nicht verhindern, was der Chatbot antwortet.

00:18:42: Und deswegen habe ich so Unternehmen, die fragen, da können wir nicht in Chatbot, der wenigstens so was sagt, wie wenn du das untersuchst, ist es da und da auf der Website haben.

00:18:49: und ich habe gesagt, ich würde vorschlagen, sowas regelbar zu machen und nicht mit einem Chatbot oder mit einem LLM, was dann eben, ja, weil du halt es nicht in der Hand hast, was die Systeme am Ende schreiben.

00:18:59: Es gab bei diesem bekannten Fall von der Fluggesellschaft, die ein Chatbot hatte, der hat dann einen Passagier versprochen, er bekommt sein Geld zurück, weil sein Flug verpasst hat.

00:19:07: Das stimmt aber, also der war selber schuld.

00:19:09: Rein rechtlich gesehen hätte der kein Geld zurückbekommen müssen, aber ein Gericht hat dann gesagt, na gut, aber hier wurde ihm ja von der Fluggesellschaft das zugesichert.

00:19:16: Dann haben die es bezahlen müssen.

00:19:17: Das ist zum Beispiel, man sieht, dass es am Ende durchaus heikel ist, einfach ein großes Sprachmodell in die eigene Website einzubinden.

00:19:26: Es gibt schöne Use-Cases für Large-Language-Models, aber nicht alle sind

00:19:31: sinnvoll.

00:19:32: Also

00:19:33: schöne neue Welt mit kleinen, grauen, schwarzen Stellen.

00:19:37: Die haben wir jetzt aber schön ausgeleuchtet.

00:19:42: Mehr von Svea Eckert und Eva Wolf-Angeln hört ihr jeden Mittwoch bei See Talk Tech auf der Podcast-Plattform Eurer Wahl.

00:19:50: Darin diskutieren die beiden Expertinnen verschiedene Tech-Themen oder treffen inspirierende Frauen aus und rund um die Tech-Welt.

00:19:57: Den Link zu See Talk Tech findet ihr natürlich auch in den Shownotes.

00:20:02: Und das war's für heute.

00:20:04: Den nächsten Deep Dive hört ihr an dieser Stelle in zwei Wochen.

00:20:08: Dann tauschen sich Eva-Maria Weiß von Heise Online und unser Kollege Nico Juran von der CTE über ihre Erfahrungen mit Kaibren aus.

00:20:16: Beide hatten schon die Gelegenheit, verschiedene Modelle von verschiedenen Anbietern zu testen und erklären, ob was dran ist an dem Hype.

00:20:24: Mehr dazu in zwei Wochen.

00:20:25: Es würde mich freuen, wenn ihr dann wieder dabei seid.

00:20:28: Bis dahin könnt ihr natürlich

00:20:30: mit unserem kompakten

00:20:31: KI-Update jeden Montag, Mittwoch und Freitag auf dem Laufenden bleiben.

Your comment was successfully sent.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.