KI-Update kompakt: AI Act, Groundsource, NemoClaw, Perplexity Computer

Shownotes

v

Transkript anzeigen

00:00:02: Das KI Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.

00:00:13: Ich bin Isabel Grünewald und die sind heute unter anderem unsere Themen.

00:00:17: EU lockert KI-Regeln für Hochrisikosysteme.

00:00:21: Google's Ground Source soll Flutereignisse vorhersagen.

00:00:25: Nvidia arbeitet an KI-Agentenplattform NemoClaw – und Perplexity baut Personal Computer auf Mac Mini Basis!

00:00:35: Der Rat der Europäischen Union hat seine Position zu einer Vereinfachung des europäischen KI-Gesetzes festgelegt.

00:00:42: Die Einigung ist Teil des sogenannten omnibus sieben Pakets, mit dem Brüssel seinen digitalen Rechtsrahmen insgesamt verschlanken will.

00:00:50: Kim Scheurenbrand von The Decoder – Mit den Einzelheiten

00:01:05: Für Sie gelten im EUEI-Akt oder der KI-Verordnung besonders strenge Anforderungen.

00:01:10: Die EU-Kommission hatte vorgeschlagen, den Staat dieser Fortschriften um bis zu sechzehn Monate zu verschieben – denn die nötigen technischen Standards und Werkzeuge zur Umsetzung liegen teilweise noch nicht vor.

00:01:22: Der EU-Ministerrat folgt dieser Linie und schlägt nun neue Termine vor!

00:01:27: Für eigenständige Hochrisikokai-Systeme sollen die Regeln ab dem zweiten Dezember.

00:01:33: Für Hochrisiko-KI, die in Produkten verbaut ist, verschiebt sich der Termin noch weiter nach hinten auf den zweiten August.

00:01:41: Also soll ein kleine und mittelständische Unternehmen entlastet sowie dem KI Büro mehr Kompetenz zugesprochen werden.

00:01:47: Begründet wurde die Vereinfachung mit dem Ziel der digitalen Souveränität der EU.

00:01:52: Der Vorschlag würde größere Rechtssicherheit bieten, Regeln proportionaler gestalten und deren Implementierung in den Mitgliedstaaten harmonisieren.

00:02:01: Mit der Ratsposition ist der Prozess aber noch nicht abgeschlossen.

00:02:05: Als Nächstes beginnen die Verhandlungen mit dem Europäischen Parlament.

00:02:08: Danke

00:02:08: schön, Kim!

00:02:10: Google hat die Integration seines KI-Modells Gemini in den eigenen Kartendienst angekündigt.

00:02:16: Künftig wird Gemini komplexe Suchanfragen in Google Maps wie bei einer normalen Unterhaltung beantworten können.

00:02:23: Dabei wird der Chatwort nicht nur Orte sondern auch lokale Merkmale berücksichtigen, die er aus Berichten von Maps nutzen lernt etwa beliebte Restaurants.

00:02:32: Gleichzeitig nutzt Google Gemini auch für die Erweiterung der Navigationsfunktionen von Maps, das KI-Modell erstellt eine aktuelle drei D Ansicht für die sogenannte immersive Navigation zur besseren Veranschaulichung der Route – da soll den Nutzerinnen und Nutzern helfen sich besser zurechtzufinden!

00:02:51: Wer dem KI Chatbot Claude komplexe Fragen stellte bekam bislang manchmal Antworten zurück, die mit einer Grafik einfacher zu verstehen gewesen wären.

00:03:01: Mit einer neuen Funktion liefert Anthropic jetzt für alle Nutzern und Nutzer die Möglichkeit, dass an Stelle von Text interaktive Diagramme, Charts oder Visualisierungen angezeigt werden.

00:03:12: Ein Beispiel dafür ist ein Zeitstrahl der historische Ereignisse strukturiert-und aufklappbar aufbereitet.

00:03:19: Die Grafiken sind direkt in den Chat eingebettet und nicht wie bei den Artifacts in einer separaten Anzeige zu finden.

00:03:26: Anthropic betont, dass sie nur temporär sind.

00:03:28: Sie verändern sich also oder verschwinden im Gesprächsverlauf wieder.

00:03:32: Die Funktion wurde bereits letzten Herbst als Imagine with Claude angekündigt und ist jetzt in die öffentliche Beta-Phase übergegangen.

00:03:40: Artifacts sind in Claude bereits länger etabliert.

00:03:43: Dabei handelt es sich um vom Chatbot erstellte Dokumenter Anwendungen oder Tools, die dauerhaft an einem separaten Seitenpanel angezeigt werden und sich herunterladen oder teilen lassen.

00:03:55: Überschwemmungen gehören zu den tödlichsten Naturkatastrophen weltweit und sind extrem schwer vorherzusagen.

00:04:02: Google will das ändern, mit einem KI-Projekt namens GroundSource.

00:04:07: Doch das Training ist eine Herausforderung – und Google nutzt daher einen neuen Ansatz, berichtet Malte Kirchner aus dem heise online Newsroom.

00:04:15: Statt auf klassische Wetterdaten zu setzen hat Google die KI mit Nachrichtenartikeln trainiert.

00:04:20: Diese liegen in über achtzig Sprachen vor, kommen aus aller Welt, wurden automatisch gesammelt, übersetzt und dann mit dem hauseigenen Sprachmodell Gemini ausgewertet.

00:04:28: Die KI muss dabei unterscheiden zwischen Artikeln über politische Debatten oder Warnungen und solchen, die tatsächliche Fluteereignisse beschreiben.

00:04:36: Das Ergebnis?

00:04:37: Ein Datensatz mit zwei Komma sechs Millionen historischen Überflutungen aus mehr als einhundertfünfzig Ländern, der jetzt als Open Access-Datensatz frei zugänglich ist.

00:04:47: Der große Aufwand war nötig weil die Datenlage bei Fluteeignissen bislang deutlich chaotischer war als etwa bei Wetterdaten.

00:04:55: Bestehende Datenbanken erfassten vor allem große lang anhaltende Katastrophen kleinere lokale Ereignisse, die fielen durchs Raster und genau die braucht man um einen KI Modell wirklich zu trainieren.

00:05:06: Wie gut funktioniert das Ergebnis?

00:05:08: Laut Google können Überflutungen mit diesem System bis zu vierundzwanzig Stunden im Voraus vorhergesagt werden.

00:05:14: Die Vorhersagen laufen über Googles Fluthab, eine Plattform die Risikorenweise für Gebiete in über einhundertfünfzig Ländern liefert und ihre Daten auch direkt mit Katastrophenschutzbehörden teilt.

00:05:24: Noch ist das System nicht perfekt – die räumliche Auflösung ist noch grob und lokale Niederschlagsradar-Daten werden noch nicht eingebunden.

00:05:32: Aber gerade für Regionen ohne ausgebaute Infrastruktur ist selbst ein ungenaues Frühwarnsystem besser als gar keines.

00:05:39: Und Google denkt schon weiter, perspektivisch soll dieselbe Technologie auch bei der Vorhersage von Erdrutschen und Hitzewellen zum Einsatz

00:05:46: kommen.".

00:05:46: Vielen Dank, Malte!

00:05:49: Das Rüstungs-Startup Anduin muss sich auf absehbare Zeit keine Sorgen um seine Zukunft machen.

00:05:54: In dieser Woche vergab das US-Verteidigungsministerium, anders von Oculus Erfinder Parmalaki gegründete Unternehmen einen neuen Rahmenvertrag.

00:06:02: Dieser läuft fünf Jahre und kann danach um weitere fünf Jahre verlängert werden – das Gesamtvolumen beträgt zwanzig Milliarden USD.

00:06:11: Darin sind Hard- und Software sowie Servicedienstleistungen für die U.S.

00:06:15: Army enthalten.

00:06:17: Als einzig konkretes Produkt nennt das Pentagon nur das KI-System LATIS.

00:06:21: Das ist Andorids KI-Plattform, mit der sich verschiedene Datenquellen verknüpfen lassen – auch die Informationen aus Sensoren von autonomen Drohnen!

00:06:30: LATASOS kann Berichten zufolge unter anderem drei D-Modelle eines Kampfgebiets darstellen.

00:06:35: Das Schlachtfeld wird damit zunehmend vom Software bestimmt so ein Sprecher des Pentagons.

00:06:41: Andoril unterscheidet sich allerdings von den anderen Pentagon-Partnern wie OpenAI und Palantir, weil es eben nicht nur Software sondern auch Hardware herstellt.

00:06:51: Dazu gehören Luft- und sehgestützte Drohen sowie Augmented Reality-Systeme für Soldaten.

00:06:58: In Video folgt dem Hype um den KI-Agenten OpenClaw und entwickelt eine Plattform namens NemoClaw – speziell für Unternehmen!

00:07:06: Das berichtet Wyatt.

00:07:08: Die Plattform soll es Unternehmen ermöglichen, KIA-Agenten einzusetzen die Aufgaben für eigene Belegschaft übernehmen.

00:07:14: Thomas Love Besmalinovic hat die Einzelheiten

00:07:17: Bei Nehmung klar.

00:07:18: soll es sich um ein Open Source Projekt handeln?

00:07:21: somit wird der Kurd nicht nur Unternehmen zur Verfügung stehen.

00:07:24: NVIDIA will Unternehmenspartnern jedoch zusätzliche Werkzeuge für Sicherheit und Datenschutz bereitstellen um zentrale Risiken beim Einsatz autonomer KIA Gäten zu reduzieren.

00:07:35: Den Bericht zufolge sei es wahrscheinlich, dass mögliche Partner die Plattform unabhängig davon nutzen können ob ihre KI-Agenten auf Nvidia Chips laufen.

00:07:45: Das ist eher ungewöhnlich für Nvidia!

00:07:48: Bisher stützte sich das Software Ökosystem des Konzerns stark auf die proprietäre Plattform CUDA, die Entwickler faktisch an Nvidia Hardware bindet und dem Unternehmen einen wichtigen Wettbewerbsvorteil verschafft hat.

00:08:02: NemoClaw könnte ein Schritt in Richtung Eröffnung sein wenn womöglich durch den zunehmenden Erfolg offener KI-Modelle motiviert ist.

00:08:10: Viele Startups und Entwickler nutzen solche frei verfügbaren Modelle, um neue Anwendungen zu testen oder eigene Projekte darauf aufzubauen.

00:08:19: Hinzu kommt das große KI-Anbieter zunehnend eigene Chips entwickeln oder entwickeln lassen, sich langfristig unabhängiger von Nvidia zu machen.

00:08:28: In dieses Bild passt auch Nvidia's Partnerschaft mit dem Startup Grog das sogenannte Infarenzchips entwickelt.

00:08:37: Diese sind weniger für das Training von KI-Modellen gedacht, als dafür bereits trainierte KI im Alltag möglichst schnell und energieeffizient antworten zu

00:08:46: lassen.".

00:08:48: Das Walls Free Journal berichtete kürzlich das NVIDIA auf der Entwicklerkonferenz GTC in dieser Woche einen eigenen Inferenzchip auf Basis eines GROC Designs vorstellen könnte Um möglich gibt es dann auch konkretes Zunehmung-Cloud zu erfahren.

00:09:04: Danke, Thomas Love!

00:09:06: Die Schattenseite von KI wird bei Atlassien deutlich – denn der Softwarehersteller entlässt rund zehn Prozent seiner Belegschaft um mehr Mittel für KI Investitionen zu haben.

00:09:17: Wir tun dies, um weitere Investition in KI und Vertrieb selbst zu finanzieren und gleichzeitig unser Finanzprofil zu stärken, erklärte CEO Mike Cannon Brooks.

00:09:27: Insgesamt verlieren damit rund thousand sixhundert Menschen ihren Arbeitsplatz.

00:09:32: Canon Brooks betontet zwar, dass Atlassien nicht der Philosophie folgt, Menschen durch KI zu ersetzen – zugleich führt er aber auch aus «Es wäre unerfrichtig so zu tun als würde KI nichts an der Zusammensetzung der benötigten Fähigkeiten oder der Anzahl der erforderten Stellen in bestimmten Bereichen ändern».

00:09:51: Das tut sie, so der Atlassianchef!

00:09:55: Der Social Media-Konzern Meta plant Berichten zufolge ebenfalls einen massiven Stellenabbau.

00:10:01: Laut der Nachrichtenagentur Reuters erwägen Führungskräfte bis zu zwanzig Prozent der Belegschaft zu entlassen, bei knapp neunundsebzigtausend Beschäftigten wären das rund sechzehntausend Stellen.

00:10:11: Als Hauptgrund nennen die Berichte die hohen Kosten für KI-Infrastruktur.

00:10:16: Metta-Chef Mark Zuckerberg investiert bis zum Jahr zwanzig insgesamt sechshundert Milliarden Dollar in KI-Technologie.

00:10:23: Gleichzeitig wirbt das Unternehmen teure KI-Forschende an und kauft Startups dazu, zuletzt das chinesische Unternehmen Manis.

00:10:31: Zuckerberg hat im Januar erklärt – Projekte die früher ganze Teams erforderten könnten künftig von Einzelpersonen erledigt werden!

00:10:40: Meta-Sprecher Andy Stone bezeichnete die Berichte als spekulative Berichterstattung über theoretischer Ansätze.

00:10:47: Metta wäre mit diesem Ansatz jedoch nicht allein, auch der E-Commerce-Riese Amazon und das Fintech-Unternehmen Block haben zuletzt Stellen abgebaut – und dabei auf KI bedingte Effizienzgewinne verwiesen!

00:11:00: Aber so ganz rund läuft das mit der KI bei Meta nicht.

00:11:04: Führungskräfte sind offenbar unzufrieden mit der Leistungsfähigkeit des nächsten KI-Modells Weswegen die Technik mit dem Codenamen Avocado zwei Monate später veröffentlicht werden soll, als geplant.

00:11:14: Das berichtet The New York Times unter Berufung auf interne Quellen.

00:11:18: Eigentlich sollte das KI-Modell noch im März erscheinen – jetzt werde eine Freigabe für Mai geplant!

00:11:25: Grund für die Verschiebung ist demnach die unzureichende Performance im Vergleich zur aktuellen KI-Technik von Konkurrenten wie Google OpenAI und Anthropic.

00:11:33: in den Bereichen Reasoning, Coding Intern sei deshalb sogar schon diskutiert worden, temporär die Google-KI Gemini für Metas-KI Produkte zu lizenzieren.

00:11:43: Noch gebe es dazu aber keine Entscheidung!

00:11:46: Bei der Hardware hingegen liegt Meta voll auf Kurs.

00:11:50: Die Facebook-Mutter will mehrere KI Beschleuniger in wenigen Jahren bauen und damit Nvidia und AMD Konkurrenz machen.

00:11:57: Der erste läuft bereits produktiv in Metarechenzentren, berichtet Marc Mantel von Heise Online.

00:12:03: Meta gibt Vollgas bei der Entwicklung eigener KI-Besteuniger.

00:12:06: Vier Modelle in nur zwei Jahren will die Firma zusammen mit dem Design Partner Broadcom in die eigenen Rechenzentren bringen.

00:12:13: Der MTIA-Drehundert ist bereits im Einsatz, der vierhunderte soll beifolgen.

00:12:17: Zwanzig sieben zwanzig stehen dann die beiden Varianten vierhundertfünfzig sowie fünfhundert an.

00:12:21: Nächstes Jahr wird Meta so in bestimmten Aufgaben die KI-Besteuninger von AMD und Nvidia überholen.

00:12:27: Im Fokus steht die Inferenz für generative KI.

00:12:30: Auf den Ships laufen also hauptsächlich fertig trainierte KI-Modelle die Nutzanfragen abarbeiten.

00:12:35: Alle KI-Beschleuniger von Meta sind modular aufgebaut, es gibt Shipplets mit den Rechenwerken, Netzwerkshipplet zur Anbindung ein SOC-Di zur Ansteuerung des gesamten Beschleunigers und hab ihr im Speicherstapel.

00:12:47: Drinnen steckt auch RISK V Technik.

00:12:50: Bei neueren Generationen tauscht meta lediglich die Compute Shipplits mit den rechten Werken aus.

00:12:54: Die Server sind so ausgelegt dass sie alle vier Modelle aufnehmen obwohl deren elektrische Leistungsaufnahme mit jeder Generation steigt.

00:13:01: der MTIA dann bereits bei ´thousand siebenhundert Watt, soll dafür aber dreißig Petaflops im FPV-Datenformat stemmen.

00:13:09: Dazu gesellen sich trauundachtvierundachtzig bis fünfhundertzwölf Gigabyte Speicher.

00:13:13: Bis zu zwanziebzig Beschleuniger laufen in einem Server!

00:13:15: Vielen Dank Marc!

00:13:17: Elon Musk hat ein gemeinsames KI Projekt von Tesla und seinem Startup XAI angekündigt.

00:13:23: Das System trägt den Namen Macro Hardt – und kombiniert XAI´s Sprachmodell GROC mit TeslasKI-Agenten.

00:13:30: Digital Optimus Grog soll als zentraler Navigator fungieren, der das System steuert und ein umfassendes Verständnis der Umgebung gesetzt.

00:13:39: Digital Optimus übernimmt dagegen die direkte Ausführung von Aufgaben da der Agent Bildschirm-Inhalte sowie Maus-und Tastatureingaben in Echtzeit verarbeitet.

00:13:49: Das System läuft auf Teslas AI Full Chip, der auch in der Hardware für das autonome Fahren eingesetzt wird.

00:13:55: Teurere Nvidia-Hardware sollen nur sparsam genutzt werden, wodurch die Lösung vergleichsweise kostengünstig sein soll!

00:14:03: Laut Musk könnte die KI künftig sogar Software-Entwicklungsprozesse große Unternehmen simulieren.

00:14:09: Der Name Macro Heart ist somit auch ein kleiner Seitenhieb auf Microsoft.

00:14:14: Das ursprüngliche Macro-Hart-Projekt von XAI war zuletzt ins Stocken geraten, weil es Umstrukturierungen und Personalabgänge gab.

00:14:22: Teile der Arbeit und Rechenressourcen sollen nun in Teslas Autopilot Team übergehen – während beide Unternehmen ihre KI-Projekte enger verzahnen!

00:14:33: Seedance, zwei Punkt Null ist der neueste KI-Videogenerator von Bydance.

00:14:37: Das Unternehmen hinter der Social Media Plattform TikTok wollte ihn nach dem Start in China eigentlich mit dem März auch in anderen Teilen der Welt zugänglich machen – doch daraus wird vorerst nichts!

00:14:48: Denn diverse hyperrealistische Szenen aus der Software haben im Netz zwar für viel Aufmerksamkeit gesorgt aber auch den Zorn einiger großer Filmstudios und Streaminganbieter auf sich gezogen….

00:15:00: Laut The Information steht darum erst einmal die Lösung gerechtlicher Probleme im Fokus, ebenso die Implementierung von Leitplanken, die künftige Urheberrechtsverletzungen verhindern sollen.

00:15:11: Das funktioniert bislang noch nicht so gut – zahlende Nutzerinnen und Nutzer beklagen sich zunehmend über abgelehnte Prompten, die mit keinerlei urheberrechtlich geschützte Material in Zusammenhang stehen!

00:15:22: Ein neuer Termin für den weltweiten Start von CDERNs-II.n bleibt also unklar.

00:15:28: Perplexity will seine agentische KI-Perplexity-Computer künftig auf den Merk holen, genaue Apples-Einsteiger Desktop Mac Mini.

00:15:38: Wie das genau aussehen soll, erklärt Ben Schwahn!

00:15:41: von der Mac an Eye.

00:15:42: Der sogenannte Perplexity Personal Computer soll das System zur zentralen KI-Anlaufstelle für die Nutzer machen und den Rechner weitgehend steuern.

00:15:51: Der Ansatz ähnelt dem quäl offenen KI-Agenten OpenClaw, wobei Perplexit den Usern ohne Nachinstallation bis zu einundzwanzig verschiedene Modelle offerieren will.

00:16:01: In einem Demo-Video zeigte die KI-Firma, wie Personalcomputer eigenständig Recherchen im Web durchführte, Termine koordinierte und Präsentationen zusammenstellte.

00:16:11: Der Spaß hat allerdings seinen Preis!

00:16:13: Neben ein Mac Mini den man zu diesem Track abstellen muss, werden auch noch die Kosten für einen Max-Abo von Perplexity fällig – das kostet US-USD oder rund Euro.

00:16:24: Momentan ist unklar, wie viel Perplexity Personalcomputer wirklich kann.

00:16:29: Ausprobieren dürfen es nämlich nur interne Tester.

00:16:32: Wer sich dafür interessiert, kann sich auf der Perplexitiesite aber in eine Warteliste eintragen.

00:16:37: OpenClaw gehört mittlerweile indirekt OpenAI, denn dessen Macher Peter Steinberger hat sich von Sam Altman anstellen lassen.

00:16:45: Dankeschön Ben!

00:16:47: Nach massiver Kritik hat Grammarly eine KI-Funktion seiner Grammatikprüfung vorerst abgeschaltet.

00:16:54: Die Funktion Expert Revision überarbeitete Texte angeblich aus der Perspektive bekannter Autorinnen und Autoren – und schlug entsprechende Formulierungen vor.

00:17:03: Dabei nutzte die KI auch die Namen echter Menschen, viele der Betroffenen gaben aber an vorher nicht um Erlaubnis gefragt worden zu sein und erst zufällig von der Nutzung ihren Namen erfahren zu haben.

00:17:15: Grammarly erklärte nun «die Funktion werde überarbeitet», damit die Urheber künftig selbst entscheiden können ob und wie ihre Namen verwendet werden.

00:17:24: Die Kritik führte bereits zu rechtlichen Schritten – in den USA wurde eine Sammelklage eingereicht, in der Journalistinnen und Journalisten dem Unternehmen vorwerfen, ihre Identität ohne Zustimmung für kommerzielle Zwecke genutzt zu haben.

00:17:39: Ein australischer KI-Berater hat mithilfe mehrerer KI Werkzeuge einen experimentellen Behandlungsansatz für seine krebskranke Hündin entwickelt.

00:17:49: Paul Cunningham nutzte ChatGPT, Google's Protein-Faltungski Alpha Fold und den Assistenten Grog um mögliche Therapien gegen den unheilbaren Mastzellenkrebs seiner Hündin Rosie zu finden.

00:18:02: Auf Empfehlung von ChatGPP ließ er das Erbgut des Tumors und gesunde DNA an der Universität in Sydney sequenzieren – was rund dreitausende US-Dollar kostete!

00:18:14: Die KI identifizierte ein Protein als möglichen Angriffspunkt sowie einen bereits in den USA zugelassenen Wirkstoff.

00:18:22: Das Design eines mRNA-Impfstoffs entwickelte Konningham nach eigenen Angaben dann mit GROC.

00:18:28: Laut Schätzungen von Experten könnten die Gesamtkosten zwischen US- und US-Dollar gelegt haben.

00:18:36: Seit der Behandlung sei Rosies Tumor um etwa seventy fünf Prozent geschrumpft – eine Heilung gibt es jedoch nicht!

00:18:43: Die Geschichte verbreitet sich derzeit viral in sozialen Netzwerken.

00:18:47: Fachleute waren allerdings vor überzogenen Erwartungen, der Nachweis von Sicherheit und Wirksamkeit – erfordere kontrollierte Studien!

00:18:57: Zudem erhielt der Hund parallel eine herkömmliche Immuntherapie so dass der tatsächliche Anteil der kaibasierten Behandlung unklar bleibt.

00:19:07: Wenn ihr gerne noch tiefer in unsere Themen einsteigen wollt und gleichzeitig diesen Podcast unterstützen wollt, dann könnt ihr das mit einem Heise Plus-Abo tun.

00:19:17: Damit bleibt Ihr in IT und Technik immer einen Schritt voraus!

00:19:20: Meine Kollegen haben zum Beispiel analysiert wie sich KIs im Vergleich zu spezialisierten Suchmaschinen bei der Suche nach günstigen Flugtickets schlagen oder sie erklären, wie man mit KI Videos erstellt die komplexe Inhalte effizient vermitteln können.

00:19:35: Sichert euch jetzt zwölf Wochen Heise plus mit fünfzig Prozent Rabatt unter heiseplus.de.

00:19:45: Das war das KI-Update von heiseonline vom sechzehnten März.

00:19:50: Ein neuer Folge gibt es immer montags, mittwochs und freitags um fünfzehn Uhr!

Kommentare (1)

Ralf

Immer wieder interessant zu hören. Nur das manche Beiträge sehr nach KI Stimme klingen. Das geht natürlicher ..

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.