KI-Update Deep-Dive: Smarte Brillen statt KI-Gadgets
Shownotes
Meta-Chef Mark Zuckerberg sagt zur Zeit immer, überall und vor allem am lautesten, Brillen seien die nächste Geräte-Kategorie. Vielleicht hat er damit auch tatsächlich recht. Zumindest gibt es KI-Geräte wie zum Beispiel den AI-Pin oder den Rabbit, die offenbar nicht funktioniert haben. Die Brillen funktionieren aber anscheinend schon. Es gibt bereits viele Menschen, die sie kaufen und im Alltag tragen. Nico Juran von der c’t hat sich schon sehr viele smarte Brillen angeschaut, nicht nur die von Meta. Auch meine Kollegin Eva-Maria Weiß von heise online konnte schon die ein oder andere KI-Brille testen. Für unseren DeepDive heute haben sie miteinander über ihre Erfahrungen gesprochen.
Links zu allen Themen der heutigen Folge findet Ihr im Begleitartikel auf heise online: https://heise.de/-10794095
Artikel zur Podcastfolge: https://heise.de/-10.. https://www.heise.de/thema/KI-Update https://pro.heise.de/ki/ https://www.heise.de/newsletter/anmeldung.html?id=ki-update https://www.heise.de/thema/Kuenstliche-Intelligenz https://the-decoder.de/ https://www.heiseplus.de/podcast https://www.ct.de/ki
Transkript anzeigen
00:00:02: Das KI-Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.
00:00:14: Hallo, ich bin Isabel Grünewald und dies ist unser Deep Dive zum Wochenende.
00:00:20: Matterchef Marc Zuckerberg sagt zurzeit immer
00:00:23: und
00:00:23: überall und vor allem am lautesten, bringen sein die nächste Gerätekategorie.
00:00:28: Vielleicht hat er damit auch tatsächlich recht.
00:00:31: Zumindest gibt es KI-Geräte, wie z.B.
00:00:33: den AI-Pin oder den Rabbit, die offenbar nicht funktioniert haben.
00:00:38: Die Brillen funktionieren aber anscheinend schon.
00:00:41: Es gibt bereits viele Menschen, die sie kaufen und im Alltag tragen.
00:00:45: Nico Juran von der CT hat sich schon sehr viele smarte Brillen angeschaut,
00:00:49: nicht
00:00:50: nur die von Metta.
00:00:51: Auch meine Kollegin Eva Maria Weiß von Heise Online konnte schon die ein oder andere Kaibrile testen.
00:00:57: Für uns an Deep Dive heute haben sie miteinander über ihre Erfahrungen
00:01:00: gesprochen.
00:01:04: Nico, ich mag aber einmal kurz als erstes einen Ausflug machen in die Vergangenheit.
00:01:08: Es gab ja vor vielen Jahren schon mal einen Ausflug zu einer Brille.
00:01:13: Magst du uns da vielleicht von erzählen, du hast das bestimmt damals auch mitbekommen.
00:01:17: und überhaupt schön, dass du da bist.
00:01:19: Danke schön hier zu sein.
00:01:21: Die Google Glass, ja damals tatsächlich die Nerdbrille, die plötzlich überall durch die Welt geistert ist.
00:01:28: Ich weiß noch, wie schwierig das war, die überhaupt zu bekommen, weil die Nachfrage da tatsächlich war.
00:01:34: endlich irgendwann eine hatten und es war alles ganz spektakulär.
00:01:37: Aber man muss dazu sagen, genau das ist der Riesenunterschied bei den neuen drin.
00:01:41: Also wenn man das, wenn man die damals aufgesetzt hat und ich hatte die dann immer mal, ich weiß noch auf der IFA dann, ich durfte immer so diesen Demonstrierern zusammen mit Kenu, Jan Kenu Janssen.
00:01:51: Das war immer eine nördige Geschichte.
00:01:53: Also man hatte nie das Gefühl, man hat richtig eine Brille.
00:01:55: Es war immer irgendwie ein Teil, das irgendwie aussah, genauso wie man sich das aus irgendeinem Science-Fiction-Film vorstellt oder so, so ein Teil, das eigentlich mehr so ein Klotz vorm Auge war, wo man da so ein bisschen hingeschielt hat.
00:02:07: Ich fand auch persönlich die, und das geht, glaube ich, gegen auch den meisten so, die Funktion, die die geboten hat, sehr beschränkt.
00:02:14: Also ja, klar.
00:02:14: Es war dann immer die Diskussion, war natürlich die Aufnahmenmöglichkeiten, dass man da gesagt hat, okay, da kannst du heimlich Aufnahmen machen.
00:02:21: Also hier Fotovideo ist ja immer ein Thema bei solchen Sachen.
00:02:24: Aber ganz gut finde ich, dass viele sagen, dass es ein häufiger Kommentar ist.
00:02:29: Die war nicht nur deswegen kein Erfolg, weil es eben eine Brille war, sondern sie war vor allen Dingen, sie war hässlich und sie konnte nicht viel so.
00:02:36: Und das ist eben genau der, wo die neuen Brillen komplett anders einen anderen Ansatz haben.
00:02:43: Und zwar eben halt als normale Brille zu funktionieren.
00:02:46: Also wirklich sozusagen, okay, das stört nicht.
00:02:49: Das sieht nicht schlimm aus, wenn man die trägt.
00:02:50: Das sieht erst mal aus wie eine ganz normale Brille.
00:02:53: Und dann vor allen Dingen auch so einen Funktionsumfang zu haben, wo viele Leute sagen, da kann ich was mit anfangen.
00:02:59: Also das ist wirklich was, wo ich sage, das kann ich im tagtäglichen Leben benutzen, das ist jetzt nichts Nördiges.
00:03:04: Also es ist nichts Nördiges oder nichts besonders Nördiges, wenn jetzt zum Beispiel meine Brille sagt hier, du hast gerade irgendwie eine Nachricht gekriegt auf dem Handy von dem und dem oder wenn ich da drüber mal telefoniere, Musik höre, das sind alles Sachen, die kennt man in anderen Varianten so schon.
00:03:20: Wir hatten ja gerade schon damals großes Thema, große Aufwege, ja auch dieses Video-Aufnahmen und Fotos machen können und die anderen bekommen das nicht mit durch so eine Brille.
00:03:30: Eigentlich kennen wir das ja jetzt alle, die Leute laufen überall mit ihrem Smartphone in der Hand rum und machen vielleicht auch Videos.
00:03:35: und ich habe damals das Gefühl, es ist so ein bisschen wie bei Google Maps früher, so haben sich auch am Anfang alle aufgeregt und ihr Haus verpixeln lassen und inzwischen interessiert es irgendwie.
00:03:44: Kaum noch jemanden.
00:03:45: Kann man das vergleichen?
00:03:47: Ja, es gibt definitiven Schiff.
00:03:48: Also ich glaube, dass wir wirklich bei der jüngeren Generation wirklich eine wesentlich geringere Hemmung haben und erkennen, das Handy rauszuholen und bei jeder Gelegenheit draufzuhalten.
00:04:00: Also auch das ist wieder so eine Diskussion, die ich ganz häufig habe, dass Leute sagen, da könnten mich irgendwelche Leute unauffällig oder was aufnähen.
00:04:09: Ja, das stimmt.
00:04:09: Und das sollte man auch überhaupt nicht irgendwie runterspielen.
00:04:12: Das ist auch tatsächlich so.
00:04:13: Kann man noch mal vielleicht drauf kommen, was jetzt zum Beispiel Meter und Konsorten dann dagegen machen, beziehungsweise wie die darauf reagieren.
00:04:19: Aber generell habe ich letztens erlebt, da habe ich im Restaurant gesessen und um mich herum haben drei andere Leute irgendwann Handys gezückt und haben sich aufgenommen, haben ihre Freunde aufgenommen.
00:04:27: Ich habe gedacht, jetzt wirst du hier von denen alle mit aufgenommen.
00:04:30: Das ist genau so.
00:04:31: Also das siehst du ja auch in Urlaubsgebieten.
00:04:33: Es wird ja oder auch Konzerte.
00:04:35: Also du siehst Leute, die auf Konzerten gehen und neunzig Prozent der Leute hängen mehr vor.
00:04:40: Die gucken eigentlich das Konzert.
00:04:42: auf dem Handy anscht, obwohl sie vor Ort sind.
00:04:45: Da muss ich ja sagen, da hätte ich ja lieber dann die Brille, die das ganze Konzert für mich mitschneidet, weil das kriege ich ja gar nicht mit.
00:04:51: Und trotzdem kann ich halt den Künstler genießen.
00:04:52: Das finde ich sogar viel wesentlich besser, als wenn ich mir selber im Handy vor das Gesicht halte.
00:04:58: Aber wie gesagt, da kannst du noch klatschen, da kannst du noch alles sehen.
00:05:02: Ja, das ist tatsächlich so.
00:05:03: Aber natürlich ist es so, dass man das nicht unterschätzen sollte.
00:05:06: Und das ist ja auch zum Beispiel, das kann ich vielleicht mal kurz erzählen.
00:05:10: Beim Meter ist es halt tatsächlich so.
00:05:11: Bei allen anderen, die ich bis jetzt getestet habe, ist es so, dass Jedes mal, wenn man eben halt so eine Aufnahme macht, entweder Video oder Foto, dass dann die LED, so eine Status LED praktisch die vorne angebracht ist, an der Brille dann blinkt oder eben dauerhaft leuchtet, um anzuzeigen, dass da gerade eine Aufnahme gemacht wird.
00:05:30: Ob das reicht, darüber kann man immer diskutieren, vor allem bei Strahlen in Sonnenschein.
00:05:35: Wir haben das ausprobiert.
00:05:36: Ich habe zu Kollegen gesagt, ich nehme dich gleich mal irgendwann auf.
00:05:39: Guck mal, ob du das mitbekommst.
00:05:40: Und viele haben gesagt, nee, habe ich nicht mitbekommen.
00:05:42: Also kann man immer darüber diskutieren.
00:05:44: ist es zum Beispiel so, wenn man versucht die abzudecken, also wenn man sagt dann dann klebe ich die ab oder dann mal ich die an oder was was ich fass, dann sagt die Metabrile hier ist irgendwas manipuliert, das mache ich nicht mehr, ich möchte keine Aufnahme mehr machen, macht das bitte weg.
00:05:57: Also, sie sind schon echt bemüht, ne?
00:05:59: Müssen sie, ne?
00:06:00: Weil wir haben natürlich auch rechtliche Grundlagen auch gerade in Deutschland, wo es heißt, hier, das geht nicht.
00:06:05: Du kannst nicht, Leute, einfach jetzt, wenn es nicht jetzt, sag ich mal, schmücken das bei Werk auf irgendeiner öffentlichen Straße ist oder sowas ist, kannst aber nicht in privaten Bereichen irgendwelche Aufzeichnungen machen.
00:06:14: Audioaufzeichnungen gehören ja ja auch zu, ne?
00:06:16: Das muss man ja auch sozusagen.
00:06:18: Ich habe neulich meine Meta Ray-Ban-Meta-Brille auf der Straße getragen in London und habe tatsächlich sie mal genutzt mit so einer Navigation und mal gucken, was so um mich rum ist.
00:06:29: Und ich muss sagen, mir ist es schon noch echt unangenehm mit so einer Brille zu sprechen auf der Straße.
00:06:35: Da stehen Leute um mich herum und ich finde es peinlich.
00:06:38: Aber... Es gibt auf jeden Fall ja Leute, die das viel, viel mehr schon machen und wirklich, die da gar keine Berührungsängste mehr haben.
00:06:46: Meinst du, es ist noch so ein Adopterstatus, das da einfach auch immer noch, die Google-Brillen sind vielleicht wirklich Nerds gewesen, aber dass wir jetzt auch noch so ein bisschen Vorreiter haben und die große Masse kommt da vielleicht erst langsam hinterher.
00:06:59: Und was muss da noch passieren, dass mir vielleicht nicht mehr peinlich ist?
00:07:04: Gut, das ist natürlich immer eine individuelle Geschichte.
00:07:07: Vielen Leuten wird es nicht peinlich sein, aber ich glaube, wir müssen auch darüber, man muss auch darüber diskutieren, ob dann vieles nachher so von der Steuerung bleibt, wie es heute ist.
00:07:16: Also wir reden natürlich immer noch darüber, dass das Geräte der ersten, maximal zweiten Generation jetzt ist.
00:07:22: Wir sehen ja jetzt beim Meter, dass es da durchaus Ansätze gibt zu sagen, wir machen die Sprachsteuerung da nicht unbedingt als primäre Steuerung, nutzen wir nicht unbedingt als primäre Steuerung, sondern da wird dann vielleicht ein Armband benutzt oder irgendein andere System benutzt, wo man dann mit irgendwelchen Fingergesten, mit irgendwelchen Handgesten das steuern kann.
00:07:40: Das wäre ja auch eine Möglichkeit.
00:07:41: und auch hier die Ray-Bands haben ja jetzt auch Touch genauso und irgendwelche Knöpfe und das Problem ist immer eben bloß auch Touch und irgendwelche anderen Bedienelemente musst du in so ein Rahmen dann unterbringen.
00:07:54: Das ist nicht besonders leicht, wo du auch noch Elektronik und Akku runterbringen willst.
00:07:58: Und die zweite Geschichte natürlich ist, also ich finde das ziemlich problematisch, teilweise mit Touch, das habe ich auch schon gesagt, da haben wir auch schon mal darüber gesprochen vorab, dass ich ja immer dazu neige, meine Brille dann auf beiden Seiten, also auf beiden an beiden Bügel nach hinten zu schieben und nicht wie du hast und erzählt, du machst das immer aus der Nase.
00:08:14: Genau, in der Mitte und ich komme also häufiger bei der Meta dann auf dieses Touchpad und das nervt einfach.
00:08:20: Ich glaube aber tatsächlich, dass es nicht so auffällig ist, wie man glaubt.
00:08:24: Also diese Meter meiner Erfahrung sind die Mikrofone echt nicht schlecht und auch draußen.
00:08:30: Man muss das Ding nicht anbrüllen.
00:08:31: Also wenn man kann wirklich relativ leise damit sprechen und ich finde, dass es wenig Leute mitbekommen.
00:08:39: Also das ist ja klar.
00:08:40: Also wir können darüber diskutieren immer solche Geschichten, aber das ist... Generell ist es im Rahmen, glaube ich.
00:08:47: Gewöhnungssache doch.
00:08:48: Auf jeden Fall.
00:08:49: Lass uns ganz kurz vielleicht einmal alle abholen, es gibt, was es so überhaupt für Brillenkategorien gibt.
00:08:55: Also wir haben die Meta Ray-Ban, über die wir jetzt schon gesprochen haben.
00:08:58: Da gibt es diese erste und zweite Generation oder auch die Oakley Vanguard für Sportler nochmal, wo im Grunde Video, Foto und halt Sprachmodelle, also ein Chatbot drinstecken, mit dem ich reden kann.
00:09:12: Genau.
00:09:13: Dann gibt es die künftige Generation mit dem Display sogar von Matter, die Ray-Ban und dem Armband, wo drüber ich steuern kann.
00:09:21: Genau.
00:09:22: Das ist eine Projektionstechnologie, das muss man vielleicht sagen, aber Display ist immer super schwierig.
00:09:26: Wir haben auch immer extreme Schwierigkeiten, das zu beschreiben.
00:09:30: Aber das ist halt eine Projektionstechnik, wobei man auch sagen muss, es wird halt nicht projiziert ins Auge oder so.
00:09:36: Das wäre auch nicht so schön für die meisten Menschen, sondern es wird auf das Brillenglas von innen projiziert.
00:09:42: Das ist mit Mini-LED oder Mikro-LED-Projektoren, das ist schon eine erstaunliche Technik, hat aber eben halt Vor- und Nachteile.
00:09:50: unter anderem muss.
00:09:51: dann eben halt auch das Glas entsprechend vorbereitet sein.
00:09:54: Das heißt, da ist so wie so eine Art Fenster, da will ich nicht sein.
00:09:57: Das ist eine Mini Projektionsfläche drin.
00:09:59: Wenn man genau guckt, kann man die auch sehen.
00:10:01: Ansonsten ist es halt ein transparentes Glas weiterhin.
00:10:03: Aber Durch diesen Effekt, dass man das hat, hast du halt die Möglichkeit, da was drauf zu projizieren und das schwebt dann praktisch vor deinem Auge.
00:10:12: Bei der Meta-Display, die du angesprochen hast, es ist spannenderweise nur auf dem rechten Auge, wenn ich mich richtig erinnere.
00:10:18: Ich habe ja noch die Rocket getestet, die ja nächsten Monat kommt.
00:10:21: Da ist es tatsächlich auf beiden.
00:10:23: Also das heißt, es schwebt in der Mitte dann für den Nutzer.
00:10:27: Da ist aber der Unterschied bei der Meta.
00:10:30: Zum Beispiel ist es... Mehreren Farben, in vielen Farben möglich.
00:10:33: TCL hat ja auch so ein System gezeigt auf der IFA als Prototyp.
00:10:37: Da ist es auch die Rokit oder auch die Event Realities, die es schon gibt auf dem deutschen Markt.
00:10:43: Da ist es komplett alles nur immer in grün.
00:10:46: Das macht also auch einen Unterschied.
00:10:48: Dann gäbe es im kommenden Jahr zumindest bisher als Entwicklerversion nur die Specs von Snap.
00:10:54: Tatsächlich ja, die eine echte Augmented Reality Brille sind.
00:10:58: Aber wie gesagt, er ist zum kommenden Jahr so richtig, wobei ich die schon mal ausprobiert habe.
00:11:02: Es ist schon auch ganz lustig, so eine Augmented Reality Brille, die aber dafür echt schwer ist.
00:11:09: Und meine Ohren haben nach einer halben Stunde wirklich aufgegeben.
00:11:11: Also mir ist mein Ohr einfach abgeklappt irgendwann.
00:11:14: Da bin ich gespannt, wie die nächste Version dann davon ist, ob das Ohr vielleicht ein besser aushält.
00:11:20: Wollen wir aber nochmal kurz eine Abgrenzung vielleicht machen zu sowas wie der Apple Vision Pro?
00:11:24: Magst du da nochmal erklären, ob
00:11:26: das ganz
00:11:26: anders funktionieren?
00:11:28: Genau, was ganz wichtig war, als ich mich damit angefangen habe zu beschäftigen war, dass es Brillen sein sollen, die sozusagen in dem Moment, wenn ich die Elektronik ausschalte, wenn Akku alle ist, was auch immer ganz normal weiter als Brillen funktionieren.
00:11:40: Also wirklich, ich gehe raus, kann damit, ich habe das als Seehilfe, als Sonnenbrille, was auch immer.
00:11:45: Das soll keine Mixed Reality oder irgendwie andere Brille sein, wo man sich eigentlich irgendwie hinsetzt zu Hause und wo man vielleicht ein bisschen durchgucken kann mit irgendeinem mit irgendeinem Trick, hätte ich mal gesagt, mit irgendeiner Lösung, sondern wirklich eine Brille, die auch wie eine Brille arbeitet, so leicht ist, so gut aussieht hoffentlich, wie eine normale Brille.
00:12:08: Und eben auch nicht diese typischen Videobrille, also die haben wir da auch nicht zugezählt.
00:12:11: Das wäre ja diese, wo du sagst, okay, ich komme jetzt so eine, die hat Roket jetzt zum Beispiel auch, die jetzt diese Smart Glasses machen haben, haben vorher diese Videobrille-Male gemacht, wo du jetzt einfach im Fieger oder einen Zug, der dann Film angucken kannst.
00:12:23: Aber das wäre eben halt auch keine Brille, mit der du auf die Straße gehst.
00:12:29: Ich glaube ja, dass KI tatsächlich diese Brillen erst so richtig ermöglicht hat.
00:12:36: Siehst du das ähnlich oder glaubst du, dass es auch so eine Alexa-Brille hätte geben können früher?
00:12:42: Nein, nein, es gibt eine Echo Frame in den USA.
00:12:44: Gibt es die?
00:12:45: Die ist aber auch nicht wirklich, also nach meinem Erfahrungsstand hat die gar keinen großen Einfluss auf den US-Mark gehabt.
00:12:50: Also das war so ein bisschen so, klar, ich kann jetzt meine Sprachassistenten, meine bekannte ansprechen.
00:12:55: Nee, diese wirklich, diese generative KI ist wirklich der Game Changer meiner Meinung nach auch, weil es die einfach ermöglicht.
00:13:03: eben halt über die normale Sprachsteuerung hier von wegen mach mal ein Foto und so das geht dann natürlich auch.
00:13:08: Das ist aber auch das, was ich vielleicht auch mit Alexa oder Siri hinbekommen hätte.
00:13:12: Aber hier geht es weiter dann mit irgendwie besseren, komplexeren Diktierfunktionen, mit Objekterkennungen, vor allen Dingen auch mit Übersetzungsfunktionen.
00:13:23: Also Diktierfunktionen, nehmen wir mal diese Projektionsbrille, wäre jetzt zum Beispiel, du kannst eine Teleprompterfunktion, kannst du da aufrufen, das heißt, du lädst da vorher ein Text rein, dann kannst du es anzeigen lassen, wenn du einen Vortrag hältst.
00:13:35: Und diese generative KI merkt halt die ganze Zeit, was du davor liest.
00:13:40: Also erkennt, dass du sprichst und merkt, an welcher Stelle du bist.
00:13:43: Und die scrollt dann den Text weiter, was natürlich total super ist.
00:13:46: Das heißt, du musst nicht irgendwie was bedienen, sondern der geht einfach automatisch weiter.
00:13:51: Und das Schöne dabei ist, du kannst auch dein Skript verlassen, kannst auch komplett was anderes reden.
00:13:55: Und dem Moment, wo du wieder zurückkehrst, merkt die das und fängt dann eben an, da wieder ein Leiter zu scrollen.
00:13:59: Und das sind einfach Sachen, da brauchst du eine vernünftige KI für.
00:14:02: Da reicht es nicht, dass du sagst, ich neb da irgendwie mit dem ich Lampen ein und ausschalten kann zum Beispiel zu Hause.
00:14:09: Echtzeitübersetzung hast du gerade genannt, das können die auch alle eigentlich, oder?
00:14:14: Genau, man muss natürlich immer ein bisschen aufpassen.
00:14:17: Also im Moment sind wir in der Phase, wo diese Brillen eigentlich nicht wirklich autark arbeiten.
00:14:22: Also du kannst vielleicht so eine Meter mitnehmen und ohne Handy vielleicht so was sagen, wie hier machen wir auf, wir machen ein Foto, da macht die das noch.
00:14:29: Aber alles, was da drüber hinausgeht, ist üblicherweise so, dass du eine Begleitapp auf einem verbundenen Handy hast und viel von der Intelligenz sozusagen ist auf dem Handy.
00:14:42: Das ist einfach ganz klar darüber geregelt.
00:14:43: Das ist Cloud Services und, und, und.
00:14:46: Was wir ab und zu sehen, das gibt es bei einigen Modellen, das ist bei der Meta auch so, dass man für bestimmte Sprachkombinationen, was was sich Englisch, Spanisch beispielsweise, Eine offline Modus wählen kann, da wird dann so ein Sprachpaket auf die Brille geladen und dann funktioniert die auch offline.
00:15:01: Da muss man aber immer ein bisschen aufpassen, wie gut das funktioniert, also im Vergleich zu der Online-Variante, weil es geht ja darum, nicht nur Sätze Wort für Wort zu übersetzen, sondern eben sinngemäß.
00:15:10: Und die zweite Geschichte ist, was ganz wichtig ist, wenn ich als Deutscher die Meter kaufe, dann kriege ich das nicht mit Deutsch als Zielsprache oder Ausgangssprache.
00:15:18: Also das heißt, Meter hat zwar offiziell jetzt gesagt, hey, wir machen nicht mehr so diese KI-Beschränkungen für Europa.
00:15:25: Das war ja eine lange Diskussion mit dem ganzen Datenschutz und allem.
00:15:28: Aber was sie jetzt weiterhin machen, ist, dass sie außerhalb der englischen Sprache, egal jetzt muss jetzt nicht deutsch sein, sondern es alle möglich in anderen Sprachen, üblicherweise sehr stark beschränken die KI-Funktion.
00:15:39: Also wenn du nicht Englisch sprichst, sind nicht alle Funktionen auf der Brille verfügbar.
00:15:47: Wie ist denn deine... Oder was ist deine Lieblingsfunktion?
00:15:52: Also bei mir ist das tatsächlich die Navigation, die ich einfach so unfassbar gut finde, obwohl man dazu sagen muss.
00:15:59: Das können die Brillen ja nicht unbedingt wirklich selber.
00:16:01: Also Meta AI kann einen gar nicht navigieren.
00:16:04: Ich muss dann eine Kombi machen.
00:16:06: Ich muss Google Maps benutzen und mir das quasi vorlesen lassen über die Brille.
00:16:11: finde das aber schon, also die Vorstellung davon, dass man sich irgendwann so durch eine Stadt navigieren lassen kann.
00:16:17: Und dann guckt man nach rechts und fragt so, was ist denn das für ein Gebäude?
00:16:22: Und dann kriegt man eine Antwort, da fühle ich mega gut.
00:16:25: Wie ist das bei dir?
00:16:27: Also bei mir ist es tatsächlich so, ich mag sehr gerne diese ganze Kommunikationsgeschichte, die die Meta hinbekommt.
00:16:33: Also die Sache mit irgendjemanden Sprüchen.
00:16:35: schickt mir irgendeine Nachricht und ja, ließ das vor und ich kann da drauf sofort antworten oder ich kann mit dem telefonieren, ohne dass ich die Hände irgendwie benutzen muss, mein Handy rauskramen muss.
00:16:45: Das hat sich tatsächlich bei mir schon mehrfach bewährt, weil ich auf irgendwelchen Veranstaltungen war und plötzlich mir jemand, ein Kollege oder was, wichtige Meldungen und Mitteilungen geschickt hat und ich dann einfach, ohne dass es jedem die Leute drum herum mitbekommen haben, vorgelesen bekommen habe, der und der sagt gerade, hat ihr gerade das und das geschrieben.
00:17:02: Das finde ich sehr, sehr, sehr cool.
00:17:05: sagen, also auch diese Telefonie und das Ganze funktioniert da drüber.
00:17:08: Ansonsten bei der Navigation wird es für mich erst interessant in der Kombination mit der Projektion, weil ich finde, dass es einfach ein bisschen cooler ist, dass man das dann teilweise sich auch einblenden lassen kann und auch bestimmte Point of Interest und was was ich was einblenden lassen kann, wobei auch da ist es eigentlich erst richtig, richtig, richtig cool, wenn wir Wenn du es mehrfarbig ist, weil der Mensch eben halt Symbole, die rot sind, in grün sind und was was ich eben halt durch die Signalfarben viel besser verarbeiten kann, viel schneller verarbeiten kann.
00:17:40: Und natürlich die Übersetzungsfunktion und die Teleprompterfunktion aus beruflichen Gründen.
00:17:45: Also ich freue mich ehrlich gesagt auf den nächsten MVC und auf den nächsten.
00:17:50: CS, dahin zu gehen und wirklich sagen zu können, zu irgendeinem Menschen an irgendeinem Stand, hier erklär mir das bitte mal in deiner Muttersprache.
00:17:58: Also ich habe das ganz häufig, dass ich gerade aus dem asiatischen Bereich Entwickler habe, die leidlich Englisch können, das reicht dann für ein normales Gespräch, aber wenn es darum geht technisch, was zu erklären, sind sie dann halt ein bisschen überfordert und ich kann nun mal die Sprache nicht, das ist ja auch nicht sozusagen, die sind nicht doof, ich bin ja genauso blöd.
00:18:16: Und da finde ich dann halt, fände ich dann halt wirklich positiv zu sagen, okay, komm, lass uns das lassen.
00:18:20: Ich sag dir einfach, dass du sagst mir das auf chinesisch, koreanisch, was auch immer.
00:18:24: Meine Brille, die Brille übersetzt mir das.
00:18:27: Das geht ja bei den Projektionslesern.
00:18:28: dann halt, dass ich das auch mitlesen kann oder eben halt.
00:18:31: Parallel auch mehr anhören kann.
00:18:33: Und die Roke zum Beispiel macht auch ein Transkript davon.
00:18:35: Das heißt, ich muss mir nicht mal das mitschreiben.
00:18:38: Alles, was der mir dann erzählt, was kann ich danach nachlesen.
00:18:41: Zum einen in der Originalsprache, als auch mit der Übersetzung.
00:18:44: Das finde ich zum Beispiel.
00:18:45: Ich glaube, das wird für mich ein ziemlicher Gamechanger aufmessen, weil das immer wieder eine Sache ist, dass ich da teilweise mich schon wirklich... mit Händen und Füßen verständigen musste, um wirklich klar zu machen, dass ich es richtig verstanden habe, wie er es gemeint habe.
00:18:59: Weil es ist immer bis super peinlich, wenn es nachher irgendwie im Artikel auftaucht.
00:19:02: Und es ist einfach durch eine Übersetzungsproblematik, es ist da irgendwie falsch drin.
00:19:08: Wie gut funktioniert das denn so deine Erfahrung nach?
00:19:11: Also bei mir, ich würde sagen, wenn Erfahrung sagt, übersetzen ist schon ganz gut, weil man sich vieles auch erschließen kann, wenn da mal einen Fehler drin ist oder so, dann kann man da selbst nochmal mit einmal drüber nachdenken und sagen, ah, das hat er wahrscheinlich ihr Sohn zu gemeint.
00:19:25: Aber wenn man zum Beispiel so eine Brille fragt, also ich... Zum Beispiel beim Meta-Direct haben sie mal letztes Jahr aufgebaut gehabt, so eine Art Miniatur-Auto-Straße mit Oldtimern und haben gesagt, hier probiert mal die Brille jetzt was dazu zu fragen.
00:19:42: Und jedes Mal, wenn man gefragt hat, wie viele Autos sind, da kam eine andere Antwort.
00:19:46: Also die Macken sind ja schon leider noch da.
00:19:49: Wie glaubst du?
00:19:53: Also ich bin erstaunt.
00:19:54: Ich meine, ich ertrag die jetzt ja schon ein paar Monate.
00:19:56: Ich bin erstaunt, dass es eigentlich besser wird.
00:19:58: Also gerade die Objekterkennung finde ich bei einigen Brillen schon wirklich, wirklich erstaunlich.
00:20:03: Also ich hatte das hier im Flächen ein paar Beispiele.
00:20:05: Bei der Meter hatte ich das, dass ich vor einer Litfer-Säule gestanden habe.
00:20:10: Da war eine Waldarmeise drauf zu sehen.
00:20:11: Es ging nun mal um eine Naturkunderausstellung in Düsseldorf.
00:20:14: Und jetzt wäre die richtige Antwort gewesen, wenn auf die Frage, was siehst du, ich sehe eine Waldarmeise.
00:20:19: Denn das war da drauf.
00:20:20: Aber das System ist clever genug.
00:20:22: zu sagen, das ist eine Litfassäule, auf dem eine Werbung für eine Naturkunderausstellung in Düsseldorf ist, wo ich dachte, okay, das ist.
00:20:31: Über Waldameisen.
00:20:32: Das ist schon sehr präzise.
00:20:33: Ich habe auf der Rocket versucht, hier habe ich nach draußen geschaut.
00:20:37: Die haben, das kann man auch mal erzählen, die haben nicht alle das gleiche KI-Modell halt.
00:20:41: Bei der war es halt so, dass die sogar nicht nur erzählt hat, was für eine Straßenszene ich sehe, sondern die hat dann auch noch angefangen zu analysieren.
00:20:47: Ja, also übrigens, die Färbung der Blätter an den Bäumen ist bräunlich.
00:20:52: Also es spricht dafür, dass es Herbst ist, so nach dem Motto oder Spätsommer.
00:20:57: Und bei einer anderen Brille hatte ich das einfach, was ich gefragt habe.
00:21:00: Was sehe ich da bei einem Verkehrsschild?
00:21:01: Und die hat mir also komplett erzählt, welche Straßenregelung, welche Verkehrszeichen das ist, was da gilt und was ich da machen darf und was ich nicht machen darf.
00:21:11: Und da kommt er auch zum wichtigen Punkt.
00:21:13: Also zum Beispiel in Hannover gibt es ja diese digitalen Haltestellenschilder, wo auch dann die Abfahrzeiten von den Bussen drauf sind.
00:21:21: Da habe ich dann pro Positives und Negatives erlebt, sozusagen.
00:21:24: Weil das positive war halt, dass der wirklich das ganz gut erkennt, was da angeschrieben ist und auch dieses mit diesen digitalen Anzeigen generell klarkommt.
00:21:31: Das ist auch eine spannende Sache für Leute, die vielleicht sehbehinderet sind.
00:21:35: Also Sehbehinderung, also einfach so eine Brille tragen und sagen hier, was werden fährt der nächste Bus?
00:21:41: Das Problem an der Stelle war, dass es tatsächlich eine Liste war, von oben nach unten vier Busse, die fahren sollten.
00:21:46: Und er hat dummerweise mit dem Unteren angefangen.
00:21:48: Also die Logik, dass oben denn versteht, weil er als nächster kommt, der hatte er noch nicht so richtig.
00:21:55: Aber man merkt einfach, da tut sich was.
00:21:56: Eine andere Brille hierbei beim Beta-System von Rocket hat zum Beispiel versucht, die Abfahrzeiten dann übers Internet abzufragen von dem Betreiber, also von den Verkehrsbetrieben.
00:22:11: Und da ist sicherlich noch eine Lüftendänge Luft drinnen.
00:22:13: Da gibt es noch Fehler.
00:22:14: Das ist überhaupt keine Frage.
00:22:16: Aber die Möglichkeiten, die sich da erschließen sind, sind glaube ich enorm auf Dauer.
00:22:21: Ich glaube, das ist ja etwas, wo Google, die ja auch angekündigt haben, dass bald mal so eine Brille erscheint, wo Google einen riesen Vorteil hat, weil die haben diesen Knowledge Graph mit genau solchen Informationen.
00:22:33: Da darf man ja manchmal bei Google nicht vergessen, dass ich nicht alles Echtzeit suche von irgendwelchen Webseiten, sondern Google hat so eine gigantische Datenbank mit Informationen, zu denen auch Fahrzeiten eigentliche, also reguläre Gehören oder eben sogar Echtzeitdaten vom Verkehr.
00:22:50: Das hat Matter oder Rocket natürlich nicht.
00:22:53: Genau.
00:22:54: Man muss auch dazu sagen, was ganz interessant ist, ist, das persönlich finde ich auch ganz spannend, ist das sogar bei Rocket und bei anderen Event-Realities teilweise, die das KI-Modell wechseln kannst.
00:23:07: Also das ist mir persönlich deswegen auch ganz wichtig, weil gerade jetzt sehen wir viele Start-ups noch, die irgendwelche Brillen rausbringen.
00:23:16: Du möchtest natürlich nicht irgendwie das die ihr eigenes KI Modell benutzen oder dann irgendwann sagen ja schade hat leider doch nicht geklappt mit unserem Business Plan und dann stehst du damit.
00:23:26: dumm Brille, für die du viel Geld bezahlt hast.
00:23:28: Auf der anderen Seite können wir alle nicht voraussehen, wie die, wie es mit OpenAI, Meta, was weiß ich mehr.
00:23:33: Meta finanziert sich dadurch ja selbst, aber mit Gemini, was auch immer weitergeht.
00:23:39: Also es kann immer sein, dass das irgendein Anbieter sagt, ja, also es kann schön, wenn ihr unser, unser System im Web benutzt, aber in der Kombination mit Brillen wollen wir dafür Geld haben, beispielsweise zukünftig.
00:23:50: Und dann finde ich es halt sehr praktisch, wenn man sagt, okay, ich kann wechseln.
00:23:54: Wo ich das ganz stark gesehen habe, ist, wenn es um Übersetzungen geht.
00:23:58: Die generellen Übersetzungen werden häufig mit so einfacheren Modellen gemacht.
00:24:03: Dann gibt es aber fast immer die Möglichkeit bei den Brillen zu sagen, also bei den außerhalb von Meter.
00:24:08: Zu sagen, ich möchte das aber, dass das bessere Übersetzungen sind, genauere Übersetzungen sind.
00:24:13: Und da wird dann teilweise jetzt schon gesagt, ja, das kannst du kriegen, aber da müssen wir das Modell wechseln und das kostet leider Geld.
00:24:19: Also auch da muss man dann inzwischen mal gucken, wie sich das in Zukunft alles weiterentwickelt, weil diese KI-Nutzung, die Modelle in den Nutzung der KI-Modelle ja nicht unbedingt kostenfrei ist.
00:24:29: Und auch wenn man sich überlegt auch Meta lässt sich das natürlich bezahlen über Daten und über Werbung ausspielen auf andere.
00:24:35: Absolut.
00:24:36: Genau.
00:24:36: Und die werden auch die werden auch sicherlich nicht kostenfrei.
00:24:39: Also die werden sich sicherlich auch an den an den Verkäufen der der der Brillen beteiligt sein.
00:24:44: Also das ist natürlich da kommen wir jetzt wieder zu diesem Punkt, dass genauso wäre bei Amazon.
00:24:49: Also ist nicht kostenlos, sondern.
00:24:52: Das ist ein Werbeprodukt natürlich auch ein Werbemodell für die Geräte von der Firma Amazon.
00:24:58: Also Echoes, Echoes Shows, Fire TVs und was auch immer.
00:25:01: Also die natürlich profitieren die davon, dass ihr Assistenzsystem da drin ist.
00:25:06: Die Leute kaufen es auch teilweise deshalb oder nur deshalb.
00:25:09: Ich meine, warum würde es sonst ein Echo Lautsprecher kaufen, wenn da eben keine Sprachassistenz drin
00:25:14: wäre?
00:25:16: Wir reden zwar jetzt über so ein paar quasi ausgewählte Brillen, aber du hast es eben schon gesagt, es gibt wirklich viele Startups, oder?
00:25:23: Also es gibt echt viele Brillen, die da so ein bisschen in der Pipeline sind.
00:25:26: Ja,
00:25:26: es gibt viele, die in der Pipeline sind und viele orientieren sich interessanterweise an den Schwächen der Großen.
00:25:31: Also, bestes Beispiel ist, dass es viele kleine Startups gibt, die so ein bisschen die Rayband Meter nachbauen, und zwar in dem Sinne, dass sie ziemlich identisches... Produkt bauen.
00:25:45: Also auch eine Audio-Brille ohne Display-Technologie.
00:25:50: Aber dann beispielsweise die Wasserfester machen.
00:25:52: Also es ist ein großes Problem für mich.
00:25:54: bei den Ray-Ban-Matter Rayfarer habe ich ja persönlich nach Thailand den Urlaub genommen und da ist meine kaputt gegangen.
00:26:00: Unersichtlichen Grund.
00:26:02: Und ich glaube immer noch, es lag leider an der hohen Luftfeuchtigkeit, die da zu dem Zeitpunkt herrschte.
00:26:07: Und andere haben dann zum Beispiel vor jetzt gar nicht mehr diese Touchbedienung so zu bauen, sondern andere Bedienelemente einzubauen in diese Brille, weil sie einfach sagen, man kommt so häufig an die falschen Tasten bei der Meta.
00:26:20: Das kann man alles besser machen.
00:26:22: andere modelle also der dürfen nicht vergessen ist auch ein gut wichtiger punkt.
00:26:27: wer dürfen nicht vergessen?
00:26:28: wenn das brillen sind dann sollen die gut aussehen und dann soll die natürlich auch demjenigen gefallen der die trägt also die.
00:26:34: wir haben jetzt viel über.
00:26:35: ich hab jetzt viel gesprochen über die even realities und die rocket.
00:26:37: das sind tolle brillen aber eigentlich sind die mir zu klein.
00:26:40: ich habe großes gesicht und das ist man hat immer ein bisschen das gefühl das ist sehr auf den ja es ist so ein bisschen.
00:26:45: Ohne jetzt despektilig klingen zu wollen aber so ein bisschen auf den auf dem asiatischen markt ausgewichteten mit leuten die eben ein bisschen kleinere kopf haben als ich und das ist eigentlich nicht die größe die ich im brillen lagen laden kaufen würde.
00:26:57: und das zeigt eben wie schwierig das auch ist auf dem markt erfolgreich zu sein weil eigentlich kannst du nicht mit einem modell da rauskommen.
00:27:03: das macht mita ja auch zusammen mit dem brillen stellstelle der lexotika der dahinter steckt dass sie auch gleich von von ray benn gleich Drei Modelle am Start hatten Anfang und jetzt immer mal wieder Sonderedition rausbringen.
00:27:16: Immer mal wieder was.
00:27:18: Oakley ist ja gehört ja auch zu dem Konzern, ist ja auch eine Variante wieder.
00:27:23: Also das ist dann, dass man nicht nur sagt, technisch muss ich was tun, sondern es muss sich eben modellmäßig auch einiges tun, gibt zum Beispiel ein Berliner Startup, das alleine drei verschiedene Modellvarianten rausbringen will.
00:27:34: Ja, da hat Meteor mit Esteloluxotica ihr wirklich aber auch den absolut größten Brillenhersteller der ganzen Welt im Boot.
00:27:42: Also jede Brillenmarke, die man so kennt, die es im Geschäft gibt.
00:27:46: gehört eigentlich zu dieser Gruppe.
00:27:48: Das heißt, dass da ganz viel auch ganz schnell nachkommen kann.
00:27:51: Absolut.
00:27:52: Prada-Brillen könnten da zum Beispiel kommen.
00:27:54: Das wäre für mich das nächste, was ich mir vorstellen könnte.
00:27:56: Aber das ist so irre, wenn du auf der Seite gehst.
00:27:58: Wir können ja so Sprüche wie wir uns gehören.
00:28:01: Siebzig Marken direkt und hundertsiebzig haben wir in Lizenz, wo du denkst, okay.
00:28:07: Also sie sind irgendwie bei zweihundertfünfzig Marken oder so, da sind etliche Beifanienchen nie was gehört, aber die sind halt, deswegen sind die riesig.
00:28:13: Und da ist es dann umso erstaunlicher, wie erfolgreich die Meta Ray-Ban Meta Wayfair ist, dass es da, dass die dann explizit in letztens dann halt im Quartalsbericht als meistverkaufte Brille des ganzen Konzerns aufgeführt wurde.
00:28:27: Also da sieht man mal, was für ein Erfolg das ist.
00:28:30: Aber da finde ich es eben halt auch spannend, wenn du da auf die Seite gehst, und dann sind wir halt beim anderen Punkt, wenn du da auf die Seite gehst, diese Meta-Brille wird vor allen Dingen als Sonnenbrille da beworben.
00:28:40: Und das ist es, wie überzeugst du jemanden, eine KI-Brille, wenn man so will, zu tragen, das Smart Glass ist zu tragen, wenn der kein Brillenträger ist.
00:28:49: Das ist ein richtig wichtiger Punkt und die haben es halt dadurch geschafft, dass sie gesagt haben, ja ist doch cool, kauft ihr doch eine Sonnenbrille?
00:28:55: Oder eine selbsthöhende Brille.
00:28:57: Und dann kannst du, wenn du im Urlaub bist, übrigens auch gleich noch ein paar Fotos und Videos machen.
00:29:01: oder wie soll man solche Geschichten oder dir eben, wie du es schon sagst, sagen lassen, welches Gebäude da gerade vor dir steht.
00:29:07: Und das war definitiv ein Erfolgskonzept, ob das eben halt auf Dauer und auf Masse so funktioniert.
00:29:13: Man kann es ja nicht nur sagen, wir kaufen und verkaufen die ganze Zeit Sonnenbrillen.
00:29:16: Jetzt im Winter wird es schon zum Beispiel schwieriger.
00:29:20: Brillenträger, du hast mir im Vorfeld auch gesagt, dass du da eine ganz große Schwierigkeit siehst.
00:29:25: Wie ist das mit den Gläsern mit Stärke?
00:29:29: Genau, in dem Moment, also bei den Metabrillen ist es kein Problem, weil die eben halt keinerlei Projektion, Displaytechnik in irgendeiner Form drin haben.
00:29:38: Das heißt, das ist eigentlich vom Grundmodell, ist es sehr nah an den normalen Ray-Ban.
00:29:44: oder es gibt ja nicht nur Ray-Ban, es gibt ja verschiedene von denen, aber an den normalen Ray-Ban-Modellen dran oder auch den Brillen dran.
00:29:51: Das heißt, du kannst da ohne Probleme normale Brillenleser reinsetzen lassen und die auch wechseln und Ray-Ban bietet ja sogar.
00:30:01: Das ist aber in dem Moment wo wir über Projektionrechnende reden, ist es eine ganz andere Geschichte, weil damit diese Projektion funktioniert, muss halt die Stärke auch für diese Projektion auf meine Seestärke angepasst werden.
00:30:15: Und das geht sehr schnell ins Geld und es ist halt sehr schwierig zu machen, sag ich mal.
00:30:20: Es ist nicht immer so, dass der Hersteller das selber leisten kann.
00:30:25: Realities hat deswegen Verträge mit Optikern auch in Deutschland, wo die das machen, aber da merkst du auch sofort, da wird die Brille dadurch auch gleich wesentlich teurer.
00:30:33: Also die Brille ist mit, glaube ich, sixhundertneunundneunzig ist, glaube ich, jetzt der Listenpreis.
00:30:37: Ist da, ist da wesentlich teurer als die Rocket.
00:30:40: Und jetzt kann es sogar achtneunundneunzig gewesen sein, muss ich jetzt liegen.
00:30:44: Auf jeden Fall ist die teurer.
00:30:46: Und Roke hat sich jetzt überlegt, der machen wir das ganz anders.
00:30:50: Wir machen sozusagen keine Seestärke in unsere eigentliche Gläser rein.
00:30:56: Sondern wir haben so Clips, die man dann von innen, also sprich zwischen Auge und Glas, da reinklippt.
00:31:01: Also so eine Art Korrekturglas, dass ich vor das... eigentliche glas oder hinter wenn man je nachdem wo man sieht klemme finde ich persönlich problematisch.
00:31:11: muss ich sehen wie es aussieht.
00:31:12: ich habe es seit auch noch nicht gesehen.
00:31:13: ich habe immer nur bis jetzt das modell gehabt ohne irgendwas.
00:31:16: aber wenn das dann ran geklickt ist wie es aussieht und ich habe schon prototypen von anderen herstellern gehabt.
00:31:22: da bin ich dann immer mit meinen simpern gegen dieses in diesen clip geknallt.
00:31:25: also es ist echt so unangenehm wenn das immer so ran schramt.
00:31:29: ich möchte das dann nicht tragen.
00:31:30: dann sage ich dir ganz ehrlich und Jeder Brillträger, den du fragst, sagt dir, dass die meisten nach ein paar Jahren doch mal eine neue Sprillenglas brauchen.
00:31:39: Weil sich die Seestärke ändert, aber auch weil das natürlich ein Alltagsprodukt ist, das zerkratzt.
00:31:43: Und dann wird es natürlich sehr schnell, sehr teuer, wenn irgendwie nach ein paar Jahren plötzlich heißt, naja, ich habe jetzt hier irgendwie eine Brille mit einem speziellen Projektionsglas und es kann einfach nicht jeder herstellen.
00:31:55: Da muss man da eventuell hinterherrennen und gucken, wo man dann plötzlich einen Austauschglaser bekommt.
00:32:00: Das halte ich für einen großen Heimschuh, ganz ehrlich.
00:32:04: Also mal eben ein paar Jahre eine Brille für dann plötzlich achthundert Euro, kann sich wirklich nicht jeder leisten.
00:32:09: Ne,
00:32:10: eben, genau.
00:32:12: Glaubst du denn, dass sie sich trotzdem durchsetzen werden, diese Brille?
00:32:15: Ich sage ja immer, ich bin ja kein Profil.
00:32:17: Ich bin ja immer ein bisschen deswegen ein bisschen vorsichtig, weil ich weiß noch, wie die Kollegen reingekommen sind, haben gesagt, drei DTV.
00:32:25: Ich habe es gesehen, es ist so toll, es wird auf jeden Fall sich durchsetzen.
00:32:29: Also der Jan Keno-Jansen hätte, glaube ich, da sein, was was ich drauf verwettet und heute rede da keiner mehr von.
00:32:34: Und ich weiß auch, ja Mensch Keno.
00:32:39: Und die gleiche Diskussion haben wir seit Jahren mit VR-Brillen.
00:32:42: Also wollen wir ganz ehrlich sein.
00:32:45: Ich glaube, es wird ein Markt, ja, aber ich weiß nicht, inwieweit wir von Massenmarkt reden können.
00:32:52: Also ich weiß nicht, wie weit das so ist, dass du... sagen kannst.
00:32:57: Nächst läuft jeder mit Smartlasses rum.
00:32:59: Also ich persönlich find's weiterhin cool, dass ich mir die Meter geholt hab.
00:33:03: Ich hab die mir privat gekauft und find's halt als normale Brille ganz super und dann macht die halt so, hat so ihre Nebenbei-Geschichten.
00:33:10: Ich bei den Projektionsgeschichten, das ist mir ehrlich gesagt, da bin ich wirklich ein Bitterzöger.
00:33:16: Ich selber persönlich auch noch sehr stark, weil ich denke, dafür, dass ich Ich glaube nicht, dass ich jeden Tag die Projektion anschmeiße und nicht jeden Tag das voll nutzen würde.
00:33:24: Ist das eine Menge Geld?
00:33:28: Ich fand es extrem, dass TCL bei seiner Brille tatsächlich auf der AIFA gesagt hat, dass es die Dreifache von der ROKUIT, das waren dann eine Euro wahrscheinlich kosten wird und dann im Nachgang bei einer Pressebeteilung drinnen stand.
00:33:42: Aber die Brille wird unter zweitausend Euro kosten, wo ich dachte, okay, das heißt es wahrscheinlich noch mehr als eine Euro.
00:33:49: Das sind ja Preise, wo ich sagen würde, weiß ich nicht, ob ich zweitausend Euro für so eine Brille ausgeben würde.
00:33:54: Ganz ehrlich nicht, glaube ich nicht, ich auch nicht.
00:33:55: Also so viel bedeutet mir das dann nicht.
00:34:00: Wenn wir überlegen, ich hatte hier eingangs gesagt, wir haben das Scheitern des AI-Pins und das Rabbids ja schon gesehen als zusätzliche Geräte.
00:34:08: Zuckerberg spricht von den Brillen, dann gibt es ja auch noch Open AI und Johnny Ives, die hart daran arbeiten, dass es doch irgendein noch ganz anderes neues KI-Gadget geben wird.
00:34:20: Also da irgendein Gefühl für als Prophet, oder sagst du, nee, dann doch die Brille, weil die sind ja da so ein bisschen... Also, man muss sich, finde ich, aber immer vorstellen, wir haben ein Smartphone, wir werden es nicht aufgeben können.
00:34:32: Das bezweifle ich zumindest.
00:34:34: Wir haben schon alle ein Smartwatch, eventuell, wenn wir nochmal so ein zusätzliches, unauffälliges Gerät wollen.
00:34:39: Wir haben einen Kopfhörer, mit dem man auch ganz viel machen kann, wenn man unterwegs ist, unauffällig.
00:34:44: Und immer mehr.
00:34:45: Wir erinnern uns
00:34:45: an die
00:34:46: letzte Ankündigung mit immer mehr Übersetzung, auch bei fünf... Apple oder Messung von Blutdruck beziehungsweise Blutdruck.
00:34:54: Das hat schon Herzfrequenz.
00:34:56: Bewegungssensore, klar.
00:34:58: Navigieren kann es mich im Grunde ja auch.
00:35:00: Natürlich,
00:35:01: genau so.
00:35:01: Also ja, Brille
00:35:05: und oder noch was sogar.
00:35:08: Also ich finde ja persönlich, ich finde die Brille deswegen ganz logisch.
00:35:14: weil sie zum einen körpernah ist.
00:35:16: Also ich persönlich sehe nicht, dass ich irgendwo ein Pin habe und du hattest darüber gesprochen und möchtest nicht mit deiner Brille sprechen, aber ich möchte noch weniger mit dem Pin sprechen.
00:35:24: Also der Pin, der dann eventuell mir dann antwortet, der muss ja auch nie eventuell antworten.
00:35:29: Und dann in der Öffentlichkeit, du ruft ihr dann zurück, ist auch quatscht, dann sage ich, okay, dann kann ich das ja irgendwie mit meinem Airpods verbinden.
00:35:37: Er frage mich, warum ich gerne aber sowieso die Airpods nicht sowieso benutze und dann den Pin weglasse und das Ganze auf dem... Telefon laufen lasse.
00:35:44: der Vorteil ist eben halt bei diesen körpernahen geschichten das was du genannt hast die die uhren sind.
00:35:49: deswegen glaube ich sehr erfolgreich, weil es einfach auch sonst normal als Uhr funktioniert, genauso wie diese Brillen normal als Brille funktioniert.
00:35:56: Also ich glaube, es wird immer schwieriger, je je je je weiter das vom normalen Leben weg ist.
00:36:01: Also diese Pins sind mir persönlich mit anstecken.
00:36:04: Dann wechsle ich die, das mache ich, ich ziehe meine Jacke aus, dann ziehe ich den Pin an meinen Pullover, dann will ich rausgehen, dann ziehe ich den da wieder ab und packe den dann wieder an meine Jacke.
00:36:13: Das machen die meisten Leute nicht, da haben die keine Lust drauf.
00:36:16: Also ich Ich glaube, die Brillen sind schon eine coole Sache und es ist eben halt spätestens in dem Moment, wo du eben diese Projektionstechnik hast, kommst du eben auch weit über die Geschichte mit den Kopfhörern hinweg und natürlich auch durch die Objektobkennung, dass du einfach eine Kamera in der Brille hast.
00:36:36: Es gibt also Vorteile, man kann also sagen, okay, das zeichnet die aus und das grenzt sie ab von einer Uhr und das grenzt sie ab von von von anderen Sachen, die ich benutzen kann oder dass ich einfach mein Handy rausziehe.
00:36:47: Aber wie gesagt, bei den Pins auch mit eingebaut haben, mit eingebauten Kameras und so was da alles überlegt und angemacht und fabriziert wurde.
00:36:57: Das war mir immer ein bisschen zu weit, das sage ich dir ganz ehrlich.
00:36:59: Das ist mir nicht, das ist mir nicht, das ist mir und es muss einfach praktisch sein.
00:37:03: Es klingt manchmal so, es klingt so einfach und so dumm vielleicht, aber es muss einfach praktisch sein.
00:37:08: Ja, ich bin dabei dir.
00:37:09: Ich glaube auch, dass es also eine Brille mit Zusatzfunktionen kann funktionieren, aber eine Zusatzfunktion, die ich dann extra nochmal haben muss, glaube ich.
00:37:19: Die wird es mir auch nicht anschöpfen.
00:37:21: Ich bin aber gleichzeitig ganz gespannt, weil Sam Altman von Open AI redet hier immer davon, dass sie was noch viel Tolleres entwickeln gerade, wovon wir alle offenbar noch nicht mehr mehr träumen können, weil ich kann es mir nicht vorstellen, was es denn jetzt sonst noch sein soll.
00:37:35: Der Hirnship, endlich.
00:37:36: Ja gut, aber da ist der Glockmask schon dran.
00:37:39: Neuronale Sachen.
00:37:41: Ja gut, es gab ja immer mal, es gab ja immer mal die Ideen vielleicht irgendwelche digitalen Kontaktlinsen zu entwickeln.
00:37:48: Die Idee ist ja auch nicht ganz vom Tisch.
00:37:49: Das wäre eine Sache, wobei ganz da bin ich raus.
00:37:52: Also ich kann das überhaupt nicht ab, ich kann schon weiche Kontaktlinsen nicht ab.
00:37:56: Und ich glaube auch ehrlich gesagt ganz ehrlich, wenn ich jetzt eine Segel für, wer Kontaktlinsen nicht jetzt als Segel für trägt, der wird sich das dann nicht einsetzen.
00:38:04: Ganz ehrlich, das glaube ich nicht.
00:38:06: Und ansonsten, also, also, ich bin gespannt.
00:38:10: Klar, ich bin sehr gespannt, was da kommt.
00:38:12: Aber im Moment, also, über der Vorstellung, kann ich mir da nicht viel geben.
00:38:15: Das sage ich ganz ehrlich.
00:38:17: Nee, ich auch nicht.
00:38:18: Ermetter arbeitet übrigens auch daran an nicht-inversiven Verfahren, wie man aus dem Gehirn ganz viel erkennen kann.
00:38:24: Also, Sie können schon Sätze vervollständigen.
00:38:26: Vielleicht sind die da ja doch.
00:38:30: Die kommen
00:38:31: natürlich auch drauf an, was ich dafür brauche.
00:38:34: Ich war nämlich gerade bei der Smart Pool-Mütze.
00:38:41: Also das ist eben halt die Sache.
00:38:42: Wenn ich dann irgendwie dafür wieder was aufsetzen muss, auch da sind wir wieder an der Stelle.
00:38:46: Wie viele Leute wollen sich da Sachen aufsetzen.
00:38:48: Aber dann sind wir auch wieder da.
00:38:50: Ist das ganze Ding vielleicht, wird ja das nächste große Ding, die die smarte Baseball Cap mit eingebauter Brille, mit Gehirnstrom.
00:38:59: und die spricht zu dir.
00:38:59: Wäre einfach technisch gesehen.
00:39:02: Nicht viel schwieriger als jetzt eine Brille.
00:39:04: Also von den Gernströmen weg.
00:39:06: Aber ich könnte das natürlich jetzt genauso von die Technik von der Smartlist, das kann ich auch in den nächsten Hut einbauen.
00:39:14: Vielleicht sind mehr Leute bereiten, Hut zu tragen als eine Brille.
00:39:18: Aber dann wird es wieder mit der Projektionstechnik schwierig.
00:39:21: Da
00:39:22: klappen sie dann so ein Visier
00:39:25: rund.
00:39:25: Ja oder eben halt Projektion ins Auge, das ist immer wieder, war auch jahrelang immer wieder ein Thema, wo auch die meisten Leute sagen, weiß ich
00:39:32: nicht.
00:39:32: Weiß ich nicht.
00:39:33: Nee, weiß ich auch nicht.
00:39:35: Wird's mir auch einfach unangenehm bei.
00:39:37: Ja.
00:39:37: Ah, herrlich.
00:39:38: Wir werden das aber sehen und vielleicht sprechen wir ja irgendwann über die Mütze oder die Projektion ins Auge oder über das, was Sam Altman und Joni Eif vorstellen.
00:39:51: Ich freue mich auf jeden Fall drauf, wenn wir darüber sprechen.
00:39:53: Ich mich
00:39:56: auch.
00:39:59: Das war's für heute.
00:40:00: Den nächsten Deepdive hört ihr an dieser Stelle in zwei Wochen.
00:40:04: Es würde mich
00:40:04: freuen, wenn
00:40:05: ihr dann wieder
00:40:05: dabei seid.
00:40:07: Bis dahin könnt ihr natürlich mit unserem kompakten KI-Update jeden Montag, Mittwoch und Freitag auf dem Laufen entbleiben.
00:40:14: Und falls ihr
00:40:15: einen Deepdive verpasst habt,
00:40:16: findet ihr eine Sammlung
00:40:17: aller Folgen auf heise.de.
00:40:23: Den Link dazu findet ihr natürlich auch in den Show Notes.
Neuer Kommentar