Freak Show
Menschen! Technik! Sensationen!
https://freakshow.fm
Raumzeit Live — Podcast-VJing — Apple Vision Pro
Heute liegt der Schwerpunkt der Sendung massiv auf der Apple Vision Pro. Dom hat sich eine zugelegt und Tim hatte die Gelegenheit das Gerät ausführlich zu testen. Entsprechend berichten wir von unseren ersten Eindrücken und Erfahrungen, stellen die Funktionen und Eigenschaften detailliert vor und geben unsere Einschätzung darüber ab, wofür das Teil ggf. taugen könnte, für wen es heute und in der Zukunft einen Wert darstellen könnte und wo noch große Fragezeichen bleiben.
https://freakshow.fm/fs275-scheinriesenfenster
Veröffentlicht am: 23. Februar 2024
Dauer: 4:02:06
Hallo und herzlich willkommen, hier ist die Freakshow und zwar die 275. Freakshow. Das ist ganz schön viel eigentlich, ne? Also, was man so überlegt. Gibt natürlich auch Leute, die haben schon tausende von Podcastsendungen, aber die sind ja alle nicht so lang. Und irgendjemand hat ausgerechnet, dass wir mit allen Freakshows bis zu 274 insgesamt 998,5 Stunden gesendet haben. In einer anderthalb Stunde, um 21.30 Uhr, haben wir 1000 Stunden voll und ich habe keinen Shampoos kaltgestellt. So sieht das aus. Also Leute, so gut vorbereitet sind wir hier. Hallo, ich bin's Tim und heute haben wir eine kleine Runde. Roddy ist natürlich da. Hallo Roddy.
Und noch hat die noch nicht richtig angefangen, weil bei den letzten Malen, die hat ja auch immer so gestartet und dann ist irgendeine Technik mit mir in die Hose gegangen. Das Video ist ausgefallen, der Ton war weg, sonst irgendwas, das geht gleich weiter. Knock on wood, dieses Mal wird alles Suppi.
Das hilft dir jetzt wenig, aber fühle einfach mit uns. Also wir können jetzt hier auch aufs Klo gehen und nach wie vor der Sendung lauschen. Das war immer so die Disruption schlechthin, dass man bei solchen Toilet Breaks einfach den Faden verloren hat. Das könnte der Grund sein, warum hier manchmal einfach alles so hin und her und kreuz und quer geht und so.
Ja, na klar. Ist alles aufgenommen worden, hat funktioniert und ja, muss nochmal in den Schnitt und dann wird das vermutlich sogar noch diese Woche doch mit Sicherheit morgen veröffentlicht werden, sollte sich da nicht noch irgendwas in den Weg stellen. Ja, aber das ist gut und ich will auch ohnehin mehr on stage sein, jetzt in diesem Jahr. Da wird noch so einiges passieren. Mal gucken, ob wir das auch mit der Freakshow hinbekommen.
Also, wenn die Sendung rauskommt, da Raumzeit mit dem guten Ulf, dann hört ihr euch an. Das ist echt, da kann man mal eine Hörempfehlung aussprechen. Das hat sehr viel Spaß gemacht. Ihr habt zwar dann leider nicht das Planetariumsbild dabei, das, fand ich war dieses Mal aber auch ein bisschen gedämpfter als die erste Variante. Du hattest da ja schon mal was gemacht und da hatten die deutlich mehr Zip Zap gemacht.
Ja, da war mehr Zip Zap. Das hat zwei Gründe. Der erste ist, es gab da irgendeinen internen Abstimmungsfehler, sodass eine andere Person davon ausging, das zu fahren. Und außerdem hat halt das Thema nicht ganz so viel Material hergegeben wie jetzt diese Bodenteleskope, weil die ESO, dieses European Southern Observatory, was diese Teleskope macht, das hat halt... Das hat halt schon sehr viel von diesem 180 Grad Videokram geschossen für Planetarien. Und darauf konnte man dann halt zugreifen und dementsprechend gab es halt viel. Ja, genau. Aber das ist tatsächlich jetzt ein Punkt, auf den ich jetzt nochmal kommen wollte. Und zwar, ich habe das auch hier schon mal, glaube ich, schon mal angesprochen. Aber jetzt gerade wegen dieser Live-Geschichte und speziell auch Raumzeit, aber im Prinzip wäre es auch etwas für die Freakshow, was Podcast und Live-Podcast auf eine interessante Weise ergänzen könnte, wo es aber ein spezifisches Problem gibt. Und das ist eben visuelle Begleitung. Also ich mache ja keine Videopodcasts und mache kein Gesicht in die Fresse halten, YouTube-Channel und dieser ganze Selfie-TikTok-Kram und so weiter, dafür bin ich zu alt und das war einfach noch nie mein Ding. Ich bin dafür nicht zu alt, natürlich bin ich völlig geeignet dafür, aber ich will halt, also wenn man sozusagen Leuten einen weiteren. Kommunikationskanal anbietet, den sie dann konsumieren sollen und dann einen weiteren Sinn quasi in Beschlag nimmt, so ein Ressourcen-Acquiring, betreibt, dann muss da auch Mehrwert kommen. Das hasse ich halt immer so an diesen, mach mal heute YouTube an, so, dann ist erstmal bla bla bla, Quatsch Quatsch Quatsch, ich rede jetzt mal über irgendwas, währenddessen schaut ihr doch bitte Bitte diese 1.000.000 3-Sekunden-Stock-Videoclips, die ich in meinem Standard-Abo mit drin habe und die ich einfach mit Dreck und Drop aus irgendeinem Archiv raussuche und meine AI, da muss ich nur drei Suchworte eingeben und dann habe ich schon irgendwas. Und ich sehe immer diese selbe düsselige Stockfoto-Imagerie, die überhaupt nichts damit zu tun hat. Das ist im Prinzip so die kolossale Fortführung von so Tagesschau berichtet über Arbeitsamtzahlen. Jeden Monat kommen so die Zahlen vom Arbeitsamt raus und was sehen wir? Das Arbeitsamt in Recklinghausen schwenkt irgendwie Leute, die irgendwie arbeiten, Leute, die nicht arbeiten, Leute, die irgendwo in einer Warteschlange stehen, immer dieselbe Footage, immer das gleiche, weil es gibt visuell nichts zu berichten. Es ist einfach nichts da, kein Fleisch.
Und das waren dann Gott sei Dank auch mal ganz mehr oder weniger dankbare Themen. Aber das eigentliche Problem ist, wenn ich jetzt sozusagen losziehe und sage, ich suche mir jetzt irgendwo eine Bühne und mache Raumzeit live, was ich durchaus vorhabe auch, dann möchte ich gerne diese visuelle Begleitung haben, weil das ist einfach für Live-Teilnehmer, Du hast es ja schon angesprochen, das ist ganz nett. Also du redest über das Gymnasium in Greiz, wo er aufgezogen ist und dann hast du davon ein Foto. Und dann redest du über das Max-Planck-Institut in Stuttgart und dann hast du da ein Bild und dann siehst du den Campus und bla bla bla. Und dann redest du über das und dieses und diese Rakete und dieses Modul und diese Raumstation und dann hast du halt einfach Imagery. Das ist natürlich jetzt im Planetarium eine besondere Herausforderung, also in dem Planetarium ist es jetzt gerade noch eine besondere Herausforderung, weil sie parallel derzeit die 180 Grad Projektionen und dann noch zusätzlich Beamer haben. Das heißt, der ganze 16 zu 9 Web-Content kam sozusagen von separaten Beamern. Das ist nicht eine Software, in der das so eingeblendet wird. Es gibt derzeit noch keine Möglichkeit, sozusagen non-planetary Content einfach so in dieselbe Produktion reinzukriegen. Das ist aber etwas, woran die gerade arbeiten. Also das ist sozusagen das Problem.
Ja, das ist auch gut so, dass man das nicht gesehen hat. Das ist ja auch nicht so wichtig. Aber am Ende war es halt ein Mehrwert. Und jetzt werde ich aber nicht, Immer in Planetarien gehen, sondern halt auch mal einfach einen Ort suchen, wo nur so eine normale 2D-Leinwand ist. Das reicht auch aus. Das hatte ich damals, als ich das in Darmstadt gemacht habe, auch. Jetzt die Frage, wie bespielst du das? Und das Besondere daran ist ja, das ist ja jetzt kein fertig geschnittenes Video, das findet ja live statt. Und du weißt zwar in etwa, auf welche Themen du eingehst, aber der Witz ist ja, dass man mit der visuellen Begleitung dem Inhalt dynamisch folgt. Das heißt, man macht ein neues Themenfeld auf, so bla bla bla und jetzt reden wir mal über Science Fiction und dann, weißt du, kommt Douglas Adams ins Spiel und das stand vorher auf keiner Liste und jetzt möchte ich halt in der Lage sein, dem schnell zu folgen, ohne dass jetzt Leute einem dabei zuschauen, wie man auf dem Webbrowser bei Google irgendwelche Suchbegriffe eingibt und irgendwelche Bilder erklickt. Das ist das, was ich auf keinen Fall möchte. Was ich also suche, ist eine Software, die eigentlich so ein bisschen funktioniert, wie so VJ-Software funktioniert. funktioniert. Weil VJ-Software ist ja im Prinzip genau das. Du hast dein Material, aus dem du so auswählst, Still Images, Moving Images und dann fügst du die mehr oder weniger live in so eine Playlist ein. Also entweder du hast es schon vorher so gebaut, wie das so abläuft oder du ziehst da halt irgendwas rein. Ich muss zugeben, ich habe nicht viel Erfahrung mit VJ-Software. Im Wesentlichen habe ich eigentlich nur anderen Leuten dabei zugeschaut, wie sie die benutzen. Und natürlich Natürlich ist jetzt der Funktionsumfang von klassischer VJing-Software für meine Zwecke auch völlig over the top, weil ich brauche jetzt nicht 30 Millionen Filter und Rotationen und so weiter, aber sagen wir mal so eine Software, die folgendes macht, die im Wesentlichen, in irgendeiner Form so eine Input-Queue hat, wo man so Sachen reinwerfen kann, sodass man zum Beispiel in einem Team mit zwei Leuten arbeiten kann. Die eine Person reagiert quasi auf den Inhalt, folgt dem Inhalt, merkt so, ah, okay, Douglas Adams, wir müssen jetzt was mit Douglas Adams, ich muss mal ein Foto von Douglas Adams und dann habe ich ein Foto von Douglas Adams und dann schmeiße ich das quasi für die VJ-ende Person in so eine Art Inbox. Shared Folder, was auch immer, API, keine Ahnung, Irgendwas, Webseite, Programm, Command Line, mir egal. Also irgendwie werfe ich das da rein, sodass die Person die Visuals steuert, der das sozusagen dann so als Input-Element aufpoppt und weiß, aha. Das muss ich jetzt in irgendeiner Form verwenden. Aber ich kann dann in dem Moment auch schnell durch ein paar Tastenkontrollen so Sachen machen wie, was weiß ich, dass man das irgendwie kurz maskiert, dass man da irgendwie eine Transition hat, wie das reinkommt. So, ja, das ist nicht so plopp jetzt dieses Bild, next slide, sondern dass man, was auch immer jetzt gerade angezeigt wird, sagt, okay, jetzt kommt hier ein Foto und dass die Software es einem irgendwie einfach macht, mit so Aspektratios dann kreativ umzugehen, damit das nicht alles zu bekloppt aussieht oder dass man da was weiß ich, einen Ken Burns Effekt macht oder das reinrauscht oder was auch immer. Also in irgendeiner Form eine gute Kontrolle über die visuelle Präsentation, aber halt als Output immer nur ein Screen, wo jetzt keinerlei User Interface auftaucht. Also du arbeitest quasi an dem Rechner mit einem Hauptbildschirm, da hast du sozusagen die Kontrolle und dein Output ist halt dann letzten Endes der Beamer dieser Veranstaltung, wo das dann eben für alle Teilnehmer zu sehen ist. Aber du kannst, du musst dann, du kannst also das trennen, dieses Recherchieren und den Zugriff auf diese Fotowelten, Datenbanken, was auch immer vorbereitetes Zeug oder so oder das Web und dann. Also elegant und klar das dann sozusagen in diese Input-Queue geben, sodass die Software dann auch so eingestellt werden kann, dass, was weiß ich, wenn jetzt gerade die Playlist oder die Queue so weit abgearbeitet ist, man zeigt halt sozusagen jetzt gerade das Letzte an, auch wenn man sich vielleicht noch fünf Bilder mal vorbereitet hat und wenn man dann die durch ist und kommt was rein, dann schaltet es auch automatisch darauf um, also irgendwie sowas. Das ist eine Software, die ich suche und ich habe so ein bisschen die Vermutung, es könnte etwas geben im VJ-Bereich, was sich vielleicht anpassen lässt, also indem man im Wesentlichen seine Features, ganz viele Features erstmal ausschaltet, damit es irgendwie einfach zu benutzen ist, um dann sowas zu machen. Und wenn es sowas gäbe, dann wäre schon, das wäre schon die halbe Miete, weil dann könnte man sich sozusagen so ein Content-Jockey-Podcast-VJ-Team aufbauen, was das dann auf solchen Veranstaltungen machen kann.
Also ich denke grundsätzlich, es gibt schon so Software auch. Interessanterweise ist das, was aus dem Produkt, das ich damals zusammen mit Boing's gemacht habe, Boing's TV, ist so eine Live-Mischer-Software auch. Das kann sowas. Also das ist halt relativ flexibel, heißt Mimo Live inzwischen. Mal gucken, ob das jetzt genau den Anwendungsfall erfüllt, weiß ich nicht mehr. Ich bin ja da schon lange raus, aber da habe ich mich ja mal mitgeschrieben. Das gibt es noch, ja.
Mimo Live heißt das jetzt, Mimo Live 6 oder so, keine Ahnung, die sind auch im Einsatz für Live-Fernsehschnitt-Geschichten, also es ist halt mehr so ein Broadcast-Studio in der Box, aber lower certs und Grafiken einblenden und das Ganze kann man und man kann Dinge vorbereiten vor allem. Also man könnte damals bei BoingTV schon Plugins selber machen über Quartz Composer und ein bisschen JavaScript und Co., um sich dann eben ein bisschen so eine Art von Animation zu bauen, die man so gerne braucht. Also tendenziell könnte das schon was sein, was hilft, wenn das noch gut ist. Ich habe es schon lange nicht mehr angeguckt. Aber so Software grundsätzlich gibt es schon auch. Es ist ja mehr so gefühlt so ein bisschen mehr so ein Live-Keynote, was du gerne hättest, oder?
Genau, also es könnte auch sein, dass man in dieser Präsentationssoftware-Kategorie vielleicht mehr Erfolg hat. Aber Broadcast ist natürlich, hast du natürlich recht, hat ja im Prinzip genau dieselben Aspekte. Auch gerade dann mit so Überblendungen oder dass man vielleicht so eine bestimmte Maske hat, dass unten immer irgendwie da noch ein Logo steht und so eine Sachen. Ja, tatsächlich. Aber was eigentlich dahinter steht, ist eben auch so eine Art und Weise, wie man eben Podcasts visualisiert und ähnlichen Bedarf hätten, könnten wir ja hier jetzt auch haben. Also wir haben ja immer diesen Konflikt, wir machen eigentlich jetzt ein Produkt, was für Audiokonsum gedacht ist, wir wollen halt irgendwie über alles reden und manchmal ist es schwierig, dann werden wir heute auch wieder so einen Tag haben, weil wir wollen halt über die Vision Pro ganz viel reden und wir versuchen die ganze Zeit irgendwas zu beschreiben und dann tendiert man immer schnell dazu, irgendwie auf dem Bildschirm zu zeigen und sagen, wie man hier sieht und das funktioniert natürlich nicht. Andererseits wäre es aber ganz cool, zumindest auch für so ein Live-Publikum, vielleicht eben so ein Screen tatsächlich mit zu maintainen. Also dass man so ein Live-Modul hat, wo dann quasi immer der Content ist, der gezeigt wird, aber man eben dafür auch noch einen Video-Jockey hat, so ein Content, so ein Podcast-Video-Jockey. Und das könnte ja … Das ist halt so ein bisschen das Punkt.
Genau, das ist nämlich schon sehr schwer, einen Chat-Channel zu bespielen. Aber wenn man das sozusagen externisiert und sagt, man hat jetzt sozusagen so ein Content-Team, was dann live zuhört und das dann sozusagen auch für live Podcasts macht, kann man ja im Prinzip für beliebige Podcasts machen und das so halbwegs gewissenhaft macht, dann könnte was Interessantes bei rauskommen. Und dann hätte man auch ein Material, wo es sinnvoll wäre, so eine Podcast-Aufzeichnung als Video zu veröffentlichen. Also natürlich hast du im Wesentlichen den Ton, aber du hast dann quasi die Videospur so als optionale Begleitspur, die du dir einblenden kannst, wenn du möchtest, aber du musst es halt nicht.
Wenn ich jetzt hier einen Screenshot habe, über den ich reden möchte und den ich sozusagen da anzeigen will, dann muss ich den ja hier während der Sendung mit Drag & Drop oder so irgendwie in diese Queue kriegen. Also diese Queue ist schon, sagen wir mal, der entscheidende Faktor. Das ist jetzt nicht ein Nebenaspekt oder so, sondern das ist schon so das, was zählt.
Ja, wobei der Slack-Chat ja schon diese Queue ist für uns eigentlich, weil da meistens Links und Bilder und so weiter sind. Ja, aber Rohmaterial hätte man da genug, denn da kann man nicht einfach abbilden, aber wenn man jemand hätte, der praktisch den Content, den wir da reindonnern, aufbereitet in einem 16 zu 9 oder iPhone-Format einfach schönen, also wenn jemand das mal machen möchte, fände ich interessantes Experiment.
Naja, aber es muss dann trotzdem natürlich ein, wie soll ich sagen, ein eigener Stil dabei sichtbar werden. Und nicht einfach nur so ein hier ist das nächste Bild, hier ist das nächste Bild, hier ist ein Webbrowser. Das ist langweilig. Es muss auch und deswegen rede ich vielleicht auch von VJing, weil ein VJ ist ja nun auch nicht einfach nur so ein Knopfdrücker, sondern VJing bedeutet ja auch, da so eine kreative Note reinzubringen und einen Stil zu haben. Also eine Handschrift, das ist vielleicht das, was ich suche, das Wort. Genau, also ich wollte das auch nur mal so in den Raum stellen und bin für alle Tipps dankbar und ich würde mir auf jeden Fall mal dieses Mimo anschauen, das vielleicht auch eine Option ist, aber alles steht und fällt mit diesem Channel-Ding. Also es muss sozusagen von mehreren Leuten also mindestens zwei Personen, zwei Plus-Personen gestaltet werden können und dann wird es erst spannend. Ja. Dann, wir haben uns ja hier über Staubsaugerroboter unterhalten.
Ja, womit das Ding zwar weiterhin seinen bisher programmierten Zeitplan verfolgt hat, aber man konnte keinen Einfluss mehr drauf nehmen, wann dieser Zeitplan ist oder stoppen oder sonst irgendwas. Einfach nur so, nein, einmal am Tag wird jetzt geputzt. Und das war's dann. Ich hab ja so ein Nito. Und ein Nito ist vor einem Jahr oder zwei von Vorwerk gekauft worden. Und Vorwerk hat jetzt aber sozusagen Nito gedroppt. Also die Nito-Webseite sagt so, wir sind irgendwie außer Business. Und du kannst aber hier noch auf den Support-Button klicken und die Cloud läuft halt noch, aber das war es dann auch und dann hast du noch irgendwie so die ganzen Hilfe-Seiten, die auch nicht so richtig helfen. Ja, und ein bisschen unklar, was sie damit vorhaben, aber das scheint nicht so ein geiler Move geworden zu sein. Ich glaube, Vorwerk hat noch unter eigener Marke auch noch solche Staubsauger-Roboter am Start.
Ja, weiß aber auch nicht, wie sie damit vorgehen, aber die eigentliche Frage, die damit natürlich wieder aufkommt, so ist, okay, okay, was mache ich mit meinem Produkt, wenn die Cloud abgeschaltet wird, weil die Firma ja dann sozusagen gar kein Geld mehr damit verdient, sondern es nur noch Kosten hat und die ganze Zeit irgendwelche Pfennigfuchser in der Vorstandsentage halt darüber entscheiden müssen, wie lange sie da sozusagen noch einfach Geld reinfanneln, damit sie nicht so schlecht dastehen, obwohl es ihnen eigentlich irgendwie auch egal ist. So haben die Leute doch einen neuen Sturmsauger gekauft.
Nee, tut sie nicht. Spricht über die Cloud mit dem Staubsauger und der zeigt dir dann, wo er gefahren ist und dieses und jenes und dann kannst du deine Pläne bearbeiten und so weiter und ich glaube, wenn die Cloud ausfällt, dann kannst du halt noch den Homebutton drücken und den jetzt Staubsaugen-Button und dann war es das wahrscheinlich.
Ich bin ganz bei dir. Chat sagt auch, Roborock funzt rudimentär ohne Cloud, das ist ja auch schön und das ich muss auch sagen, ich bin dann hier so ein bisschen zusammengezuckt und dachte mir so, ich wollte die eigentlich doch noch ein, zwei Jahre nutzen, und dann habe ich halt aber auch schon Pläne gemacht, okay, was machst du denn jetzt, wenn sozusagen jetzt deine, dein Staubsauger in die ewigen Cloud-Gründe verschwindet, und ja, dann ist es mir natürlich hier deine Story mit deinem Roborock eingefallen und ich muss auch zugeben, ich habe mir die, Diesen S8, diesen Nachfolger davon angeschaut, der sieht schon wirklich sehr schick aus. Also das wäre eigentlich genau das Richtige.
Also ich habe irgendwie das Maximallmodell 7 so mit Waschen und Ding-Doc. Das ist eine gute Grundreinigung schon mal, wenn man es laufen lassen kann. Bei uns ist es eher so, dass die Lego-Obsession des Nachwuchses etwas dafür sorgt, dass wir den nicht einfach so rund die Uhr fahren lassen wollen, weil ansonsten haben wir Ligo-Teile vermisst, Kleinteile, die zwar da in den Filter landen und so, wäre schon okay, aber also die Situation, dass der immer saugen kann, weil der Boden frei genug ist und nicht voller Kinderspielzeug, ist halt selten. Deswegen ist er seltener im Einsatz, als man gerne hätte.
Genau, das hat nichts mit dem Ding zu tun. Wenn es fährt und wenn man es regelmäßig genug Boden Klarheit schaffen, dann war es auf alle Fälle eine super Bereicherung, weil er halt einfach so, wenn der einmal am Tag fährt, ist halt einfach mal eine ganz andere Raumsituation gefühlt. Das ist schon angenehmer. Auch wenn er saulaut ist natürlich.
Genau, ich habe die Gelegenheit ergriffen, mir von einem Bekannten, der hin und her sich bewegt zwischen Amerika und hier, eine mitbringen zu lassen. Ich habe eine eigene, ich habe mir diesen Luxus gegönnt, weil ich einfach scharf, wie auch schon in den Folgen davor gemeint bin, scharf drauf zu wissen, wie dieses Interaktionsmodell funktioniert und deswegen bereue ich das auch nicht. Ist aber scheiße teuer, ist schon so ein Luxusding, wenn man sowas machen will.
Definitiv. Ich war jetzt ganz froh, dass ich mir keine kaufen musste. Das war auf jeden Fall, Um es mal vorwegzunehmen, es war auf jeden Fall sehr interessant. Also ich hatte vorher, habe ich dann gemerkt, ich hatte vorher so richtig keine klare Tendenz zu irgendeiner Meinung oder zu keinem, also ich war noch nicht mal vorurteilsfähig.
Ich finde es super spannend, weil du warst ja so wir haben ja die Sendungen, die sich so, das hat sich ja angebahnt über Jahre gefühlt und du warst so lange super anti, was der Dreck soll und sowas will noch niemand und dann hat es ein bisschen gekippt und jetzt bist du neutral und dann bist du neutral darauf zugegangen, also ich fand diese Wandlung fand ich spannend, weil es interessiert mich nicht, was soll denn das Ja.
Also um es vielleicht dahingehend mal vorwegzunehmen Also meine Ablehnung oder meine Skepsis ist generell gegenüber eben diesen Headsets als Benutzung im normalen sozialen Kontext und auch als Alternativ zu den anderen Geräten. Da habe ich ja auch benannt, was ich primär als Problem sehe. Diese Abschottung von anderen Menschen, 3D macht nicht unbedingt immer Sinn, Auflösungsproblematik etc. Etc. Kann man alles nachhören. Und ich finde auch nach wie vor, dass das alles absolut viable Punkte sind. Dann kam das Announcement von Apple und ich fand es halt schon bemerkenswert, dass sie auf viele von diesen konkreten Dingen eingegangen sind. Mit diesem Display außen und mit diesem Blickkontakt. Wir haben ja einen riesen Aufwand gestartet jetzt eigentlich. Um quasi ein Produkt in die Welt zu bringen, wo sie sagen können so, ja, wir haben auch Freakshow gehört, wir wissen, was die generellen Probleme mit dieser Kategorie sein können, aber wir haben dann auch mal was vorbereitet und guckt auch mal hier. Das fand ich jetzt sozusagen interessant. Und, Jetzt habe ich mir natürlich in der Zwischenzeit auch viele von diesen ganzen Reviews, die reingekommen sind, andere Podcaster, die darüber berichtet haben, das habe ich mir alles angehört und da waren halt viele interessante Details dabei. Ich habe aber auch gemerkt, dass es sehr schwierig ist und das wird auch heute wieder sehr schwierig sein, dass wenn man das nicht wirklich selber ausprobiert, dann ist es sehr schwer zu vermitteln, was da sozusagen wirklich passiert, wir werden es aber trotzdem probieren.
Ja, vielleicht, weil es gerade nochmal so in dieser Genese ist von diesem Produkt, was ich ja ganz spannend finde. Wir haben ja, glaube ich, in der Freakshow habt ihr auch drüber gesprochen, so dieser Humane AI Pin. Also die Firma, die Leute, die mehr oder weniger Humane gegründet haben, sind die Leute, die zu dem Zeitpunkt Apple verlassen hatten, als die Vision Pro in Planung war. Also die haben genau, auch aus einem ethischen, dystopischen Grund mit, die Leute wollen nicht diese Displays auf dem Gesicht, das ist nicht eine Zukunft, die wir gerne hätten, haben die auch verlassen. Also der AI-Pin ist jetzt auch nichts geworden, finde ich, aber ich finde es eine interessante Background-Information, weil die haben ja das in ihren Medien, in ihrer Präsentation mehr oder weniger auch so Seitenhieber gemacht, wo sie gesagt haben, wir denken nicht, dass ein Screen vor den Augen die Zukunft ist, sondern eher das andere. Aber es ist wirklich eine große Menge Apple-Leute, die im Design fertig waren, die nicht an diese Idee von Vision Pro geglaubt haben. Nur so als interessante Landschaft.
Nein, mein Lieblings-Nörgelpunkt ist da immer, es gibt diese Geste, um in einem Navigation-Stack zurück zu navigieren, indem man mit dem Daumen von der linken Seite rüber zieht und dann navigiert man zurück. Das funktioniert, wenn man es auf der rechten Hand hat, relativ zuverlässig, weil man muss weit rübergreifen. Wenn man das iPhone in der linken Hand hat, ist der Daumen aber standardmäßig da, wo man die Geste auslöst und man kann sämtliches horizontales Swipen nicht benutzen, ohne dass man zurück navigiert. Es geht einfach nicht und man kann es verdammt nochmal nicht ausschalten. Man kann diese verdammte Navigation-Stack-Geste nicht ausschalten. Das ist, gut, beschwere ich mich schon seit Jahren nicht mehr, weil es keinen Sinn hat, aber wie gesagt, also Linkshändertum findet bei Apple nicht statt. Weiß ich nicht, was das für eine Art ist.
Aber es gibt ja so viele Sachen, Autoschlüssel, die ausklappen, funktionieren nur in der rechten Hand oder solche Sachen. Oder versuch mal mit der linken Hand einen Korkenzieher in eine Beinflasche zu drehen, das kannst du komplett knicken. Und solche Sachen. Also das sind halt irgendwie, naja, aber es ist halt ein Rechtshänder-Welt. Okay.
Vielleicht erstmal die ersten Gedanken komplett ablegen. Also ich war offen jetzt für alles, denke ich. Und ich war halt sehr gespannt, ob ich irgendwas entdecken werde. Und ich sage, geil, das brauche ich. Was es ein bisschen schwierig gemacht hat, das kann ich auch gleich vorweg nehmen. Ich hatte jetzt die Brille ohne irgendwelche Korrekturlinsen. Und obwohl ich im Großen und Ganzen kein Problem hatte, irgendwas zu erkennen und das alles zu bedienen, gab es so im Grenzbereich für mich schon Probleme mit der Schärfe. Also wenn ich ein Fenster weit von mir weg hatte, dann war es ein bisschen unscharf für mich und ich bin mir nicht hundertprozentig sicher, aber es kann sehr gut sein, dass wenn ich vielleicht eine von diesen Lesebrillen einsetzen. Die man ja so hätte dazukaufen können, da braucht man kein Rezept für oder keine Bestätigung von irgendeinem amerikanischen Augenarzt, also jetzt so eine ganz normale 1,0 Lesebrille Korrektur, kann sein, dass das für mich vielleicht etwas verbessert hätte, weil ich halt mittlerweile auf so eine Lesebrille meistens angewiesen bin, wenn ich was lesen will. Also auf nahe Distanz. Aber mit dieser ganzen Distanz ist das halt ohnehin so eine Sache. Ich meine, auf der einen Seite hängt das alles einen Zentimeter vor deinem Auge, auf der anderen Seite arbeitet dein Hirn und deine Augen die ganze Zeit mit irgendwie einer gefühlten Distanz, die halt sehr viel größer ist. Und das ist für mich auch sehr schwierig zu prozessieren, was da jetzt eigentlich das richtige Setup wäre. Also das wird auch nochmal interessant sein dann zu sehen, wenn das hier in Deutschland auftaucht und man in so einen Apple Store latscht und die einem dann irgendwie die Augen vermessen oder was weiß ich, was für eine Beratung, was für Tests sie dann machen, ob dann sozusagen das Ergebnis wäre mit, ja hier nimm nochmal die 1,0 Lesebrille einsetze und dann ist es besser.
Aber Lesebrille, das wundert mich jetzt ein bisschen, weil ich würde ja erwarten, dass die Brille von der Optik so ist, dass sie sich auf unendlich scharf stellt. Sprich, wenn du da reinguckst, ist es wie als würdest du ganz nach hinten gucken, damit das Auge sowieso entspannt ist, während du die Brille benutzt und dann brauchst du auch keine Lesebrille, dann ist es sowieso scharf.
Ich glaube, das ist das ganze Ding darum. Es ist sehr persönlich, wie man das wahrnimmt mit der Brille, wie diese Optik wirklich funktioniert. Ich habe viele Theorien und viele Kommentare dazu gehört, also auch bei ATP philosophieren sie viel drumherum und haben unterschiedliche Haltungen, wie scharf es ist oder nicht oder wie gut es ist. Und ich habe so ein bisschen das Gefühl, das ist so ein Device, das so vor der Nase, also so persönlich ist an der Stelle. Ja, also diese Aussagen, diese gefühlten Wahrheiten, die man selber da erlebt. Ja, es ist unscharf vielleicht, weil ich eine Lese... Es hätte anders sein können mit... Who knows? Also ich glaube nicht, dass wir... Also wir sind da alle nicht optisch firm genug, aber diese Unschärfe, die gibt es. Also es gibt diverse Ecken und ja.
Zylinderschliff heißt, also wenn du eine normale Lupe hast, dann kannst du die drehen, wie du willst, dann ändert sich das Bild nicht, weil in der Horizontalen wie in der Vertikalen der Brechungsindex gleich groß ist. So, jetzt kannst du aber eine Linse so schleifen, dass in eine Richtung der Brechungsindex ist, anders als in die andere Richtung. Und wenn du eine gewisse Art von Fehlsichtigkeit hast, dann ist deine Linse im Auge so. Also dann musst du, wenn du eine Brille hast, die gegenteilige Anpassung haben, dann ist die Linse halt in eine Richtung stärker gekrümmt als in die andere, um diesen Zylindereffekt wieder auszugleichen. Und das kriegst du aber halt auch nicht mit Scharfstellen oder so hin, sondern dann brauchst du halt eine entsprechende Zylinderlinse und die muss natürlich auch im Winkel passen.
Ich weiß nicht, wie lange die Linse braucht, um sich zu drehen, aber das kann natürlich passieren, dass wenn du dann im Bett liegst mit dem Kopf auf der Seite, dass sich die Linse langsam dreht und du dann irgendwann gar nichts mehr siehst. Das kann, weiß ich nicht. Also da bin ich jetzt auf der Nummer 1.
In diesem ganzen Kontext habe ich auch wieder noch ein bisschen Infos irgendwo auf irgendeinem Kanal reingespült bekommen, wie denn die Augenmuskeln funktionieren. Und ein Teil der Augenmuskeln ist eben auch ein Dreh des Auges, damit du praktisch so ein bisschen den Horizont gerade hältst, während dein Kopf schief ist. Also das Auge selber macht nicht nur links, rechts, oben, unten, sondern auch in der Rotation sehr unbewusst sehr viel. Also es ist einfach, diese ganze Thematik hat eine gewisse Komplexität. Und das ist ganz spannend. Wusste ich nicht, dass es einen Muskel gibt, der für die Drehung vom Auge zuständig ist.
Naja, ich wollte ja auch nur sagen ich habe bestimmte in bestimmten Momenten den Eindruck gehabt, dass es nicht total scharf war und das hat natürlich jetzt meine Bewertung auch beeinflusst, aber es kann sehr gut sein, dass das so just me ist und dass das eben durch eine entsprechende, Linsenkorrektur, ob es die Lesebrille ist oder was auch immer also weiß nicht, klang für mich jetzt auch nicht logisch, dass das weitet dann auf einmal bei einer Lesebrille und so weiter beeinflusst ist, aber es ist einfach, hier geht es auch um so Nuancen in gewisser Hinsicht in diesem ganzen Spiel, dass ich da mich überhaupt nicht befugt finde, zum aktuellen Zeitpunkt, irgendeine Prediction zu geben, was da jetzt sozusagen die richtige Korrektur wäre oder, woran das liegt oder ob das jetzt noch eine Frage der Software ist, die vielleicht noch angepasst werden muss, kann alles sein.
Ich glaube das geht nicht, weil die sind so, da ist der Platz nicht dafür. Also das Insert, also da wo deine Augen reinkommen, das ist schon so rund, das ist so eine Höhle, wo du deine Augen reinsteckst. Also sie arbeiten schon daran, dass der Bildschirm wirklich möglichst nah an dir dran ist und diese Inserts dürften dann auch entsprechend gekrümmt sein. Aber ich hatte jetzt keine im Zugriff.
Also vielleicht sollte man nochmal am Anfang jetzt erstmal erklären, okay was ist denn jetzt eigentlich die Hardware tatsächlich, was kommt da? Man macht irgendwie die Box auf und dann liegt das Teil halt da so vor einem, die Fotos davon werdet ihr ja alle gesehen haben. Und es gibt dann eben diese hübsche Befestigungsschlaufe da hinten zum Festdrehen, die man aber eigentlich nicht nimmt, weil die sieht zwar gut aus auf Fotos, aber du hast dann halt oben nichts und dann ist das doch signifikante Gewicht von dieser Brille zieht dann doch sehr nach unten. Und, die Brille besteht halt aus diesem vorderen Teil, links und rechts sind diese Stege reingeklippt, die kann man ja auch rausnehmen, da sind diese Lautsprecher drin, die Lautsprecher, werden also nicht ins Ohr gesteckt, sondern die liegen wirklich nur da drüber und sind also wirklich im eigentlichen Sinne Lautsprecher, und die Verbindung zwischen Zwischen der Brille und dem Gesicht ist dann halt nochmal begleitet mit so zwei Einsätzen. Das eine ist halt ein, wie heißt das eine, wie heißt das andere? Es gibt das Light Shield.
Das so ein bisschen Abstand macht und von der Form her ein bisschen interessant ist. Das gibt es in diversen Ausführungen. Da macht man vorher einen Face. Einen ID-kamerafähigen Scan, damit man das richtige Modell bekommt. Die haben, zwei Zahlen und einen Buchstaben. Ich habe die 2-2-W und inzwischen ist irgendwie auch rausgekommen, was was bedeutet ungefähr. Es ist nicht nur einfach eine Größe, sondern es ist wirklich so eine gewisse Menge an Gesichtsformen. Es gibt da eine irre Kombination davor. Und da drauf gibt es dann wiederum zwei verschiedene Polster und zwar ein bisschen dickeres und ein bisschen dünneres, so einfach einfach um den Abstand ein bisschen größer oder kleiner zu machen. Und mit dem größeren Abstand könntest du theoretisch, glaube ich, versuchen, die Brille aufzusetzen, aber ich glaube nicht, dass sie groß reinpasst. Also eine Geschichte, die ich interessant finde, ist, Dass der untere Teil, da ist so eine Nasenklappe dran irgendwie an diesem dickeren Einsatz, also an dem allgemeinen Einsatz, den man als erstes drauf macht, der so angepasst ist. Und ich habe die als erstes auch so angezogen, dass das andersrum über die Nase war und dann geht da Licht rein und das ist blöd. Und der Zweck des Ganzen ist ganz spannend. Dieses ganze Ding ist ja relativ trotzdem ein bisschen durchsichtig. Und es ist vor allem luftdurchlässig. Und das ist der große Vorteil. Das Ding hat so eine Ventilation und Belüftung, dass die Linsen nicht beschlagen. Es ist das erste dieser Geräte, das ich aufgehabt habe, das mir noch nie die Linse beschlagen hat. Und ich bin so ein Schwitzer. Und das ist die Hölle gewesen. Das war für mich immer so ein totaler Abturner. Bei all den Quests oder was auch immer ich aufhatte. Erstmal, also ich habe die nur mit Föhn benutzt. Also ich habe wirklich, ich habe einen Föhn nebenbei gelegt und den habe ich da von unten reingepustet immer wieder, um dieses Ding wegzumachen und irgendwann nach einer Viertelstunde ist das Zeug auf Temperatur und dann beschlägt es nicht mehr. Aber bis dahin musste ich immer föhnen, ob das jetzt die Playstation VR war oder die Quest oder was auch immer. Und das Gerät habe ich auf und ich sehe. Super. Naja, die Packung. Diese verschiedenen Einsätze gibt es, aber ich glaube der Korpus ist immer der gleiche. Also es gibt dieses eine Hardware-Gerät, das der Tim gerade beschrieben hat und dann nur die Aufsätze sind unterschiedlich. Das Hardware-Gerät selber ist nicht unterschiedlich.
Aber ein kleiner Nebeneffekt von dieser magnetischen Befestigung dieser Sichtsperre, eben das Blick, die ich mache, ist, das geht locker ab und man will es dann hochheben an dem Ding und man kann es nicht und es fällt einem was runter und das ist bei der Preisklasse auch ein sehr großer Schockmoment. Ist mir mindestens zwei, dreimal passiert, bis ich das Gerät praktisch an der Brille angefasst habe. Das große Problem ist, das Ding ist natürlich Apple-Style, vorne Glas alles, weil da sind Sensoren drin und eben auch noch ein Display. Das kann man auch noch zuschauen. Also das, was vorne drauf ist, was bei der Skibrille so das Visier vorne wäre. Dann gibt es außenrum so einen Alurahmen, den kann man grundsätzlich anfassen, will man aber auch irgendwie nicht, weil auf der einen Seite sind Lüfter, auf der anderen Seite sind auch Lüfter und dann sind unten auch noch zwei Kameras, die will man nicht, also die einzige Art und Weise, das Ding sauber anzufassen, ist irgendwie so mit so einem Mittel-Pinch-Griff mit Daumen und Zeigefinger. Aber das macht man eigentlich nicht an der Seite oder halt an den Henkeln, die Henkel gehen auch ganz gut, da wo die Lautsprecher dran sind. Genau, aber es ist so ein bisschen dadurch, dass es so schwer ist, man hat immer Angst, es fällt einem runter und dann ist es halt einfach mal, weiß ich nicht, 4000 Euro sind im Arsch, das ist ja so die Größenordnung, von der wir im Moment sprechen, wenn man das importiert, dass man echt unter 4000 Euro kommt kommt man da nicht ran. Und ja, genau.
Okay, dann zählen wir vielleicht nochmal auf, was es so zur Bedienung da noch gibt. Also es gibt ja eigentlich, abgesehen jetzt von den ganzen Kameras und natürlich Mikrofonen und so, gibt es eigentlich nur zwei Controls, wenn ich das richtig sehe. Also klar, bei dem einen Band hast du nochmal so einen Drehknopf, um das Band festzumachen, aber jetzt für die Elektronik, für die Software gibt es halt so eine Crown, so wie an der Apple Watch, rechts vorne, die man eben auch drücken kann und drehen kann und links oben gibt es quasi so einen Action-Button, sagen wir es mal so, nochmal so ein Button.
Genau, das ist so die Primärfunktion, also die Primärfunktion von diesen Dingern, also der Button, wie Dom schon gesagt hat, ist halt primär so Capturing, das heißt du drückst da drauf, dann kommst du sofort in Foto machen oder Video machen. Also wenn du das Ding sozusagen als Aufnahmegerät nutzen möchtest, schon mal ganz interessant, dass sie das so positionieren und tatsächlich finde ich, das ist auch eine der interessanteren Funktionen von dem Teil. Und die Crown, wenn du sie drückst, die ist quasi dein Homebutton. Also damit kriegst du dann immer wieder dieses Default-App-Menü, was wir jetzt in tausend Fotos wahrscheinlich schon gesehen haben, wo dann eben so die Primär-Apps kommen und wo man dann durch mehrere Seiten durchflicken kann und dann alle Apps, die installiert sind, finden kann. Also die kannst du dir sozusagen darüber immer einblenden. Wenn du den Button etwas länger gedrückt hältst, dann nordest du quasi deine Sicht neu ein. Also es ist ja immer die Frage, wo ist vorne? Und wenn du dich, sagen wir mal, du setzt dich so leicht schräg aufs Sofa, setzt dir das Ding auf, guckst du nach rechts, aber dann nach einer Weile merkst du so, ich will mich hier nochmal richtig hinsetzen und guckst aus, dann schaust du ja quasi für die Kamera so ein bisschen nach links und dann würdest du dein Home-Menü sozusagen immer rechts von dir finden. Also diese, wo ist die Zentrale, wo ist die Mitte für dich, wo alles erstmal bei Default erscheinen soll. Das kannst du dadurch dann machen, dass du diese Crown etwas länger gedrückt hältst und dann zack hast du die Mitte neu definiert. Das kann man also jederzeit dadurch nachpassen. Das ist auch so eine Funktion, wo man wahrscheinlich vorher gar nicht draufkommt, dass man sowas braucht. Aber das ist eigentlich das, was so diese Buttons und Dinger primär leisten. Und das war's dann glaube ich im Wesentlichen auch schon, was so an Hardwareknöpfen und Schräubchen so sich anbietet, oder? Habe ich noch was?
Genau, also der linke Knopf ist wirklich so Kamera anmachen, Kamera ausmachen, Aufnahme machen. Die Crown selber ist Homebutton, und Escape vor allem auch, ja, Doppelklick auf die Crown haut dich aus jeder Immersion sofort raus und du hast Durchblick, ich meine, das ist die andere Eigenschaft, das Ding hat Durchsicht im Sinne von, ich habe viele Kameras außenrum und ich versuche dir den Eindruck zu geben, als hättest du keine Brille auf, so, kann man gleich später noch darüber reden, wie gut es wirklich glückt oder nicht, also das ist ja auch was, viel gehypt wurde im Vorfeld, aber grundsätzlich ist das ein Kernfeature also meistens schaut man durch nur selten oder, Lässt man sich komplett mit Content beschallen. Auch von der Positionierung her von Apple. Oder auch das, was es ein bisschen anders spannend macht.
Zur Fairness halber muss man sagen, die sind interessanterweise bei den Quest-Dingern auch schon nicht schlecht. Vielleicht, aber so die Apple, also ich habe eigentlich nur Kopfhörer, AirPods drin, weil ich nicht will, dass jemand anders mithören kann. Nicht, weil ich mir denke, die Tonqualität wird jetzt besser. So, das ist die Größenordnung.
Ich habe jetzt nicht so viel Musik gehört, zumindest nicht so basslastige Musik, aber ich hatte irgendwie nicht so den Eindruck gehabt, dass da einem irgendwas fehlt. Also es war okay und wie Dom schon meinte, am Ende kannst du halt auch einfach deine AirPods noch dazu packen, das ist eine ideale Ergänzung und dann ist ja eh alles super.
Genau, das heißt, wenn du mehr reindrehst, kommt auch mehr Noise Cancellation und so weiter an den Start. Und das kommt ja auch dazu, wenn du so drehst. Was passiert, wenn man dieses Drehrad dreht? Und dann kriegt man, sein Blickfeld ist ja eigentlich, die Gegend zeigt oder da, wo man gerade steht, weil man nur Durchsicht zeigt, wird dann von vorne in so einem Radius langsam um einen rum, so langsam bis zu vollständig ausgefüllt von einem Environment. Und das ist, Environment ist ein Ding.
Jetzt greifen wir aber ein bisschen vor. Also lass uns vielleicht mal darauf gleich kommen, weil das finde ich ist nochmal so ein wichtiger Punkt. Wir halten einfach mal fest, so das ist so die Hardware, Lautsprecher sind super. Super, wenn man die jetzt aufsetzt, die Vision Pro, also jetzt sozusagen die echte Unboxing-Experience mit, das Ding ist noch komplett leer, also so hast du es ja gemacht, so ist es mir auch übergeben worden, dass ich das also mit meiner eigenen Apple-ID dann auch pairen konnte. Leute, dann gehst du halt in so einen Setup-Prozess und ich muss zugeben, ich habe mir jetzt diesen Setup-Prozess in der Reihenfolge nicht notiert. Kann sein, dass ich das jetzt ein bisschen durcheinander bringe oder was vergesse. Aber das war natürlich ganz interessant. Also du schaltest das, du setzt das Teil auf, dann, hast du ja dieses Stromkabel, was du da so reinklippst und in dem Moment, wo du das reingeklippt hast, ist das Ding im Prinzip, bootet das. Also du musst jetzt nicht nochmal irgendwas drücken oder so. Und Booten heißt, du setzt es auf und das Ding ist für einen kurzen Moment schwarz. Dann kommt ein Apple-Logo, richtig?
Genau, so wie beim Mac, der bootet. Und dann geht die Kamera an. Also das ist dann sozusagen das erste Ding, also wenn das irgendwie halbwegs betriebsbereit ist und sozusagen sagt so, hallo, ich bin's, deine Kernfunktion. Und die Kernfunktion heißt, du kannst hier durchgucken. Und dann hast du auf einmal auch wieder diese Verankerung mit dem Raum was schon mal, also bevor irgendwas aufgesetzt ist, siehst du erstmal deine Umgebung, das ist schon mal ganz gut das fand ich sehr assuring, und dann genau, weiß nicht, hast du das noch so im Kopf ich hab die Reihenfolge nicht mehr so ganz drauf also das iPhone erkennt dann erstmal natürlich.
Die Durchsicht getestet an der Stelle und bin rumgelaufen, weil ich wollte erstmal sehen, wie gut ist die Durchsicht und hab mich gar nicht an das, was er mich leiten wollte erinnert, weil ich wollte sehen, wie ist die denn so. Ja, und da ist mir aufgefallen, nach all dem Hype war sie mir zu schlecht, weil sie einen extrem viel Motion Blur hatte. Also man muss sagen, ich habe das, der Bekannte von mir ist erst abends angekommen, also der ist mittags mit dem Flieger angekommen, brauchte ein bisschen Erholung und wir haben das abends getestet, es sind schlechte Lichtverhältnisse. Lichtverhältnisse machen einen riesen Unterschied für das Gerät. Und dann muss ich feststellen solange man den Kopf gerade hält ist der Durchblick super, Aber wenn man dann den Kopf bewegt, dann hat man einen sehr absurden Motion Blur, der einem diesen Durchschnittseffekt ziemlich kaputt macht, finde ich. Also da muss man sich lange dran gewöhnen, dass es kurzzeitig unscharf ist und dann ist es in Ordnung. Aber es ist nicht so, also alle haben gesagt, ja das ist genau so, als hätte man auf und ab und so, als hätte man nichts an und das ist mitnichten so. Also der Blickwinkel und so ist super, die Auflösung ist auch adäquat, aber die Kameras sind sowohl von der Lichtempfindlichkeit als auch von der Schärfe, die können noch ein paar Generationen besser werden.
Es ist besonders schlimm, wenn das Licht schlecht ist, aber es ist auch nicht perfekt, wenn das Licht da ist. Also wenn das Licht da ist, dann ist es ungefähr so, auf so einer Handdistanz ist halt was, ich meine, es ist verhältnismäßig schon cool, du kannst dein Telefon bedienen, ohne dass du die Brille absetzt. So, die Auflösung hast du, du kannst es lesen und so weiter.
Ja, zu dem Motion Blur nochmal, also man muss sich das jetzt nicht so vorstellen, dass wenn man nach links guckt schnell, dass dann so alles auf einmal in so Streifen übergeht. Es ist nur so, du guckst woanders hin und das Eye-Tracking braucht einen Moment, bis es sozusagen das dann auch umsetzt und umsetzen heißt, dass an der anderen Stelle, wo ich hinschaue, dann nochmal nachgeschärft wird. Ich weiß nicht, ob das generell diese Funktion ist, die für dieses Rendering auch zuständig ist. Dom, ich weiß nicht, wie du das siehst, also was der Grund dafür ist, das ist mir nicht so ganz klar, aber der Effekt ist auf jeden Fall der, du schaust irgendwo hin und dann ist es für so einen ganz kurzen Moment, erst ist es nicht so richtig scharf und dann ist es scharf.
Also der Grund ist mir nicht so hundertprozentig klar. Es hat glaube ich was damit zu tun, dass, so wie ich es verstehe, um dieses 3D-Bild, das die Kameras außen aufnehmen, auf die Augen zu mappen, was ein bisschen höher ist, ein bisschen anders die Geometrie zu machen, müssen sie ein bisschen mehr Informationen haben von allen Sensoren und sind deshalb ein bisschen langsamer. Weil, wenn du in 2D guckst oder eine Aufnahme machst, dann hast du diesen Blur nicht. Den Blur hast du, wenn du die Brille auf hast, auf den beiden Augen. Also das ist glaube ich wirklich so eine, Geometrie, Anpassung und es muss genau sein und irgendeiner von den Sensoren ist noch zu leggy dafür. Das ist, glaube ich, mein Eindruck. Aber who knows. Es sieht halt kurzzeitig so aus, als wären zwei Bilder praktisch noch übereinander gelegt.
Das ist ja was anderes, genau, aber das ist Foveated Rendering und das ist was anderes, weil das fällt dir innen nicht auf. Weil das ist einfach nur eine Optimierung, die passiert. Die können wir mal kurz beschreiben, weil so schwierig ist die nicht. Das Ding hat Augensensoren, das heißt, es weiß, wo du hinguckst und um Performance zu sparen, ist nur der Teil scharf. Wenn du jetzt Screen Capture machst, dann fällt dir das auf, weil du dann genau siehst, wo die Person hingesehen hat und der Rest komplett unscharf ist. Diese Unschärfe hast du, wenn du es aufsitzt, nicht. Weil sobald du, also das ist schneller scharf, was du hingucken kannst. Also das ist technisch geil gelöst. Und das ist eben eine ganz andere Unschärfe. Weil die ist ja eher nur einfach die Auflösung runtergerät. Das ist wie es wäre mit Mapping, aber halt am Augen Mittelpunkt, da wo du hinguckst.
Es ist jetzt aber auch kein Effekt, wo man sagen muss, das ist jetzt schon der totale Dealbreaker. Also das ist schon was, woran man sich gewöhnen kann. Und ich glaube, es ist auch nochmal ganz wertvoll, nochmal zu wiederholen, was du gerade gesagt hast, Dom, das ist mir nämlich auch erst danach klar geworden. Man schaut ja in die Welt. Die Kamera versucht deinen Blick zu simulieren und dir ein entsprechendes Bild so zu liefern, als würdest du da selber gerade hinschauen, was du ja nicht tust. Aber da, wo deine Augen sind, sind gar keine Kameras, sondern die Kameras befinden sich etwas weiter oben und etwas weiter unten und das heißt, sie müssen diesen Blick, die Blickrichtung oder den Winkel korrigieren in Software. wäre. Und das ist also nicht so ein einfaches Durchschalten eines Videosignals, wo man sich denkt, wieso gibt es da irgendwie noch überhaupt irgendeine Verzögerung, sondern das ist halt auch ein digital, begleiteter Vorgang, der in irgendeiner Form ein Berechnungsrendering ist und das unter Umständen hier schon wirklich auf der. Maximalen Geschwindigkeit arbeitet, die diese Elektronik gerade liefern kann. Mit anderen Worten, das ist ein steigerungsfähiger Aspekt. Es kann sehr gut sein, dass das in der nächsten oder übernächsten Generation weg ist und dann auch gar kein Thema mehr ist und dann weißt du noch damals, als es diesen Motion Blur gab und so weiter. Also das ist vielleicht nicht so wichtig, wenn es darum geht einzuschätzen, was hat das Ding für ein Potenzial, sondern es ist mehr so eine Feststellung mit so ist jetzt dieses konkrete Gerät.
Und das finde ich insgesamt, das ist so ein bisschen ein Thema auch, das sich zumindest in meiner Bewertung durchziehen wird. Es gibt Es gibt viel Potenzial von... Das technisch in der Zukunft viel besser gelöst wird. Also da, wo wir jetzt beim iPhone und beim iPad ziemlich am Ende der Fahnenstange sind, sind wir halt bei der Vision Pro am Anfang. Das ist praktisch das Minimal Viable Product, das gut genug ist, um diese Art von Computing zu machen. Und was ich nochmal dazu sagen will, ist, ich habe die Durchsicht auch von der Quest 3 im Vergleich gesehen, also selber benutzt und diese geometrische Verzerrung, die dadurch stattfindet, dass die das nicht macht, die ist sehr deutlich sichtbar. Also wenn man die Quest 3 aufhat, ist die grundsätzliche Auflösung nicht so viel schlechter, als man jetzt denkt, aber der Blickwinkel und die Sicht aus deinen Augen ist halt einfach nicht korrekt, die ist einfach schief und es wirkt alles wie ein interessantes Videospiel. Hat später nochmal, erinnert mich mal an das nochmal, es hat Auswirkungen auf andere Aspekte, auch die ein bisschen störend sind, also bei der Vision Pro. Aber so grundsätzlich ist es schon eindeutig besser, wenn dein Blickfeld genauso aussieht, wie es dein Hirn erwartet. Also auch von der Art und Weise, wie es einem selber jetzt geht, wenn man das Ding auf hat, weil es gibt ja so viele physiologische Effekte, die passieren, wenn man zwei Bildschirme vor den Augen hat über einen längeren Zeitraum, da kann einem schlecht werden, da kann man desorientiert sein, da kann blöde Sachen passieren und grundsätzlich ist meine Erfahrung mit der Vision Pro da sehr gut gewesen.
Es ist definitiv nicht 180 Grad. Es ist sehr viel weniger. Von daher hast du schon so ein bisschen, also es ist jetzt nicht so wie durch ein Fernglas gucken, auf gar keinen Fall. Also dass du so richtig in so ein Rohr reinschaust oder so, das ist es nicht. Aber es ist auch sofort klar, dass das nicht dein normaler Blickwinkel ist. Also Blickwinkel ist nicht der richtige Begriff.
Also die interessante Sache ist ja, als Brillenträger ist man sowas ja gewohnt und man kann sich wohl ganz gut darauf einstellen, wenn das Blickfeld ein bisschen eingeschränkt ist. Als Nicht-Brillenträger ist es durchaus ein größerer Nachteil, weil man kann eben nicht einfach mit dem Auge nach links gucken und dann sieht man das so weit, wie man halt am Gesicht vorbei sieht, sondern dann sieht man halt mit dem linken Auge noch ein bisschen was und mit dem rechten Auge siehst du halt schwarz. So, insofern man muss schon ein bisschen mit diesem Tunnelblick auch arbeiten, ist aber bei den meisten Headsets so, bei anderen ist es halt ein bisschen besser und das kann man natürlich auch, weil das ist auch sowas in Zukunft wird es auch besser werden noch da gibt es keine technischen Gründe dafür warum man das nicht besser machen würde, außer halt Auflösung im Verhältnis zu, zu Blickweite und im Moment, Apple wollte halt mehr Auflösung haben, Und ist auch wichtig Weil Ich finde gar nicht so, dass die Durchsicht von der Auflösung her So wichtig ist, sondern das, was man ansonsten Da rein macht in diese Durchsicht Das muss natürlich gestochen scharf sein Und das ist es.
Aber sagen wir mal so, man hätte gerne mehr, also ich hätte gerne mehr, aber es ist auch nicht so, dass man jetzt das gar nicht genießen kann. Also ich habe nicht das Gefühl gehabt, jetzt in so eine Kammer eingesperrt worden zu sein, aber es ist…, Ich würde sagen, das ist so ein Bereich, da kann ich mir sehr gut vorstellen, dass wir in zukünftigen Generationen Verbesserungen sehen werden. Also es sollte ein Ziel sein, noch ein breiteres Gesichtsfeld anbieten zu können, aber so wie es ist, ist es brauchbar und bietet schon eine Menge.
Ich muss da jetzt einfach auch mal sagen, ich meine, ich hatte das erste iPhone und ich hatte auch das erste iPad und ich hatte auch die erste Apple Watch und diese erste Generation Geräte von Apple, die sind zwar irgendwie ganz geil, was sie machen, was vorher keiner gemacht hat, aber gerade von der ersten Generation zur zweiten Generation war immer ein deutlicher Sprung und das würde ich jetzt bei der Vision auch erwarten.
Ist klar, aber wir beschreiben das ja auch nur deshalb jetzt so akribisch, damit jetzt alle, die uns zuhören, auch mal ein Gefühl dafür bekommen, wie ist es denn jetzt sozusagen, was sind denn jetzt die realen Constraints der Hardware, in dem sich das dann alles abspielt, worauf wir jetzt eigentlich ein bisschen hinaus wollen.
Ich denke, Apple geht den Schritt in eine andere Richtung als die anderen. Dann machen wir es mal so. Kommen wir mal vielleicht kurz zum Setup. Also jetzt haben wir die erste Wahrnehmung gehabt, man setzt sich das Ding auf und bevor irgendwas eingerichtet ist, kann man halt durchschauen. Und das eben in diesen Constraints, die wir jetzt so genannt haben. Dann kommt das Setup. Also ich meine, es fängt damit an, dass so wie wenn man sich ein HomePod kauft, das Ding erscheint dann sozusagen sofort auf deinem iPhone. Oh, eine Apple Vision Pro, möchtest du Setup machen? Ja, zack, bumm, möchte ich gerne machen und dann fangen halt Vision Pro und dein iPhone an, sich über alles mögliche zu unterhalten und dann fängt das Ding irgendwann an so zu booten und dann kennst du halt dein WLAN und deine Apple ID und das ist halt irgendwie alles aufgesetzt und so. Dann musst du dir eine PIN geben, wie für das iPhone, dann hast du das erste Mal so eine Eingabe und ich glaube, ist das vor dieser Sicht, erst kommt diese Sichttest-Geschichte.
Ich hatte gleich wieder ein Flop-Setup, aber ich hatte natürlich auch eine ältere Vishnu-S-Version, während ich installiert war. Also du hast ja zwei Updates schon drauf gehabt auf deiner. Bei mir war dann so ein richtig, also es waren interessante Flops. Also das eine war, ich hatte keine Uhr dran und deshalb war mein Telefon nicht anlockt und mein Telefon hat natürlich mich mit der Brille auf nicht erkannt. Also musste ich dann erstmal mein Telefon anlocken, durch die Brille zum Durchgucken mit dem Passcode was ist so ein bisschen, also das ist so ein, das war so ein bisschen, aber das ist auch noch ein ongoing complaint, weil man könnte natürlich auch wie mit der Uhr das anlocken und dann bei mir ging da leider dieser komplette Setup-Prozess so ein bisschen schief, ich war da so ein, Ja, so ein klassischer Beta-Tester, dass es nicht so dolle geklappt hat und dass ich dann auch nicht wusste, soll ich vom Backup einspielen? Ich habe doch gar kein Backup gerade. Ich will aber meine Daten drauf haben. Was soll ich tun? Also ich war so ein bisschen underwhelmed von dem, was ich eigentlich erwartet habe von Apple, wie der Ablauf läuft, weil ich ein paar Fragen als erfahrene Apple-Nutzer nicht beantworten konnte, ohne mir einzuscheißen, dass ich vielleicht das Falsche ausgewählt habe. Aber nichtsdestotrotz, danach hat es auch geklappt und ist alles draufgesungen. Dauert aber halt eine ganz schöne Weile.
Also ich weiß jetzt, wie gesagt, nicht, ob ich jetzt genau die Reihenfolge hinbekomme, aber was auf jeden Fall dann relativ früh kommt, ist eine Kalibrierung deiner Augen. Also ich glaube, das allererste ist, du sollst einfach nach vorne gucken. Das ist, wenn diese beiden Augengrünen Dinger da zusammenschieben. Also du guckst erst mal rein und dann messen sie sie und vermessen erstmal das Auge. Damit geht's dann los. Und dann musst du an bestimmte Punkte gucken und das bestätigen. Da kommen wir dann jetzt auch schon zu der ersten Interaktion. Halt das mit den Fingern, das Ding. Erkennt deine, ah ne genau, die Hände. Die Hände kommen als erstes.
Also ne, als allererstes ist wirklich der Augenabstand. Und der wird eingestellt, indem er praktisch eingeblendet kriegt, so eine Brille in beiden Seiten. Also man sieht praktisch so einen Brillenumriss in beiden Seiten und dann sagt der Text, drücke die Crown so lange gedrückt, bis das stimmt. Und dann fährt er praktisch den Augenabstand, der ist flexibel und der wird praktisch eingestellt auf dich, so lange bis es scharf wird und das macht aber alles automatisch. Man drückt nur ganz lange die Crown.
Ja, ja, es ist schwierig, sich das alles zu merken. Naja, auf jeden Fall, egal wie die Reihenfolge ist, verschiedene Dinge. Du musst deine Hände vor die Kamera halten, da schaut er dann drauf, damit er irgendwie weiß, wie lang sind deine Finger, wie ist deine Hand etc. Dann drehst du die Hände einmal um, dann guckt er sich sozusagen die Innenseiten der Hände an, dann ist das Thema Hände auch schon wieder beendet. Dann kann er die Hand gut erkennen und man kann diese Klickgeste sozusagen machen, also Daumen und Zeigefinger zusammen, das ist sozusagen der Klick und dann erscheinen Punkte auf dem Bildschirm, die man angucken muss, also man fokussiert sozusagen diesen Punkt in so einem Kreis, so fünf, sechs Punkte, guckst dir einzeln an und du merkst schon so, oh, das Eye-Tracking funktioniert. Also du schaust es an und dann ist da so ein kleiner Punkt, der so klein wird, dann weißt du so, ich hab da jetzt hingeguckt und dann machst du Snap mit deinem Finger und dann geht das zum nächsten und klick, klick, klick, klick, klick. Und das ist schon irgendwie ganz geil, muss ich sagen. Also dieses, dass du so auf einmal so eine bionische Verbindung hast mit diesem Gerät, dass also wirklich deine Augen jetzt dein Pointer sind. Das ist schon irre, vor allem weil viele Dinge, wo man sich denkt, so Tastatureingabe und so, wir wissen ja alle, was das immer für ein Heckmeck ist, mit dem Finger dann auf solchen Tastaturen die einzelnen Buchstaben zu machen. Du bist halt mit dem Auge und deiner Snap-Bewegung viel schneller als mit den Fingern. Das ist wirklich irre. Man muss sich so ein bisschen dran gewöhnen, dass man nicht schon auf den nächsten Punkt schaut und so ein bisschen schon mal einen Schritt weiter ist, aber wenn man sich dran gewöhnt hat, dann geht es sehr schnell.
Die Augenkalibrierung, muss ich auch sagen, hat mir relativ gut gefallen vom Design her. Man guckt erstmal in die Mitte und das ist eben dieser Punkt, der so ein bisschen kleiner wird und gleichzeitig so einen Soundeffekt noch hat. Sie benutzen auch sehr gut den räumlichen Soundeffekt. Das heißt, du guckst in eine der sechs Punkte, die außenrum sind. Oder sind es sechs oder neun? Weiß ich nicht genau. Und dann guckst du da hin und dann macht der praktisch auch vom Geräusch her, das Geräusch ist auch rechts oben, wenn du nach rechts oben guckst. Und du kriegst ein visuelles Feedback, dass du du das anguckst, aber eigentlich ist es ja, dass du mit deinem Klick ihm sagst, ja, jetzt gucke ich das an. Also diese Feedback- Mechanismus, dass du ja eigentlich das Ding kalibrierst, aber er währenddessen schon so tut, als wüsste er schon, was du machst, so ungefähr. Das haben sie sehr gut hinbekommen. Und man muss es ein bisschen lange machen. Das sind so drei verschiedene Varianten davon, weil, ich glaube, wegen der Pupille, weil einmal in dunkel, einmal in mittel, einmal in hell, je nachdem, wie groß die Pupille ist dann, das Auge dann, Aber dann ist es auch gegessen. Dann wird dein Blick erkannt und dann kannst du Dinge angucken und mit dem Finger, wenn du linke oder rechte Hand, Daumen und Zeigefinger zusammen tippst, dann machst du einen Klick oder auch einen Longpress, wenn du es zusammendrückst. Die nennen es glaube ich Pinch im Englischen. Das sei vielleicht auch nochmal dazu gesagt, das Ding ist im Moment nur auf Englisch und funktioniert auch nur mit einem amerikanischen Account eigentlich, was Tim wahrscheinlich viel Spaß gemacht hat beim Testen. Und wird aber natürlich später irgendwann mal komplett international sein, aber das ist im Moment so der Fall. Und dieses Pinschen kann man mit links und mit rechts machen und das sind damit auch mehr oder weniger zwei, so wie zwei verschiedene Touches, die man damit machen kann. Ich weiß nicht, wollen wir weiter auf diese grundsätzliche Bedienung eingehen oder wie erklärt man das jetzt am besten, dass man genug Fleisch hat, um irgendwie, wenn wir drüber sprechen, sich was vorstellen zu können, wenn man es noch nicht aufhatte.
Ja, also das Setup haben wir dann eigentlich soweit durch. Also es besteht im Wesentlichen im Kalibrieren von Händen und Augen und wenn das Gerät der Meinung ist, das wäre jetzt verstanden, dann geht es eigentlich los und ich glaube da passiert dann auch nicht mehr sehr viel und dann hat man den Homescreen vor der Nase und dann geht es los.
Man kriegt ein, zwei Bedienungseinführungen so mit, jetzt unten an diesem Fenster ist so ein Balken und den kannst du angucken und verschieben. Ich glaube schon, dass du grundsätzlich noch so eine Sequenz, wie du ein Fenster im Raum verschieben kannst und vergrößern, die kannst du entweder mitmachen oder abbrechen, aber das wäre so noch die Einführung, die man bekommt.
Genau, und dann…, Dann bist du eigentlich an diesem Punkt so und dann kann man jetzt vielleicht mal darauf eingehen, was sich jetzt sozusagen nach dem Setup für Möglichkeiten ergibt. Also was macht man jetzt eigentlich mit dem Ding? Du sitzt jetzt auf dem Sofa, hast das Teil auf, du siehst deinen Raum und du hast dann diesen Homescreen vor dir mit hier Safari und Musik und was da halt alles noch so dabei ist.
Genau, genau so diese Apple-TV-Effekte ist es so im Wesentlichen. Ein bisschen subtiler sogar, so absichtlich, weil es halt viel passiert, weil man guckt ja viel an und das ist eh Ablenkung. Manchen ist das auch zu subtil, aber es ist so, du erkennst, wenn was angeguckt wird, durch leichte Lichtverhältnisveränderungen und leichtes Highlighting. Bei den Apps, die springen dich ein bisschen an, die sind fast genauso wie die Apple-TV-Geschichten, wenn du da mit dem Finger so rumswipest so ein bisschen mit den Icons. Und alle anderen Elemente haben mehr so einen Schimmer, so ein bisschen heller oder ein bisschen dunkler oder ein bisschen weniger vibrant, wie das ja so heißt bei diesen ganzen Geschichten. Aber du weißt es meistens schon recht gut, was du anguckst in dem Moment. Und dann kannst du, wenn du siehst, kannst du es eben drücken, indem du entweder einen Finger kurz tippst oder lang tippst. Und wenn du lang tippst, dann ist die interessante Geschichte, also wenn es nicht nur ein Klick ist, die weitere Bewegung, die du dann auslösen willst, zum Beispiel, um im Homescreen von Apps zu Apps zu kommen, praktisch die App-Screens zu swipen, mehr oder weniger, die funktioniert dann mit dem Handgelenk. Du hast praktisch, du guckst was an, dann machst du deine Finger zusammen und ab diesem Zeitpunkt ist dein Handgelenk und deine Hand die Bedienung, nicht mehr das Auge. Das Auge ist schon wieder woanders und fertig, solange du deine Finger zusammen hast. Und dann kannst du praktisch so nach links scrollen und loslassen zum Werfen, dann hast du so eine physikbasierte Scrollerei, wie du im iPhone und iPad auch hast. Oder du kannst es halt in Ruhe loslassen. Und das ist ein ganz interessanter Moment, weil du kannst halt wirklich relativ genau mit dem Tracking von deinem Handgelenk dann steuern. Also das fand ich sehr gelungen in Summe. Es ist ab und zu, es gibt schon Fehlbedienungen, so ist es nicht, aber es ist erstaunlich, wie fein du es machen kannst und auch wie du deinen ganzen Körper dafür einsetzen kannst. Du kannst damit sehr genau steuern, wenn du willst. Also das Auge selber ist relativ grob. Das braucht relativ große Hit-Targets, wo du mal startest. Aber wenn du da was in der Hand hast, dann kannst du wirklich, wirklich sehr exakt was machen, wenn du willst. bist. Zur Not kannst du deinen ganzen Körper ein bisschen vor und zurück im Raum bewegen und deine Hand festlassen. Und diese ganze Bedienerfahrung ist einfach so ein bisschen, da war ich sofort so Minority Report oder whatever. It's the future, you got me. Für mich war das in der größten Ordnung von Bedienfreude, wie es jetzt wirklich, Touch-Bedienung war am Anfang auch, finde ich. Und das ist auch nach wie vor, wenn ich das Ding aufhabe und mal eben mein Fenster irgendwo hin und sonst, das klappt einfach grundsätzlich. Das ist so smooth und so nett und so wenig Belastung für die Hände. Das stimmt.
Ich würde sagen, bei den Sachen, die so potenziell hätten schief gehen können, ist das bei mir so Platz zwei Top-Liste, was so richtig, richtig gut funktioniert hat. Das ganze Handtracking funktioniert irre gut. Und wenn es mal nicht funktioniert, dann hat es meistens was damit zu tun, dass du die Hände dann doch irgendwo hinter deinen Klamotten versteckst oder gerade deinen Kopf so hältst, dass die Kamera einfach die Hände nicht sehen kann. Man gewöhnt sich so sehr daran, dass es funktioniert, dass du dann, was weiß ich, die Arme nach hinten hinter deinen Kopf legst und denkst, du könntest jetzt irgendwie weiter klippen und pinchen und zoomen und so weiter, was natürlich dann nicht geht. Also du bist schon gezwungen, deine Hände vorne zu halten. irgendwo zumindest. Das ist dann fast schon ein bisschen enttäuschend. Da würde ich mir fast schon noch so Kameras nach hinten wünschen. Ich will immer getrackt werden.
Ich will eigentlich zwei Uhren dran und dann sollten die einfach alles weiter tracken. Vor allem das Pinschen auch. Dieser Unterschied, wenn du mit deinen Händen aus dem Blickfeld dann verschwindest, das relativ groß ist und auch dadurch, dass die Kamera ziemlich weit nach unten zeigt, auch wirklich breit. Aber dann ist halt der Weiser nicht mehr dass du die Hände noch zusammen machst. Kann er auch nicht. Und dann wird es wirklich blöd, weil dann hast du halt so einen Touch, der hängen bleibt und so und das, ich weiß nicht, mir passiert das sehr viel, weil ich bin halt auch jemand, der, Dinge immer extrem bedient so und mit dem Arm rudert und so und auch der halt gerne auf der Couch so lümmeln würde und dann die Hände sind hier so oben über dem Kopf hinten und kraulen und würden gerne tippen. Und das geht natürlich dann nicht. Also müssen sie ein bisschen nach vorne sein, aber die andere Hand, die vorne liegt, also man kann schon auf dem Schoß die Hand liegen haben und dann tippen. Das geht. Also man muss Man kann das sehr entspannt machen, was glaube ich auf Dauer für diese Bedienung, für diese ganzen körperlichen Gebrechen, die mit Computerbedienung einhergehen, super wichtig sind, weil wenn man verkrampft sowas bedienen würde oder ständig nur direkt touchen kann, dann würde es nicht gut funktionieren.
Also was auch interessant ist, so für einfache Bedienungen geht auch direkt Untouchen. Also man kann praktisch den Tipp auch machen, meistens indem man auch tippt. Also man kann praktisch auch näher an die Apps rangehen und dann die App antippen, die man starten will. Das funktioniert. Und man kann auch auf dem Zahlenfeld, wenn man jetzt den Pin eingeben muss, kann man den tippen. Man muss den nicht angucken und pinchen. was natürlich, Security-technisch eher schlecht ist, weil die Leute sehen dann, was du tippst. Aber ich mache es schon ab und zu, muss ich sagen. Mir ist es ab und zu lieber.
Die ist eben. Abgesehen von diesem Home-Menü, was sozusagen überall schwebt, so im Raum, vor dir einfach nur die Icons in der Luft, hat alles andere schon so eine Fensterartige Verankerung. Und wenn du halt jetzt, was weiß ich, Safari auswählst, dann geht halt ein Browser-Fenster auf Und das schwebt dann irgendwo gefühlt einen Meter vor dir.
Genau. Und es hat halt dieses transluzente Ding. Und das ist jetzt aber auch wirklich... Mein absoluter Platz 1 an, oh mein Gott, was bin ich unfassbar beeindruckt davon, wie gut sie das hinbekommen haben, das ist halt einfach, das Ding steht halt im Raum und damit meine ich, es steht im Raum. Und wenn du halt mit deinem Kopf wackelst und wenn du irgendwie deinen Körper bewegst und deine Kamera hin und her wabbert und niemand sitzt still, du hast immer Bewegung, immer schaust du irgendwo anders hin, dieses Fenster bleibt einfach immer an der Stelle und da wackelt nix. Kein Jitter, kein Blitzen, kein Pixelflashen, kein irgendwie ja im Wesentlichen ist es schon da, aber nicht immer, sondern das ist da einfach wie reingemeißelt in deinen Raum und das ist wirklich unfassbar. Also das haben sie so gut hinbekommen. Ich glaube, dass es auch, wenn sie das nicht hinbekommen hätten, dann hätten sie das Ding nicht geschippt, aber das ist wirklich genug. Also ich war mehrfach erstaunt, wie gut das funktioniert und das ist halt die Basis. Das heißt, dann ist diese Illusion perfekt, dass du etwas in den Raum stellst, dass es halt da schwebt einfach so vor dir mit Schattenwurf und dann kannst du es halt irgendwo hinlegen. Und wenn du dann unten an dieses Fenster deinen Blick wendest und auch nochmal tappst, das ist halt auch das Ding. Also du hast zwar immer dieses Eye-Tracking und man denkt sich so, naja, ich muss immer alles nur angucken und dann tut es das. Das würde aber dann bedeuten, dass wenn du so hin und her schaust, jedes nur irgendwie erdenkliche Interaktionselement immer auch sofort aufleuchtet, wenn du da mit deinen Augen drüber gehst und das würde natürlich stören und deswegen ist es manchmal wichtig, dass du das auch erstmal aktivierst. Weißt du, hast du deinen Musikplayer, der zeigt dir dann so ein Cover an, aber du siehst nicht automatisch, wenn du drauf schaust, einen Interface-Control für Vor-Zurück-Spulen oder Pause oder so, sondern du musst es dann anschauen, einmal so ein Tab machen und dann erscheint erst dieses User-Interface-Element. Weil sonst würden ja permanent irgendwelche User-Interface-Elemente um dich herum aufpoppen und gleich wieder verschwinden und das würde dich wahnsinnig machen. machen. Und genauso ist es, glaube ich, mit diesen Controls unten, oder die muss man auch manchmal aktivieren.
Ja, genau, man muss die Fenster ab, also gerade wenn man so einen Film guckt oder so, da blenden sie sich manchmal aus, da muss man erstmal einmal tippen und die dann unten aktivieren, das verwirrt die Leute teilweise auch, weil schau halt stärker dahin, ist schon so ein Impuls, den man hat. Aber es ist und manche, es ist auch noch ein 1.0 Produkt, das heißt, ab und zu ist es auch so, dass die UI gar nicht erscheint Also wenn man es länger in Benutzung hat, ist es schon auch noch klar, das hat Kinderkrankheiten, aber das sind halt Bugs. Wenn man von denen absieht, ist es aber so, okay, man muss das Fenster, wenn man es bedienen will und es hat kein Element zum Verändern oder zum Schließen, dann muss man wahrscheinlich einmal reintippen. Und die Elemente zum Verschieben und Bedienen sind relativ schlicht gehalten. Also Fenster nochmal sind wirklich Flächen im Raum, die stehen irgendwie dreidimensional im Raum zu dir im Verhältnis und halt wirklich fest verankert im Raum in gewisser Größe, haben abgerundete Ecken alle und haben, wie Tim schon gesagt hat, auch wenn du nicht die Immersion anhast, dann wirklich in dem Raum selber werfen die einen Schatten am Boden. Du hast am Boden wirklich dann einen Schatten oder am Tisch oder wo auch immer die sind. Wenn die geometrisch so im Raum stehen, dass sie den Schatten werfen können, dann tun sie den auch. Du kannst sie aber auch einfach durch die Wand irgendwie durchsetzen und dann hast du ein Loch in der Wand, das eigentlich für dich optisch keinen Sinn macht, aber ist okay. okay. Also so eine Kinoleinwand kannst du auch hinter die Wand setzen und dann siehst du dann eine ausgeschnittene Kinoleinwand. Das ist schon okay. Und dieses Bedienelement unten ist relativ schlicht gehalten. Das heißt, man hat einen Strich, der so ein bisschen aussieht wie dieser Home-Button-Indikator auf dem iPhone. Dieser Home-Button-Strich. Und den kann man angucken und eben mit einem Pinch nehmen und dann kann man das Fenster dreidimensional im Raum verschieben und positionieren, wo man es denn gerne hätte. und links daneben ist so einfach nur ein runder Punkt, der ist auch super schlicht. Und wenn man den anguckt, dann wird es ein bisschen größer und wird ein X und damit schließt man Fenster. Und das ist bei allen Elementen so. Das heißt, bis auf, also es gibt später auch noch andere Sachen als Fenster, aber die haben eigentlich diesen Strich und diesen Punkt. Das ist so die. So die Design-Sprache. Und dann gibt es eben noch eine andere Sache, wenn man in die Ecke guckt, rechts oder links unten, werden wir unten schon diese Elemente sieht und das Fenster resizable ist, vergrößerbar ist, dann gibt es da praktisch so Anfasser an den Ecken, die auch nur ein gebogener Strich sind. Und diesen gebogenen Strich kann man angucken, nehmen und dann kann man halt resizen und dann hängt es wieder von der App ab, ob man das jetzt irgendwie so machen kann, dass es beliebig die Seitenverhältnisse ändert oder nicht, aber es ist im Endeffekt so, in der Mitte ist das Ding festgepinnt, da wo es im Raum ist und dann kann man es größer und kleiner ziehen in gewissen Ausmaßen. Und was ich sagen muss, die Art und Weise wie, wenn man das Fenster unten am Fensterrand verschiebt, die Art und Weise, wie sie das gelöst haben, ist erstaunlich intuitiv und exakt. Das macht so richtig Spaß, diese Fenster im Raum zu platzieren und man hat überhaupt keine Frage, was denn so Sache ist. Also die. Reichweite, die man so auswählen kann, ist super. Also die hat praktisch so Also die hat einfach, macht wahnsinnig viel Sinn und wenn es über die Grenzen hinaus geht, indem man es verschieben kann, dann kann man sich ja im Raum bewegen dann noch. Das heißt, wenn ich es dann noch weiter im Raum haben will, dann muss ich halt dann gehen ab einem gewissen Zeitpunkt. Aber sie haben echt eine super Range ausgewählt, wie man die verschiebt und auch einen super Blickwinkel. Also die sind immer relativ senkrecht zur eigenen Sicht. Also es sind Flächen, es ist nicht so wie bei der Quest 3 oder so, dass es gebogene Dinger sind. Es sind gerade Flächen, es sind brechen gerade, was bei größeren Fenstern auch ein bisschen schwierig ist. Aber ich glaube, es ist auch ganz ästhetisch sinnvoll, weil es einfach diese räumliche Interaktion viel klarer macht. Und es ist so ein bisschen wie wenn man diese, es gibt ja so, was waren diese 3D-Bilder mit den zwei Augen, die man so nach vorne und nach hinten schieben kann. So Stereoskopbilder, genau, die man dann so ein bisschen vor die Nase hält und vorneweg, so kann man sich das so ein bisschen vorstellen. Und so verschiebt man da eben so virtuelle Dinger, aber da ist halt Inhalte drin. Da sind Spiele drin, da sind Personen drin, da sind Webseiten drin und da kann man sich so den Raumvolk leisten.
Ja, also das ist wirklich gut gelöst. Ich kann ja auch nur zustimmen, diese Positionierung, diese Vor-Zurück-Bewegung, um die Tiefe zu bestimmen, aber dann eben auch so diese zweidimensionale Platzierung um einen herum und du kannst sie halt auch überall platzieren, du kannst sie auch direkt über dir platzieren. Kannst dich ins Bett legen und kannst irgendwie einen Film an der Decke schauen, wenn dir danach ist. Und von daher hat man auf einmal einen unglaublichen Platz, wo man so Fenster hinlegen kann. Wobei man auch sagen muss, diese Perspektiven, die sich daraus ergeben, das ist dann halt auch nicht so, dass man sagt, jetzt habe ich so viel Platz, jetzt kann ich hier 30 8K Fenster hinlegen. Deswegen, also abgesehen davon, dass jetzt die Auflösung der Kameras das natürlich so nicht hergeben oder der, nicht der Kameras, der Displays, der inneren Displays das überhaupt gar nicht hergeben würde, macht es auch keinen Sinn, weil wenn die Dinge weiter weg sind, dann müssen sie auch irgendwie größer sein. Also das ist dann halt wie im richtigen Leben. Überhaupt ist so die Menge an Content, die so in diesen Fenstern sind, ist so überschaubar. Trotzdem waren manche Sachen für mich fast auf der Vision Pro konsumierbarer als auf dem Computer. Ich habe zum Beispiel großen Spaß daran gehabt, Webseiten zu lesen. Also ich fand das Lesen von Webseiten, von so Artikeln, Irgendwie, weiß ich nicht, irgendwie angenehmer.
Aber Oder du hast halt diese Tab-Galerie wie auf dem iPad dann auch irgendwie, wo du eher durch das Grid durchscrollst, anstatt dass du das andere machst. Aber du hast auch oben so, glaube ich, drei oder vier maximal, weil du hast schon so eine gewisse, in der Grundauflösung kannst du dir vorstellen, hast du eher ein iPhone als ein iPad. Von dem, wie es von der Größe her auf dich wirkt. Also das kann man nochmal jetzt vielleicht eingehen auch darauf, es gibt ja viele Systemeinstellungen und eins davon ist auch, wie groß deine Default-Fontgröße und deine Default-Fenster sind. Und da gibt es halt ein paar Größen, aber es ist schon eher größer gedacht wegen der Bedienung, glaube ich, wegen angucken können und machen. Deshalb ist es eher so, Dinge sind ein bisschen größer. Und deswegen brauchen sie auch mehr Platz und deshalb... Sind sie weniger dicht. Also du hast jetzt nicht einen Mac-Interface normalerweise, sondern eher einen iPad und ich würde sogar sagen, sogar einen iPhone-Interface von der Grundidee her.
Ich habe jetzt gerade nochmal darüber nachgedacht, warum ich das eigentlich so angenehm gefunden habe. Ich weiß, ich mache das auch, also ich habe ja hier einen sehr großen, bin jetzt auf so einen 40 Zoll Widescreen Monitor gegangen. Ein großer Freund generell von Desktop und großen Bildschirmen und wenn ich an meinem 40 Zoller Webseiten lese, dann habe ich die auch meistens, die Schrift sehr groß, damit ich also auch wirklich in so einem Meter Abstand von diesem Bildschirm weg sein kann und genieße das, dass einfach viel Fläche bereitsteht, um den Text groß anzuzeigen. Und es ist gar nicht so sehr dieses, dass ich das jetzt brauche wegen Brille oder Sehschwäche oder so, sondern es ist einfach, ich finde, dass ich weniger Aufwand leisten muss, den Text zu erfassen, wenn er groß und klar ist. Dass ich weniger Fehlerkorrektur betreiben muss, als wenn ich das jetzt in so einem kleinen Font auf so einem sehr überschaubaren Bereich auf dem Bildschirm betrachten muss. Und insofern ist diese Vision Pro dann eigentlich die perfekte Perspektive, weil du sitzt da gemütlich im Sofa, schaust so leicht nach oben und dann prangt einfach diese riesige Webseite vor dir wie so eine riesige Leinwand, wie so ein Beamer quasi. Also du schaust auf einen Beamer, der bloß sehr scharf ist und ja, das war dann irgendwie angenehm. Also ich habe das definitiv nicht als unangenehm empfunden, wenn man dann halt... Sich ein Macintosh quasi als Fenster holt, da können wir ja vielleicht mal drauf eingehen, jetzt dieser Aspekt, also es gibt ja diese Funktion, du hast dann so dein Laptop vor dir, ich hatte so mein R und dann habe ich so drauf geschaut und irgendwie haben sie halt so eine AI-Erkennung, dass sie A wissen über Handoff, okay da ist jetzt auch ein Mac mit derselben Apple-ID und so weiter da, da, aber sie erkennen halt den Laptop als solchen. Also sie haben halt irgendwie eine, oder? Gibt es da noch einen anderen Trick? Ich glaube, sie erkennen einfach Tastatur.
Die wissen einfach, da steht jetzt ein Laptop und sie wissen auch genau, in welcher, Positionierung und über dem Bildschirm erscheint dann halt so, möchtest du dich damit verbinden und dann guckst du drauf, machst Tap und dann geht der Bildschirm aus auf deinem Laptop, der ist dann schwarz und dann erscheint halt da drüber irgendwie, eben so so als Fenster im Raum, eine 4K-Monitor-Simulation für deinen Computer. Also da ist dann sozusagen auch mehr Platz. Da ist ein größerer Bildschirm als der, der jetzt auf dem Laptop ist. Und die Fenster arrangieren sich halt entsprechend und das hast du dann vor der Nase. Das war dann der Moment, wo bei mir diese, das ist nicht der richtige Wort, aber diese Tiefenschärfe, also die Schärfe, wenn es ein bisschen weiter weg ist, ein bisschen nachgelassen hat, habe ich es näher an mich rangezogen war es für mich besser zu erkennen aber wie gesagt, das mag einfach nur meine Optik sein, aber dann habe ich halt versucht mit den Mac-Apps zu arbeiten und in irgendeiner Form zu interagieren und dann hast du natürlich auch wieder so einen kleinen Medienbruch, also auf einmal musst du dann deine Tastatur und deine Maus wieder benutzen, weil es ist ja ein Mac irgendwie so, dann ertappst du dich so ein bisschen dabei, so wie man Man anfängt auf dem Mac rumzutippen, wenn du die ganze Zeit ein iPad benutzt hast. Möchtest du dann die ganze Zeit deine Programme anstarren und wunderst dich, warum die jetzt sozusagen nicht auf deinen Blick reagieren. Also Eye-Tracking auf dem Laptop, hm. Also das wäre auch so ein Feature, das könnte ich auch im Laptop gebrauchen, weißt du, dass man einfach so Eye-Tracking hat und dann mit den Fingern irgendwie, also das fällt mir jetzt gerade erst ein, das wäre eigentlich ganz geil.
Leider nicht. Leider nicht. Also deshalb wollte ich es auch sehen, weil Apple was released mit Eye-Tracking, was funktioniert. Ich habe den Luxus gehabt in diversen, ich glaube zwei, drei von guten Prototypen von Eye-Tracking-Steuerung für Laptops. Zu fummelig, zu kleinteilig, zu unangenehm. Also was Apple da gemacht hat, ist schon sehr gut. Und du triffst nicht so genau. Also ein normaler Laptop-Screen hat einfach nicht nicht die Fidelity. Das wäre wie wenn du, stell dir vor, iOS hätte Mac-Auflösungen eigentlich und von der bedienenden Größe her. So ungefähr ist das. Also die Idee ist nicht schlecht, aber ich habe das in schlecht gesehen. Deshalb war ich ja so heiß drauf, es in gut zu sehen. Und wie gesagt, die PC-Varianten waren alle schlecht bisher, die ich gesehen habe.
Ja, okay. Also ich habe ja nur gesagt, man hat dann wieder dieses Problem, dass so ein anderes User-Interaktionsmodell in dem anderen hast Und dann musst du irgendwie da hinterher kommen. Kann man damit arbeiten? Ja, schon, wenn es konsequent scharf gewesen wäre für mich, weil ich wollte den Bildschirm dann nicht so nah an mich ranholen. Das ist auch merkwürdig, was man als angenehm findet oder so. Also wenn ich den so nah ranziehe, das Fenster, dass er quasi über meinem Laptop tatsächlich ist, also wenn ich es auf einen Meter Distanz mache, dann ist es mir zu nah, es ist mir zu aufdringlich. Und dann habe ich es halt weiter nach hinten geschoben, dass es so ein, zwei Meter Abstand hat, wie so vor so einem Beamer. Dann war es mir halt ein bisschen zu unscharf. Wäre das scharf gewesen, wäre es scharf gewesen. Dann wäre es, ich weiß nicht, ist das bei dir so, wenn du so ein, zwei Meter gefühlten Abstand hast, siehst du das dann scharf?
Also es gibt für mich eine Distanz, wo es nicht mehr scharf genug ist auch. Also ich muss den nah genug halten. Ich habe den jetzt eher so als Standing Desk benutzt mit meinem Air meistens. Und wenn ich die Default-Auflösung habe, dann kann ich ungefähr so zwei, drei Tastaturbreiten kann ich es in die Tiefe setzen, aber dann wird es schon knapp. Und wenn ich es näher ranhole an mich, dann ist das Problem, dann mache ich es meistens auch kleiner, weil ich will den Winkel nicht haben. Und ehrlicherweise muss ich feststellen, für das Air unterwegs würde ich es wahrscheinlich benutzen wollen. Und natürlich ist es geil, wenn du für die Vision Pro was entwickelst. Dann macht das wirklich Spaß. Klar. Aber wenn du jetzt einfach es nur als Monitor Ersatz haben willst, dann ist ein Monitor mir lieber. Aber es ist eine notwendige Maßnahme für, dafür, dass man da sinnvoll arbeiten kann und für entwickeln auch. Ja, also es ist spannend, es ist mit der Schärfe, ich bin hin und her gerissen, Weil ich habe jetzt diverse Meinungen dazu gehört und ich finde grundsätzlich, man kann es als Display benutzen und es ist in seiner vollen Auflösung scharf, sobald man es nicht weit genug wegstellt von einem. Was ein bisschen, was immer funktioniert ist, wenn man die Auflösung runterdreht, also wenn man die Auflösung einfach auf ein, zweiter unten dreht, die ist super scharf, deshalb hat man von der Platzmenge jetzt nicht die Größe, dann hast du nicht so viel Gewinn, aber das geht gut. Man kann es auch, wenn man wirklich viel Platz braucht, auf riesengroß machen. Das geht auch. Und dann ist halt so ein bisschen diese Unschärfe deutlicher erkennbar. Ich finde es spannend. Ich habe am Anfang ja gemeint, der Anwendungsfall alleine wäre es schon. Und das ist es für mich eher nicht. Ja, es ist ein Feature, das das System braucht, aber es ist jetzt nicht was, es ist eher was, was es braucht, weil wenn der Durchblick nicht scharf genug ist, wenn der Durchblick scharf genug wäre, dass das Display auch volle Schärfe hat beim Durchblicken, bräuchte ich nicht unbedingt.
Also es ist nicht so, dass es seine Größe beibehält in dem Sinne, dass es dann kleiner wird, weil es hinten ist. Sondern wenn du etwas nach hinten schiebst, wird es automatisch größer. Das Fenster nimmt sozusagen immer denselben Bereich deines Gesichtsfeldes ein, du hast immer denselben Winkel, ist es automatisch größer. Hat aber auch denselben Content skaliert, aber es wird einfach aufgebläht. Also das ist so ein bisschen wie bei Jim Knopf sozusagen, nur andersrum.
Und das Spannende ist, dass es trotzdem einen Unterschied macht. Also dass das selbe Fenster, dass das selbe Platz in deinem, Gesichtsfeld, Blickwinkel, was auch immer wir da jetzt genannt haben, einnimmt, wirkt anders, je nachdem, welche Distanz es hat. Ich weiß nicht genau und ich kann dir nicht genau sagen, woran es wie liegt. Aber es ist trotzdem so. Ich justiere da immer wieder ein bisschen weiter weg, auch beim Kinofilm gucken und so weiter. Ich positioniere das ist da, wo es angenehm ist und das ist immer ein bisschen anders. Also es ist so, es macht alles einen Unterschied und es ist aber super spannend auch, weil wenn man zum Beispiel so einen Film direkt vor die Nase klatscht, hat auch was. Es ist nicht so nervig wie im Kino, aber es ist halt trotzdem Zunahme, hat so ein bisschen so das Gefühl, es ist einem zu nah und dann ein bisschen weiter weg, aber im selben Blickfeld, aber trotzdem zu flach. Es ist ganz anders.
Ralf fragt jetzt, sagt, bei der Quest 3 kann man das frei und unabhängig einstellen. Also du kannst natürlich das Fenster auch, wenn du es weiter nach hinten schiebst, noch größer machen. Wobei Programme auch immer so mit Constraints daherkommen. Also es gibt immer so ein bestimmtes Maximum. Ich weiß nicht, ob das für alle Programme gleich ist oder ob das Programm das definiert. Das habe ich nicht so ganz verstanden.
Alles, und da drehen sie auch noch drum herum. Updates haben das schon verändert auch, die Verhältnisse, wie das denn so geht. Und du musst halt teilweise ein bisschen tricksen. Also du musst teilweise ein bisschen im Raum rumlaufen. Also wenn du was größer haben willst, als jetzt gerade geht, dann geht das, indem du praktisch weiter weg gehst und es dann von dir weiter weg schiebst und dann wieder näher rangehst und so. Aber das finde ich eigentlich einen ganz netten Modus, wie man damit umgeht, weil, wie gesagt, dieses Verändern im Raum ist so intuitiv, das macht einfach Spaß, das haben sie gut gemacht, das ist einfach eine geile Interaktion, die sie da geschaffen haben.
Es ist irre, wie schwierig das ist, diese Effekte zu beschreiben, aber Aber warum ist das Fenster gleich groß? Also es ist halt wirklich dieser Jim-Knopf-Scheinriesen-Effekt tatsächlich und es macht einen riesigen Unterschied. Wie weit es weg ist, auch wenn es irgendwie immer denselben Platz einnimmt. Das ist crazy. Fenster können ja auch hintereinander sein. Also es gibt dann auch so Stacking-Tiefe. Es ist nicht so, dass ein Fenster dann exklusiv diesen Bereich hat. Also es ist kein Tiling oder so, sondern du kannst da alle Fenster an dieselben Stelle kloppen. Dann siehst du bestenfalls, was vorne ist. Und es wird dann auch schwierig, die unterschiedlich zu managen und anzufassen und rauszusuchen. Also es ist dann genauso wie auf dem richtigen Schreibtisch, wenn die Zettel alle erstmal übereinander liegen, dann kommst du nicht mehr so ohne weiteres ran. Also man braucht schon so eine gewisse Platzierungshygiene, aber das macht man auch irgendwie intuitiv nicht und du hast auch nicht so viel offen immer, glaube ich.
Mit Big Privacy wird es die einfach nicht geben so insgesamt. Das ist halt so die andere Ecke, wenn man jetzt wirklich von der Entwicklerseite her möglichst freien Expressionismus haben will, was man denn alles machen kann, dann ist man auf anderen Plattformen besser aufgehoben, weil sie haben schon alles von den Entwicklern weggesperrt, was in irgendeiner Form Aufschluss geben würde, auf was man anguckt oder wie man das Ding bedient. Also du hast ganz konkret wirklich, als App kriegst du nicht mit, was angeguckt wird, sondern du sagst praktisch, okay, das ist ein Element, da kann der Benutzer drauf gucken und wenn der da drauf guckt, dann wird es geheiligt. Du kriegst aber nicht mit, dass es gehighlighted wird jetzt in dem Moment. Du kriegst auch keine Chance, dir das praktisch so zu merken. Du kannst praktisch in keinster Weise den Blick abgreifen, was aber eben auch Einschränkungen hat dafür, wie man Dinge dann gestaltet. Und deswegen so Fenster-Teiling-Apps wird es nicht geben, weil das wird keine API vergeben. Da ist man auf der Apple-Seite so. Einige von diesen Dingen, die man gerne hätte, wird es da einfach nicht geben. Gleichzeitig ist aber auch für mich das eines der größten Unterschiede, weil es ist ein in sich stimmiges. Konsistentes Bedienkonzept durch alle Apps, durch alles hindurch. Was für mich immer der größte Hinderungsgrund bei den ganzen VR-Brillen bisher war, weil jedes Spiel funktioniert ein bisschen anders, jede Bediengesichte funktioniert ein bisschen anders. Bei der Quest gibt es einfach, klar kannst du auch Handtracking und so weiter haben, aber es ist halt immer ein bisschen anders und du musst erst die App lernen, bevor du dann wieder was machen kannst. Und das ist für mich so die Stärke von Apple und ich glaube, das haben sie weit genug geschafft jetzt in diesem ersten Wurf, dass es spannend wird. Aber das ist ja schon wieder viel zu weit.
Kommen wir mal so ein bisschen auf, einen anderen Aspekt, nämlich die Sache mit dem drei Dimensionen und dem Inhalt. Also Content oder Oder wir müssen mal über Video und Filme und so weiter reden, weil das ist natürlich etwas, was sie auch pushen, zu Recht, wie ich finde, als ein mögliches Anwendungsszenario. Das ist ja immer die Frage, wofür taugt denn das Ding eigentlich? Und man kann, glaube ich, getrost sagen, man kann da ganz gut Filme gucken. Ich habe jetzt nicht viel Zeit mit Filme gucken verbracht, muss ich sagen, aber ich habe das auch ausprobiert. Es gibt ja auch so einen speziellen Kinomodus da in dieser Geschichte.
Ja, wir müssen... Entschuldigung, genau. Es ist schwierig. Es ist wirklich schwierig hier die Linien zu machen, aber es passt im Prinzip auch noch mit rein. Also generell hat man nämlich auf diesem Top-Level-User-Interface- Element nochmal so eine Dreier-Unterteilung. Das ist ja immer mal links von diesem Hauptmenü noch, oder wo war das mit diesen Apps und den People und Environments, das ist doch so links so ein Steuerelement, ne?
Genau, das ist eins dieser Standard-Elemente, man kann praktisch an Fenster links, unten und rechts und oben so Zeug dran hängen, so andere Optionen und es ist mehr oder weniger wie so eine Tab-View links, das ist ein Element von drei verschiedenen Tabs, mehr oder weniger von dem Homescreen und das erste ist Apps, das mittlere ist Leute und das untere ist Environments.
Genau, und das ist ist es schon mal sehr interessant, dass es sozusagen nochmal so eine Top-Level- Organisation gibt. Das entdeckt man auch erst nach einer Weile. Ich habe auch immer nach der FaceTime-App gesucht, um irgendwie jemanden anzurufen. Aber das ist sozusagen so weit ins Betriebssystem aufgenommen worden, dass quasi diese Interaktionsmodelle ganz klar getrennt werden. Also einerseits, Arbeitest du oder wählst du Apps aus? Du kriegst diese Oberfläche mit, hier sind deine Apps. Der zweite Tab auf diesem Level ist Personen und wenn du das auswählst, dann kommen halt Personen, mit denen du interagierst sozusagen und dann kannst du die anrufen und kannst dann FaceTime damit machen. Da erzählen wir gleich nochmal drüber. Und das dritte, das passt halt jetzt nochmal in dieses ganze Thema mit, wie ist denn hier eigentlich die Optik und so. Das sind diese Environments. Also das ist jetzt auch nicht irgend so ein Programmfeature oder eine App, die man dann irgendwie noch installieren muss, sondern das ist sozusagen ein genereller Begleiter. Und wenn man das halt anwählt, diesen Tab, dann kriegt man eine Auswahl von zwei verschiedenen Arten von Environments. Die einen sind so diese softe Variante mit, da kannst du nur so deine Lichtgestaltung mit beeinflussen. Du kannst sagen, ich möchte jetzt gerne morgen Licht haben, Abenddämmerung oder so und dann nimmt das sozusagen Einfluss auf das, wie alles gerendert wird und welchen Lichteindruck du hast, so ein bisschen so Nightshift-mäßig, mehr so Modifikator. Aber das dicke Teil sind natürlich diese richtigen Orte, wo du, wenn du die dann auswählst, du halt in Teilen, je nachdem wie sehr du das mit dieser Crown reindrehst, kriegst du halt einen kleinen Ausschnitt oder eben alles um dich herum wird ersetzt durch diesen virtuellen Ort. Und dann sitzt du halt irgendwo am Rande von so einem See und blickst auf so einen Berg und du kannst dich umdrehen und nach hinten gucken und nach oben gucken und so weiter und überall, du bist halt auch einmal irgendwo anders.
Aber es ist halt maximale Immersion. Das heißt wirklich, das ist eine Umgebung, da kannst du um dich rumgucken, die ist 3D, die hat eine Geräuschkulisse, die hat eine Farbstimmung. Und selbst wenn du gar nichts an hast und nur, ich gehe jetzt mal zum Beispiel in Yosemite rein und drehe mir den hier mal auf, dann bin ich halt jetzt so in so einer Nacht in der Wüste und das fühlt sich, das wirkt schon sehr so, als wäre ich da. Das ist schon nicht schlecht. Und das ist halt gedacht einerseits, um halt so einen Kontext zu haben und alles andere auszublenden, für für eine Sache oder halt einfach wirklich nur so mal drin zu sein, um sich ein bisschen zu entspannen, wenn man will.
Zu dieser Immersion das muss man auch nochmal klar machen, du hast es schon angedeutet, also mit der Crown kann man sagen wir mal, reindrehen wie sehr bin ich jetzt in diesem Raum und das ist halt auf der einen Seite optisch, aber es ist auch akustisch einerseits, dass wenn du die volle Immersion hast hast, dass du dann so einen Hintergrund-Sound bekommst von diesem Ort, der erst, glaube ich, so auf den letzten, Dreh kommt.
Beeinflusst ist alles, was du tust. Das heißt, das, was du hörst, hörst du dann anders. Also wenn ich jetzt mit mit Dom FaceTime machen würde Oder mit der Vision Pro. So. Und ich bin in meinem Raum. Und ich höre ihn. Dann höre ich ihn wie in einem Raum. Drehe ich die Immersion rein, umso mehr ich in irgendeiner Wüste lande, umso mehr verschwinden auch akustisch die Räume, also die Wände, die dann keinen Schall mehr liefern und du hörst es sozusagen reflektionsfrei, dein Audio auf einmal.
Genau. Genau. Und auch von der Art und Weise, wie der Schall von den Apps, die Apps haben ja auch ihren Schall praktisch so ein bisschen spatial im Raum platziert. Das heißt, wenn du was hast, was ein Video ist, dann hast du dieselbe spatiale Orientierung von diesem Video, wie du es auch mit dem iPad auch hast, wenn du das anmachst. Und da wollte ich eben noch mal am Anfang hin, wenn du die Airpods Pro im Ohr hast, dann hast du halt den Automatismus, dass es ist jetzt so spatial gerendert, wie es die Vision Pro vorhat und wenn du den Environment reindrehen, dann ist halt Noise Cancellation mit an auch und sowas. Also du hast das nicht mehr so explizit, sondern du hast das schön integriert.
Für mich ist es sinnvoll, wenn ich den Raum vergrößern will. Ich mache die praktisch so ein bisschen halb oder so ein Drittel an, damit mein komplettes vorderes Blickfeld auf meine Arbeitsfläche so ein bisschen ausgeblendet ist, aber ich den Rest von meiner Umgebung sehe. Das finde ich dann ganz angenehm, weil dann habe ich praktisch nicht so diesen Suspension of Disbelief, wenn ich Fenster in die Wand stelle, weil da ist jetzt keine Wand mehr, da ist jetzt freie Gegend. Für sowas finde ich es wichtig. Und wenn man einen Kinofilm guckt, ist es interessanterweise an der Stelle super wichtig. Also der Apple-Kinosaal, der bei Apple TV kommt, der sonst gar nichts hat, also auch wegen der Lichthelligkeit außenrum und so weiter und der Ablenkung, ist der einfach wichtig. Ja, also das Environment, das halt praktisch möglichst wenig ist, aber trotzdem ein gewisses Raumgefühl hat, damit diese Wand, die da in der Luft hängt, irgendwo verankert ist. Also ich habe da 3D-Filme geguckt, Gravity, den ich auch im Kino gesehen habe und das ist halt so, da habe ich mir das Environment Kinosaale angemacht auch. auch. Ich dachte immer, bei den anderen, also bei dem, was ich bei der Quest gemacht habe, war das immer irgendwie ein bisschen albern und ein bisschen fad und so, aber da hat es irgendwie gepasst. Das war so richtig schön, weil der Kinosaal ist schön schwarz, hat auch ganz wenig Ablenkungen dann und dann hast du halt so eine Kinofläche und du willst halt wegen dem Blickwinkel schon auch nur so einen gewissen Größe haben. Du willst ihn nicht viel größer machen, sodass du diese erste Reihe Erfahrung hast im Kino, weil da musst du deinen Kopf immer so bewegen und du willst halt genauso weit weg haben, dass du mit dem linken und mit dem rechten Auge beide die volle Fläche siehst noch. Und dann brauchst du halt Environment außenrum. So geht es mir.
Ja, kann ich sehr gut nachvollziehen. Ich fand es auch praktisch, wenn man diese Immersion so bei 80 Prozent belässt. Das hat dann so den Vorteil, dass wenn man sich nach links und rechts dreht und so ein bisschen nach unten guckt, dann sieht man noch so, wo man sitzt und dann kann man noch so seine Sachen greifen und so weiter. Also das reicht dann dann sozusagen komplett in der Immersion zu verschwinden, heißt auch so ein bisschen, den Kontakt zur Außenwelt zu verlieren, im wahrsten Sinne des Wortes. Und das ist dann nicht unbedingt immer das, was man braucht. Aber dadurch, dass man das eben durch das einfache Drehen dieser Crown jederzeit auch ändern kann und dass das so ein unmittelbares, kontextunabhängige Geschichte ist. Das ist schon eine sehr gute Entscheidung gewesen und das macht dann diese Environments einerseits noch nützlicher und andererseits erhalten sie dadurch meiner Auffassung nach auch erst die Legitimation so hoch auf Systemebene angesiedelt zu sein. Sie sind einfach so ein ganz grundsätzliches Ding, was so dabei ist und du kannst es immer steuern und kannst es immer beeinflussen und kannst es immer dazuholen oder wegmachen, wenn du es brauchst. Ohne irgendwelche App- oder Menü-gestützten Klimmzüge zu machen. Und dadurch wird es eigentlich erst so richtig nützlich.
Was ich persönlich ein bisschen strange finde, ist, dass es halt diese systemweiten Environments gibt. Und Apps können auch Environments haben. Zumindest die Disney-Plus-Apps. Ich weiß nicht, wie viele andere Third-Party-Apps auch. Und ich hätte halt gerne die auch zur Verfügung für was anderes ab und zu. Weil das ist halt schon, also bei Disney-Plus gibt es halt so den Avengers-Tower, von dem man rausguckt. Super geile Immersion an der Stelle. Also auch mit kleinen Details und Geräuschen oder du bist halt in Star Wars in so einem Gleiter und bist halt auf einem Wüstenplanet so ein bisschen.
Okay, aber kommen wir mal auf die Filme. Das ist schon interessant. Also erstmal mal ganz normale 2D-Filme anschauen, ist super. Also da gibt es, glaube ich, wenig dran zu meckern. Ich habe auch heute gelesen, es ist sogar so, wenn du dir Filme anschaust, die in Panavision aufgenommen wurden, dann hast du auch wirklich den Original-Kino-Aspekt-Ratio. Also diese 70 Millimeter.
Das heißt, du hast da keinerlei Clipping, keine schwarzen Balken, das ist alles nicht mehr der Fall, sondern alles kommt sozusagen in seine, natürlichen Aspektratio und damit kannst du dir einfach bestimmte Filme, also viel weiß ich, Panavision war mal so ein großer Trend, ich glaube heute wird nicht mehr so viel damit gemacht.
Vielleicht nicht wichtig, aber doch ganz interessant. Cinemascope, anamorphotisches Verfahren der Breitbildaufzeichnung. 2,55 zu 1, später 2,35 zu 1. Mhm. Okay. Und Panavision ist dann nochmal anders. Also auf jeden Fall sehr breit gestretchte Filme, sagen wir es mal so. Also die schon fast so Panorama-Charakter haben. Das geht auf jeden Fall. Und ohne jetzt sehr viele Filme geguckt zu haben, aber das ist irgendwie für mich klar wo ich schon total skeptisch werde aber das hat gar nichts mit der Vision Pro zu tun, das sind halt die sogenannten 3D Filme und davon gibt es ja bei Apple TV und auch bei, Disney Plus so einiges die konnte ich mir allerdings nicht anschauen ich konnte mir das nur in einem, gehackten Filmchen anschauen das hatte damit mit zu tun, dass ich mit meinem deutschen Apple-ID in so einer, amerikanisch verankerten Vision Pro hing und dann bekam ich von diesen Apps nicht die richtige Regionszuteilung und dann haben sie mir immer gesagt, das wäre jetzt nicht anschaubar. Also ich konnte mir sozusagen im Disney, in der Disney-App und in der Apple-TV-App keine Filme anschauen und deswegen auch die 3D-Filme nicht ausprobieren, sondern ich musste dann sozusagen auf, anderes Material geben, wo ich dann mit AirDrop ob ich tatsächlich einen Film auf die Kamera gelegt habe und mit so einem Partyplayer abgespielt habe. Ich mag 3D-Filme, wie sie heute im Kino gezeigt werden, überhaupt nicht. Ich finde es total überflüssig und vollkommen deplatziert. Mir gibt es gar nichts. Das ist halt auch kein 3D, sondern das ist ja nur ein 2D-Film, der dann manuell so Pepper-Cut-Aus-mäßig irgendwie an bestimmten Stellen nach vorne gezogen wird. Mehr ist es ja nicht. Es ist nicht wirklich 3D-Messal.
Naja, also sie wirken auf alle Fälle gut im Sinne von, wenn du die im Kino magst, magst du die in der Brille auch oder noch viel mehr in der Brille. Also Gravity zum Beispiel ist halt schon auch ein prädestinierter Film für diesen 3D-Effekt, weil dann bist du halt im Weltraum zwischen der ISS und dem anderen und drehst dich und das ist alles sowieso keine Orientierung, aber 3D und da bist du halt voll drin und das ist toll. Aber ansonsten ist es für mich eher ein Gimmick so, ja, es ist halt ein bisschen eine Tiefe da drin ist es es wirklich wert? Nee will ich es lieber haben, wenn ich mir mit der Vision Pro einen Film angucke und es gibt ihn in 3D? Schon, aber so aber es ist nicht wirklich wichtig also so, eigentlich hat es flach auch was smootheres, weil gerade so diese aus diese verschiedenen Ebenen und wie diese 3D-Sachen so gestaltet sind, sind auch ein bisschen ablenkend nur und machen es jetzt, wie gesagt, bei Gravity sehr gut, für manche ist es ich glaube, Avatar wird auch Sinn machen, weil es halt für 3D gedacht ist und so das Medium dementsprechend benutzt würde, aber es sind halt wenige, also ich würde jetzt nicht ich würde mir selbst Mario nicht in 3D gucken.
Ich sag dir mal, warum ich es nicht mag und warum ich das bei diesen Doku-Sachen sinnvoller finde. Also, das Problem ist, dass dass sie ja nicht wirklich dieses 3D verwenden, um es wirklich dreidimensional aussehen zu lassen. Sondern sie verwenden ja 3D eigentlich, um Aufmerksamkeit auf bestimmte Szenen zu lenken. Also klar, das ist dann schon das, was im Vordergrund ist. Aber es ist halt ... Es wird einem das, was näher ist, viel zu sehr aufgedrängt, sodass wenn du dich auf etwas im Hintergrund mal konzentrieren möchtest, also deinen Blick schweifen lassen willst, du die ganze Zeit an diesen vorne, hinten Stufen lang polterst. Ich empfinde das einfach als unangenehm. Das mag anderen Leuten anders gehen, ich kann dem überhaupt nichts abgewinnen. Aber ich hab dann, Entschuldigung, ich hab dann, oder willst du darauf kurz?
Ja und zwar ist es ja so, dass die Physiognomie des Menschen so ist, dass die Augen ja nur einen geringen Abstand haben und eigentlich ist es so, dass du durch die echte Stereo-Sicht der beiden Augen einen 3D-Effekt nur so weit hast, wie du mit der Hand noch anfassen kannst. Alles was darüber hinaus ist, der 3D-Effekt ergibt sich nur noch durch Größen und weil das Hirn da so ein mentales Modell zusammenbaut, aber du siehst, was weiter weg ist in der echten Welt ja nicht mehr als echt 3D. Deswegen frage ich mich auch immer, was wollen denn die Filme von mir? Wollen die mir irgendwie, keine Ahnung, irgendwie Dinge direkt vor das Gesicht halten oder so? Das will ich ja nicht. Also ich habe irgendeinen Star Wars Film in 3D gesehen, da rennen die um das eine Raumschiff rum und plötzlich hast du irgendwie da diese Ecke von dem Flügel irgendwie in der Fresse und denkst dir so, Leute, das hat jetzt nicht gebraucht. Irgendwie, weißt du so ich finde es so fürchterlich unsinnig, weil ne, also ein Spiel, was vor dir auf dem Tisch steht, was dann auch wirklich 3D wäre wie, weiß ich nicht eine Lego-Burg oder irgendwas das ergibt für mich viel mehr Sinn als so ein Film.
Ach so, ja, richtig. Auf dem eigenen Ding wahrscheinlich. Genau, deswegen. Ich habe dann die Brille im Gastmodus noch mal betrieben. Da hatte ich dann sozusagen Zugriff, aber da war dann nicht mehr Zeit für große epische Filme anschauen. Aber dann habe ich mir so ein paar kurze Dokus angeschaut, die Apple produziert hat, eben mit dieser stereoskopischen Kamera, mit der sie jetzt auch so Sport und so weiter aufnehmen, da müssen wir auf jeden Fall auch nochmal drüber reden. Und ich weiß nicht mehr ganz genau, also die eine, die mir jetzt auf jeden Fall sofort in Erinnerung ist, ist dieses Highline. Das hast du gesehen?
Ja, also das also erst mal, die Frau ist irre, also das ist so ein Mädel, die macht so Highlining, also die läuft über eine. Wie nennt man denn das? Einfach über ein Seil, über eine Schlucht. Und die Schlucht ist sozusagen zwei Vorsprünge, bildet sich durch zwei Vorsprünge an so einem norwegischen Fjord, wo es dann so einen Kilometer runter geht gefühlt. Und während sie also über dieses Seil balanciert, also nur einmal so gesichert, wenn sie runterfällt, dann hängt sie halt an so einem Seil, aber jetzt hat nichts in der Hand oder irgendwie so, kein Ballonstängel oder sowas. Sondern macht das einfach so und das ist eine kurze Doku, 10 Minuten vielleicht, 20 Minuten vielleicht auch, sehr intensiv, schön gedreht und da gelingt es, diese Tiefe, die unter ihr ist, diese Schlucht auf eine Art und Weise einzufangen, wo ich schon sagen musste, okay, now you have a point. Also das war wirklich anders, als es jetzt in so einer normalen zweidimensionalen Darreichung gewesen wäre. Das ist natürlich schon so speziell auch und man muss sehr großen Aufwand treiben, okay, aber dieses wirkliche, echte Welt dreidimensional aufnehmen und dann eben nicht so ein gefaktes Ding wie beim Film, sondern eben wie es eben wirklich ist. Das kommt wirklich geil rüber. Es gibt dann noch dieses andere Ding mit dieser Alicia Keys. Die in ihrem Studioraum mit anderen Musikern ist und da so eine Aufnahme macht. Das geht auch so zehn Minuten. Da haben sie tatsächlich drei oder vier Kameras im Raum platziert mit der Zeit, wann hast du mal von der einen Stelle zur anderen Stelle. Also nicht jetzt flüssiger Übergang, sondern schneidet dann einfach auf eine andere Kamera um. Und dann kannst du dir halt das Geschehen so anschauen, als wärst du halt dabei, könnte man jetzt sagen. Wobei ich irgendwie nie so richtig das Gefühl los gewesen, nie das Gefühl los geworden bin, dass für mich wirkte das alles so ein bisschen wie ein Aufenthalt im Wachsfigurenkabinett.
Wo sich aber alle bewegen. bewegen. Das ist so ganz interessant. Bei dem Alicia Keys Ding hat man so ein bisschen so einen Effekt bei der Slack Highline nicht, fand ich, weil das war halt eine Doku, die so gemacht war dafür. Du bist jetzt einfach nur in der Situation, war es ein bisschen künstlicher und vor allem deswegen, weil du bist ja in der Perspektive gefangen. Du kannst dich ja zwar drehen, aber du kannst sie nicht bewegen und du willst ja gerne mal nach vorne oder nach hinten und dann fährt die Kamera halt so ganz komisch mit. Das ist totaler Brainfuck, wenn man das macht. Also man muss relativ ruhig sitzen oder sich halt irgendwann darauf eingelassen haben, dass sich die Perspektive nicht ändert, wenn man sich seine Chips greift. Ähm, Das ist so ein bisschen schräg. Deswegen funktioniert für mich auch die Extra-Doku viel besser als die Alicia Keys Nummer. Und es gibt noch eine dritte Tier-Doku. Die funktioniert für mich auch nicht so gut, weil sie ein bisschen es übertreibt.
Genau, die sind mir ein bisschen, da ist mir das 3D wieder zu stark. Also das Problem bei diesem gefilmten 3D, dem real gefilmten, ist so, passt dieses 3D zu meiner Vorstellung von 3D? Ist es so oder nicht? Und das ist bei dem Rhino-Zurosten immer nicht so sehr, bei der Slackline ja. Und da finde ich es auch wirklich cool. Und bei der Alicia Keys ist es, ich mag das Format, ich würde mir wahrscheinlich auch, wenn ich von Künstlern, die ich auch noch mag, würde ich mir das auch angucken, weil es halt ein Erlebnis ist. aber es hat so seine Grenzen. Es ist schon ein Gimmick. Das ist für einen Zweck und das ist auch besser, wenn es nur eine Viertelstunde ist als eine ganze Stunde. Also ich will das auch nicht abendfüllend. Ich will das in kleinen Happen.
Genau, und da sieht man jetzt, das ist schon mal sehr interessant, diese, unterschiedlichen Darreichungsformen mal sehr genau zu unterscheiden. Also wir haben natürlich den 2D-Film, der ist wie immer. Dann haben wir diese Schein-3D-Filme, da sind wir uns einig, das ist es irgendwie nicht. Dann haben wir diese, Man nimmt reale Szenen auf, aber immer aus festen Perspektiven und das bedeutet, du kannst halt nur exakt genau die Position nachvollziehen, die eben die Kamera in dem Moment gehabt hat. Klar, du kannst, willst aber irgendwie auch immer, weißt du, du stehst da und denkst dir so, ah, jetzt steht sie aber so ein bisschen verdeckt, jetzt gucke ich mal ein bisschen nach links und dann ändert sich da irgendwie nichts und das ist irgendwie doof. Und das ist dann sozusagen eigentlich der nächste Schritt, also die vollständige dreidimensionale Immersion von so einem Content, der ja eigentlich dann nur in Echtzeit gerendert werden kann, wie das eben bei diesen Games ist, die aber dann sozusagen vielleicht, eine richtige Handlung haben. Also dass aus Computerspielen ein Film wird, der dir komplett gerendert wird und zwar immer aus der Perspektive, die du gerade einnehmen möchtest.
Und das gibt es ja auch, aber halt nur stilisiert. Da gibt es zum Beispiel von Arte einen Comicfilm, der auch als App verfügbar ist, so wie früher beim iPad auch die Bücher als einzelne Apps verfügbar waren. Das ist so ein Ich-bin-für-den-immersive-space designter Film im Comicstil mehr oder weniger Und ich finde da Stadt in groß, in klein und so weiter. Habe ich mir den ersten Teil nur angeguckt, weil ich finde es ein bisschen anstrengend. Das ist halt so eine Kunstform, die kann man so schon machen. Ja, und da kannst du auch wenigstens frei rumgucken. Aber du bist halt auch trotzdem den Künstlern ausgesetzt, was die damit machen. Also mir persönlich macht es am meisten Spaß, glaube ich, so ein kurzer, immersiver, so wie bei der Slackline, wo du noch zumindest nicht drehen kannst, aber du weißt, was du machen kannst oder nicht. Oder eben auch so Kino-3D-Filme, die dafür gedacht sind, was ich hier im Text auch gelesen habe, die Pina zum Beispiel, die Pina Bausch-Doku. Da sind es auch geile Perspektiven, die gewählt wurden, um diese Tanzauftritte zu filmen und da hilft 3D auch, weil du hast halt so eine Tanzbewegung, die halt einfach davon, die gewinnt dadurch, dass du ganz nah an der Bühne bist oder an dem Geschehen dran. Also wiederum Dokus über Kunst, wo du das mitbekommst, finde ich ganz gut.
Jetzt ist natürlich die Frage, was wird da noch, also was man noch dazu sagen muss, diese Dokus sind mit 180 Grad Kameras gedreht. Also du hast halt auf der einen Seite, das muss man immer unterscheiden, also auf der einen Seite haben wir diesen stereoskopischen Effekt und den gilt es für sich zu bewerten. und das andere ist die Tatsache, dass du auch 180 Grad Aufnahmewinkel hast. Das heißt, du schaust dir diese Doku an und kannst halt auch nach links und nach rechts schauen. Und oben und unten. Und oben und unten, also du kannst woanders hingucken in dieser Halbkugel. Du kannst nur deine Position nicht ändern, aber das ist schon mal ganz gut. Trotzdem frage ich mich halt, warum sind es nur 180 Grad, Weil man dreht dann schon so mal den Kopf ganz nach links und wenn du halt so normal sitzend deinen Kopf drehst und schaust, dann hast du halt mehr als 180 Grad. Das heißt, du siehst dann eben auch the end of the video. Da ist dann halt irgendwie schwarz, diese Übergänge sind dann immer so blurred. Das ist generell eigentlich ganz gut gemacht. Das ist dann auch später, wenn man selber Filme aufnimmt und so weiter, die werden auch alle mit so einem geblurrten Rand gemacht. Das hat nicht so klare Kanten, sondern es ist immer alles so reingeghostet.
Naja, nee, aber 210 Grad wäre geiler so. Also so in dem Bereich ein bisschen mehr. Diese ganze Frage ist natürlich jetzt auch, was könnten jetzt sozusagen interessante videografische Angebote werden? Und was natürlich auf dem Tisch liegt und was Apple ja auch schon macht, also wo man jetzt schon weiß, dass sie das tun, ist Sport. Sport interessiert die Leute. Sport findet auf großen Flächen statt. Sport hat geschehen an vielen Stellen. Wenn man nur mal schaut, was beim Fußball mittlerweile für einen Aufwand getrieben wird. Wird und im Falle von Apple ist es so, dass sie jetzt wohl auch bei Basketball Events mitfilmen, auf diese Art und Weise, und sie haben auch jetzt diesen Ticketpass, den sie ja schon längere Zeit verkaufen für die amerikanische, Fußballliga, also die Soccer, nicht American Football, sondern die MLS, die, Major League Soccer heißt das, aber ich sage halt Soccer dazu. Und jetzt kann ich dann nur darüber spekulieren, was sie da tun. Aber sie werden vermutlich dort auch ein Videoangebot machen bei dieser Major League Soccer. Also sie werden das mit Sicherheit mit ihren stereoskopischen Kameras, so wie sie diese Dokus machen, werden sie jetzt auch diese Sportevents machen. Und das Ganze hat nochmal eine andere interessante Dimension, weil beim Fußball, also in Spanien ist es zum Beispiel so, da werden ja heute schon die Spiele oder zumindest manche Spiele, die großen Vereine. In der ersten Liga, in der La Liga, werden ja mit sehr viel Kameras aufgenommen und damit meine ich nicht so acht oder zehn, sondern um das ganze Spielfeld herum eine ganze Batterie von Kameras oder zumindest um die Tore herum. Ich weiß nicht ganz genau, wie das an den Längsachsen aussieht. Und es gibt ja mittlerweile schon so Replay-Mechanismen, wo du dann quasi so einen Matrix-Bullet-Time-Effekt hast. Das heißt, du hast eine Torszene, Flanke kommt rein, Stürmer steigt hoch, köpft den Ball ins Tor. Das wird aber dann aufgenommen von 20 oder 30 Kameras, die natürlich alle Zeit synchronisiert sind. Dann kannst du das in der Wiedergabe so machen, dass du halt erstmal die Person fokussierst, die halt diese Flanke gibt. Dann geht die Flanke rein und während sozusagen diese Flanke zu dem Stürmer fliegt, wechselst du deine Betrachtungsposition zu hinter dem Tor und siehst dann quasi den Stürmer in dem Moment schon den Ball direkt in deine Richtung köpfen. Und das sozusagen alles als flüssiger Übergang, weil dann eben die Software dann auch diese Zwischenbilder entsprechend noch gerendert bekommt aus diesem ganzen Ding, was halt zu so einem kompletten 3D-Modell umgebaut wird. Keine Ahnung, wie viel Processing-Aufwand das hat. Was ich damit nur sagen will ist, der Aufwand, der für den Sport getrieben wird, ist heute schon sehr hoch, um solche scheinimmersiven Effekte zu erzeugen und wenn man das Ganze jetzt auch noch mit stereoskopischen Kameras kombiniert, wird es natürlich noch irrer, weil du dann eben dieses ganze Geschehen auch wirklich dreidimensionaler wahrnehmen kannst. Und im Falle von Fußball würde ich fast sagen, könnte das sogar richtig was bringen, weil dieses Problem. Dass man bei langen Bällen nicht genau sieht, fliegt der Ball jetzt gerade in der Kerze einmal nach oben oder nach unten oder fliegt der gerade 80 Meter in derselben Achse nach hinten. Du kriegst diese Tiefe irgendwie nicht hin. Ich weiß nicht, ob das dann mit einer Vision Pro auf einmal besser gelingt, aber das wird auf jeden Fall ein sehr interessanter Bereich sein, den es hier noch zu erforschen gibt, wie man das so bringen kann. Ja, fällt dir noch was ein zu Thema Video und Filme? Sonst könnten wir auch noch mal kurz über Fotos reden.
Du findest es nicht weiter spannend Ich finde die Fotos so groß, so scharf sehen zu können, macht schon Spaß Ich hab selten mehr Spaß gehabt meine Fotolibrary durchzugucken einfach nur so, Die sind halt lebensgroß, du stehst halt vor den Fotos und du hast halt relativ gute Fotos von den Leuten, also sind die Auflösungen gut genug Und das ist schon eine andere Größenordnung, ob ein Porträt jetzt vor dir steht oder ob das klein auf dem Monitor ist Also ich hab damit mehr Spaß gehabt und auch zum ersten Mal habe ich mir Memories dann auch angeguckt. Weil die Memories in groß finde ich schön.
Okay, ja, guter Punkt. Na, ich war jetzt besonders von den Panoramabildern beeindruckt, weil die wiederum auf dem iPhone anzugucken ist halt so, ja, scroll, scroll, scroll, ganz nett irgendwie. Vielleicht gibt es irgendwann mal eine schönere Methode, sich das anzuschauen und das ist halt hier gegeben, Weil dann klickst du halt auf diesen Panorama-Button da oben und auf einmal wrappt sich sozusagen dieses Bild um dich herum und du kannst dann in der Mitte drin stehen. Und ich hatte jetzt gerade auch noch so ein paar Panorama-Bilder jüngst bei meinen letzten Reisen aufgenommen. So Italien, Blick aufs Wasser, Neapel irgendwie über die Stadt und so. Und das war dann schon sehr genau so, wie ich das dann in dem Moment auch abgespeichert hatte.
Das fand ich auch. Also Panoramas waren schon mal so eine Größenordnung und ich hatte auch, so bevor ich nach Amerika ausgewandert bin, Und damals nochmal eine Bekannte auf Teneriffa besucht, die ist da aufgewachsen und die hat mich da ein bisschen rumgeführt und da habe ich ein paar geile Panoramas gemacht. Und dadurch, dass es ein eigenes Panorama war auch noch, war es halt wirklich auch so diese Kombination von ich bin wieder dort. Und zwar wirklich so, ich stehe jetzt an diesem Aussichtspunkt von dem Vulkan auf Teneriffa und ich bin sofort da. Und dass es nicht 3D ist, war mir gänzlich wurscht, ehrlich gesagt. Also wenn ich eins machen werde in Zukunft dann von Positionen, aus denen sich Panoramas ergeben, optisch sinnvoll, werde ich welche aufnehmen, weil das ist wirklich toll. Und das hat damit zu tun, dass man selber auch an der Stelle war, weil ich habe auch wirklich geile, hochauflösende Panoramas von sonst irgendwo runtergeladen, um sie mir anzugucken, weil ich die so gut fand. Das wirkt einfach nicht so sehr. Oder auch, was schön ist schon auch, meine Schwester war im Urlaub gerade und hat ein paar Panoramas geschossen und mir geschickt. Man hat schon einen Eindruck davon, aber die eigenen Erlebnisse so wahrzunehmen ist es schon nochmal. Und es ist also Panoramas angucken, also zum ersten Mal so, dass ich denke, Panoramas sind geil anzugucken auch, weil halt Panoramas ansonsten immer nur zu viele schwarze Balken oben und unten haben, egal mit was man es irgendwie anguckt.
Ja, hat sein Für und Wider. ich finde es ganz gut, dass du praktisch nicht so besondere Metadaten brauchst, damit es in der Kategorie landet, weil dann verpasst du auch keine und brauchst nicht Magic, weil zum Beispiel bei den Immersive-Fotos, da brauchst du wieder irgendwelche Magic, dass du diese 3D machen kannst in irgendeiner Form. Zwei Fotos, die gleich heißen, kannst du nicht einfach reindonnern. Das wäre auch schön, dass man so, ich habe nämlich so 3D-Content und ich weiß noch nicht, wie ich den reinbringe, so dass ich ihn angucken könnte, weil da kommen wir nämlich zu anderen Geschichten so, sie kann ja jetzt 3D-Fotos, die Vision Pro, aufnehmen und anzeigen. Ähm, Und die Frage ist, ist es das wert bei den 3D-Fotos, weil es ist halt wie immer so, ich habe ja damals sogar mal eine App gemacht, die mit dem iPhone 3D-Fotos aufgenommen hat, mit so einer Apparatur, dass du an der iPhone-Kamera, Poppy hieß das Ding, zwei Prismen dran machst und dann praktisch ein bisschen das aufspiegelst, sondern in einem Bild so eine Stereoskope Bilder hast, gemacht hast, da war damals die Auflösung gerade so gut genug, dass das 3D-Bild, das da rauskam, Sinn machte. Habe ich hier auch noch die Prototypen davon und die App, die ich geschrieben habe. Aber die kriege ich jetzt da auch nicht rein. Aber es ist halt auch so ein bisschen so diese 3D-Bilder, wie die Panovision. Es hat schon was, aber es ist halt auch immer weniger aufgelöst und es ist so ein bisschen schräg. Ich weiß es nicht. Ich habe ein paar gemacht jetzt, aber...
Keine Ahnung. Ich würde mal vermuten, nein, aber don't know. Ja, also das mit dem Aufnehmen, also die Videos hatten hatten keine wirklich beeindruckende Qualität, glaube ich. Also ich bin mir da nicht so ganz so sicher, um ehrlich zu sein. Und die Wiedergabe war bloß so strange, weil du nimmst nicht so einen Kasten auf mit so einer klaren 16 zu 9 Kante oder sowas, sondern das ist irgendwie so... Wie soll man das beschreiben? Also du gibst das wieder und dann hat das alles so ein, Wolkenrand.
Es hat so ein bisschen einen fassigen Rand. Es ist eigentlich ein quadratischer Ausschnitt, sowohl bei den 3D-Fotos als auch bei den Videos, die man aufnimmt. Zumindest wenn man sie mit der Vision Pro aufnimmt, weil man kann ja auch mit dem aktuellsten iPhone Videos aufnehmen, die haben ein bisschen anderes Seitenverhältnis. Und die stellen es grundsätzlich in so einem Kasten da, wo du praktisch ein bisschen, also im Verhältnis zu deinem Fenster im Raum. Du guckst da praktisch ein bisschen durch und kannst deshalb ein bisschen seitlich also sie haben es ein bisschen so gemacht, dass es so ein bisschen wabert, wenn man seitlich rumguckt, damit es auch diesen Stereoskop Effekt ein bisschen mehr hat. Und du kannst auch da wieder reinzoomen, auf Immersive machen, dann ist es so ein auch ein bisschen seltsames Erlebnis, weil halt die Auflösung nicht so super dolle ist. Gleichzeitig ist es, wenn du es selber gemacht hast, also gerade das Video, ist es ist es schon das hat was ja. Ja, das stimmt ich habe auch heute nochmal versucht in Vorbereitung von der Sendung eins zu nehmen, wo ich jetzt die Treppe runter laufe und dann mal raus gucke und dann mal Klavier spiele um das so ein bisschen um mal so eins zu haben, wo man ein bisschen was ausprobiert, es ist aber schon mehr ein Gag als wirklich cool, glaube ich also ich hätte glaube ich schon gerne so Aufnahmen von meinem Kleinen, aber gleichzeitig will ich nicht mit der Brille von meinem Kleinen so rumherfeln also dem habe ich das jetzt auch noch vorenthalten weil der soll ja überhaupt nicht so viel mitbekommen das ist mir zu creepy, Papa wieder mit seinem VHS Videokamera, also ich muss aber sagen da.
Wären wir jetzt auch nochmal gleich zu kommen ist ja immer die Frage, Wozu kann man das eigentlich gebrauchen? Ist das jetzt nur so eine Technologiedemonstration, ist das so ein Gimmick oder ist das vielleicht für irgendwas gut oder gibt es zumindest Leute, für die das eine besondere Bedeutung haben kann? Und dieses dreidimensionale Fotografieren und dieses dreidimensionale Video aufzeichnen, das mag zwar jetzt noch nicht perfekt sein, aber die Möglichkeit das überhaupt machen zu können ist natürlich für bestimmte Anwendungen unter Umständen wirklich geil. Also ich denke halt gerade so, wenn man so Veranstaltungen macht und so Location Scouting macht oder du bist so auf Wohnungssuche und schaust dir Wohnungen an und dann versuchst du irgendwie zu fotografieren und irgendwie dir zu merken, wie das ist, weil du nur sehr wenig Zeit hast, das zu begehen. Ja, so eine Wohnungsbegehung zum Beispiel. Da würde ich mir, also wie ich es jetzt sozusagen hätte, dann würde ich mir dieses Teil aufsetzen und da einfach 3D-Video-Capture-Button drücken und dann da einfach mal 10 Minuten lang durchlaufen und das komplett aufnehmen. Weil wenn du dir das dann auf der Brille wieder anschaust, dann kriegst du einfach so ein gutes Gefühl für die Weite und die Räume und was wo ist und was miteinander da ist und so. Es ist ein bisschen schwierig, sich zu sehr bewegte Rumlaufvideos auch anzuschauen. Da muss man aufpassen, dass man da nicht so ein bisschen wonky wird. Mir ist nie schlecht geworden jetzt bei der Brille, aber es ist schon so. Also da kann ich mir schon vorstellen, dass hier die Brille auch wirklich eine unmittelbare Anwendung hat für bestimmte Leute. Weil das halt einfach die optimale Quick-and-Dirty-Dokumentation von Situationen ist.
Ja, da gibt es auch Certify-Apps davon. Da kannst du so 360-Grad-Dinger kannst du ein paar dieser Formate dann angucken. Also Files funktioniert ganz ordentlich auf der Kamera und da kannst du in Files entweder SMB oder was auch immer anbinden und dann hast du halt da den Input für deine Apps und es gibt zwei oder drei von diesen VR- und 3D-Apps. Also wenn du was hast in irgendwelchen Formaten, die es geht, klappt es auch. Ich habe diese Daten nicht. Und da YouTube noch keine eigene App hat, ging es da auch nicht. Und die Side-by-Side-Videos, die ich so hatte, die braucht nochmal Pre-Processing, ist auch nochmal nervig. Da bin ich noch nicht firm genug, auch in welchen Formaten man das direkt angucken kann. Weil man will schon, also den Content, den man herkaufen kann, der funktioniert sofort, als es ist. Und der macht dann schon in dem Sinne Spaß. Dass es sich selber zusammen gebastelt, ist halt so eine Sache. Also es gibt eine App, die ganz gut funktioniert. Die hat Star Trek alle Brücken oder so von allen Enterprises. Und da hast du halt so eine VR-Ansicht. Und auch das ist ganz nett. Das macht schon auch Spaß. Da drin zu stehen.
Diese Situation, wo du die Brille aufhast, aber mit Leuten interagieren willst oder kannst und dann dadurch, dass die sowohl die Leute durch die Immersion durchgehen, also wenn du. Also vielleicht nochmal kurz erklärt, wenn wir es noch nicht oft genug gesagt haben an so einer Stelle, wenn man sich so ausblendet mit der Crown und dann so ganz einbettet in irgendeine Experience in der Apple Vision Pro, dann ist es so, wenn Menschen auf dich zukommen, mit dir reden wollen, dann machen die so ein Loch dadurch und man sieht die trotzdem. Also man wird nicht komplett aus seiner Immersion rausgeworfen, sondern es ist so, okay, die gucken dann aus der Wolke raus. Da wird einfach ein bisschen aufgemacht, wenn die einen angucken und reden. Und umgekehrt ist es so, dass die wiederum auf der Vision Pro Außen, auf der Stiebrille, so eine Andeutung von Augen sehen, die deine Augen sind. Das kommt dann gleich mit der Person nochmal raus. Aber die halt eigentlich so blurry sind und so ein bisschen, dass sie nur eine Andeutung sind. Aber dadurch sehen die halt, okay, du siehst die auch. Und dadurch kannst du diese Interaktion machen. Ich habe es jetzt selber nie in so Kontexten verwendet, wo das relevant gewesen wäre. Ich habe mir die Augen mal im Spiegel angeguckt, weil da funktionieren die auch. Und die sind so, ja, sind schon okay. okay, also ich finde die weniger kontrovers, als die Leute meinen, dass das nichts... Es ist halt, es ist ein Indikator, es ist wichtig in irgendeiner Form für diesen Anwendungsfall und es wird immer wichtiger, je mehr es von diesen Vision Pros gibt und je mehr die normal eingesetzt werden. Also das werden wir in Zukunft noch sehen, glaube ich. Ja. Aber es ist halt so ein Feature, das sehr unik ist hier. Und sehr belacht wurde im Vorfeld, aber ich finde es okay. Also es ist so, das ist ein okayer Weg, weil es geht halt intuitiv, ist es klar. Wenn da Augen Rausgucken, auch wenn sie ein bisschen creepy sind Das ist halt die Person Alles andere, was so indirekt wäre Mit einer Leuchte, sonst irgendwas Würde nicht funktionieren, weil da müsste man Jemandem was erklären erst an der Stelle.
Genau, aber damit sozusagen deine Augen überhaupt mal reproduziert werden können, muss es ja Fotomaterial geben sozusagen von dir, weil es gibt ja keine Kameras, die jetzt auf deine Augen gehen und sozusagen die wirklich jetzt filmen, sondern sie werden ja nur simuliert und. Dazu musst du halt vorher durch diesen Persona-Prozess gehen der dann eben auch für diese, ja Persona heißt ja, sind diese quasi diese Avatare, die angezeigt werden wenn du jetzt mit jemandem Facetime machst und du hast diese Vision Pro auf, dazu nimmst du die Kamera halt ab und dann musst du, da reingucken, den richtigen Abstand haben, du siehst dann so ein bisschen, siehst so ein bisschen aus wie so ein Teletubby, diese Sonnenbaby bei den Teletubbies. Die Sonne, wo so ein Baby in so Sonnenstrahlen drin ist, so sieht das so ein bisschen aus, wenn du das Ding vor dich hältst und dann, siehst du erstmal quasi per Video so deinen Minikopf in der Mitte von dieser Brille und musst den dann sozusagen auch im richtigen Abstand halten und wenn das dann so weit ist, dann machst du deinen Kopf nach rechts und nach links und nach oben und nach unten und dann musst du einmal Einmal lächeln, einmal lächeln mit Zähne, Augenbrauen heben und dann Augen zumachen und das war's. Das sind sozusagen die Positionen, die dann erfasst werden und daraus berechnet sich halt auf der einen Seite das, was außen an der Brille zu sehen ist, wenn Leute dich anschauen und dadurch, dass sie ja dann auch noch so ein, wie heißt dieses Gitter, was sie da haben, dieses... Also das Glas ist ja dann nochmal so angeschliffen, dass du tatsächlich in jede Richtung noch ein anderes Bild abgeben kannst, wie bei so Wackelbildern. Das heißt, wenn dich einer von links und von rechts anguckt und so weiter, dann.
Ja, muss ich wieder Kapitelmarkenbild machen. Ja, unbedingt. Doch, das ist doch alles Arbeit. Genau, und dann kommen wir im Prinzip auch zu diesen Personas. Ich meine, klar, du hast halt so eine Brille auf dem Kopf, klar kannst du in dem Moment kein richtiges Bild liefern und deswegen rendern sie das sozusagen und der Aufwand, den sie hier wieder getrieben haben, der ist bemerkenswert, weil es glaube ich etwas mehr Aufwand ist, als man vielleicht denkt, denn was machen sie jetzt, also ich rufe jemanden per FaceTime an, Und dann erscheint quasi mein vollständiges Gesicht animiert auf Basis dieses Fotos oder dieses Recordings, was sie vorher gemacht haben, womit sie wahrscheinlich dann halt dreidimensional mein Bild abgetastet haben, mein Gesicht abgetastet haben und eben Fotos davon gemacht haben in verschiedenen Zuständen, sodass sie dann eben auch Mundbewegungen simulieren können. Einfach nur aus, du hast mal gelächelt, zweimal, irgendwie das war's. Und während du halt dann jetzt mit jemandem redest, und da musst du mir jetzt mal weiterhelfen, Dom, was du denkst, wie sie das machen. Also wie machen sie diese Mundbewegungen? Das sind ja schon die, das sind die richtigen Mundbewegungen, die man in dem Moment auch wirklich macht durch die Kameras nach unten, oder?
Nein, nein, nein. Die Augenbrauen sind ja komplett hinter der Brille verschwunden. Du machst doch deine Glubschis da in diese Höhlen rein, da bleibt doch von den Augenbrauen nichts übrig. Ich glaube, dass sie das einfach aus der Bewegung der Augen ableiten. Also das, also wie auch immer, es ist totale Magie. Das ist das, was ich sage.
Also mal ganz ehrlich, ich habe jetzt schon ganz lange und ganz viele von diesen Videospielen gespielt, wo man so seinen Charakter machen kann und wo alle versuchen, automatisch irgendwas zu machen. Also, dass Apple in der Lage ist, so eine Qualität abzuliefern auf dem ersten Wurf, hätte ich denen nie zugetraut. Also auch von dem, wie es aussieht. Und es ist auch wirklich gefühlt State of the Art gerade, was so geht für so einen Scan, den wir mal eben schnell aus der Hüfte schießen. Also, ich habe eher das Hutabgefühl. Insgesamt Uncanny Valley, ganz klar, da kann man noch viel machen, aber ich hätte nicht geglaubt, ich hätte mit Lächerlichkeit gerechnet und es ist einfach eigentlich schon cool. Es ist ein bisschen uncanny, aber es ist schon cool. Und es hat halt wahnsinnig viel, also die Art und Weise, wie es dann eingesetzt wird in Facetime, da kommen wir auch gleich nochmal dazu, die macht es halt nochmal so viel runder.
So, aber interessant, also mehrere Sachen sind interessant an der Geschichte. Die eine Sache war, wir haben ja Videos aufgenommen mit der Vision Pro und, Aber nur mit dem eigenen Capture, mit dem Knopf. Ja, weil Apps sehen den Videostream nicht, den du selber siehst. Die dürfen das nicht. Du kannst keine Bilder machen mit der Apple Vision Pro. That doesn't work for you as App Developer. Was du kriegst, ist der einzige Videostream, der als Rückwärtskamera gilt. Also ich habe ja auch diese Tageslicht-App, mit der man auf dem Apple TV was streamen kann, eine seiner Kameras. Und die kann man auch dafür verwenden. Und da kommt dann der Avatar. Also diese Persona kommt da praktisch, also auf der Selfie-Kamera ist immer der Avatar und das ist das einzige Video-Input, das die Apps haben können aktuell. Nur FaceTime selber kann auch Screensharing machen, aber das ist FaceTime selber, keine Third-Party-App da auf das. Und das heißt, da läuft halt dieser Avatar einfach und der funktioniert super cool im Raum. Also der ist so, je nachdem wo jetzt das Gegenüber beim Facetime steht, man hat also für Facetime, wenn man in der Apple Vision Pro Facetime macht, kriegt man ein Fenster, also ein Fenster, das dann aus mehreren. Unterfenstern besteht, mehr oder weniger, mehreren Untervierecken, aber das ist so eine Ebene, die man irgendwo im Raum platziert und dann hat man dadurch einen ganz klaren Punkt, wo man Leute angucken kann und wo man praktisch auch sogar mit den Leuten interagieren kann. Also einerseits kommt deren Audio aus deren Richtung, das macht es nochmal räumlich und wirklich klar. Die Mikros von der Apple Vision Pro sind glasklar. Dadurch, dass sie irgendwie so viele weiß ich nicht, so viele Processing-Mikros haben wollen. Es ist ein FaceTime-Call, mit der klarste Gesprächs-Call mit der Apple Vision Pro, den ich den ich je gehört habe. Also das ist wirklich super angenehm. Und dadurch, dass du die im Raum hast an der Stelle, kannst du halt auch mit denen interagieren. Das heißt, deine Hände, wenn du auf die Leute zeigst, werden eingeblendet bei FaceTime vor der Persona an der Stelle. Wenn du dich wegdrehst, drehst du dich halt auch weg von der einen oder anderen.
Die sehen, dass du halt wegguckst. Also dass du nicht sie anguckst, mehr oder weniger. Und du drehst dich immer in dieselbe Richtung weg. Also wenn du in einem Dreiercall bist und weißt, wer die andere Person ist, hast du schon ein Gefühl dafür, wenn die andere Person, also dass es jetzt die andere Person ist, die angeguckt wird, ohne dass es Arbeiten ist oder Wegsein davon. Also alles, alles das macht FaceTime und das macht es schon auch erstaunlich gut. Dann mit diesen Mimiken und Abtastungen, die halt ein bisschen uncanny sind, aber doch sehr genau, passt es schon sehr gut.
Und wenn man jetzt nicht so drin ist in der Geschichte, finde ich auch spannend. Ich habe meine Eltern angerufen und die haben es erst mal nicht gemerkt. Also die hatten es halt irgendwie auf dem Laptop. Die haben eh selber die schlechte Webcam in die andere Richtung und hatten halt irgendwie schlechtes Licht. Die haben, also ich habe das denen gesagt, dass das jetzt, also die haben gesagt, neue Frisur. So. aber bis sie dann gecheckt haben, dass das wirklich eine Persona ist oder halt ein bisschen creepier, hat es gedauert. Und ich glaube, das darf man auch nicht unterschätzen. Das ist, glaube ich, schon sehr adäquat und das wird auch noch viel besser. Selbst mit dem nächsten Update wird es wieder besser und da ist noch viel drin. Für mich ist, die Zukunftsfragen sind sehr spannend, was dieses Gerät angeht, weil ich weiß nicht, wann wir da hinwollen, noch nicht, wir sind noch nicht ganz durch.
Ja, bei FaceTime gibt es ja noch so einen anderen Aspekt, weil du kannst ja außerdem auch noch dein View, den du hast, sharen, quasi Screensharing und damit anderen Leuten einen Eindruck vermitteln, wie das vermutlich so gerade ist, was du so siehst. Also du kannst auch was weiß ich per Airplay auf dem Fernseher und dann kannst du halt sich zumindest mit Leuten darüber unterhalten, was du da gerade tust, weil sonst kriegt ja keiner mit, was du siehst. Wobei dann halt so PIN-Eingaben und so weiter, die erscheinen dann da nicht. Also das ist halt auch wirklich interessant, da muss ich mich erstmal dran gewöhnen. Immer wenn man nach einem Passwort gefragt wird und man gibt sein Passwort an, dann steht das Passwort da im Klartext und da erschreckst du dann erstmal. So, oh, der Computer zeigt das Passwort ein, während ich das eingebe. Das geht doch nicht. Aber es sieht ja keiner. Es sieht ja auch keiner. Also irgendwie habe ich das komplett verstört, dass irgendwie Passwort, das sind immer diese runden Bubbles, die ich da eingebe.
Eine Sache, die wir noch gar nicht erwähnt haben, ist, irgendwie ist das Ding ja auch gesichert und das macht einen Iris-Scan und hat Optik-ID, also nicht Face-ID und nicht Touch-ID, sondern deine Iris, deine Augen. Und an sich funktioniert das super, finde ich. Also das braucht ein bisschen, aber es klappt dann, also geht einfach automatisch und ist genauso wie die anderen IDs von Apple. Grundsätzlich ist ein bisschen das Problem, wie gesagt, wenn man das Telefon nicht unlocked hat und die Brille auf hat, dann kann man das jetzt nicht mit der Brille, mit deinem Optik-ID unlocken im Moment. Das ganze Ökosystem ist noch nicht komplett rund. Aber so grundsätzlich läuft es wie bei Face-ID. Das heißt, du musst noch ein, wenn du was kaufst oder so, musst du noch einen extra Input geben und das ist in dem Fall auf den Auslöser drücken. so. Also nicht auf die Crown interessanterweise, sondern auf den Auslöser, um es zu bestätigen. Und ansonsten ist es halt wie andere Biometrie-Geschichten bei Apple auch. Genau.
Ja, interessant wird es natürlich jetzt, Ab wann wird es so eine Art 3D-Sharing geben? Weil du sharest ja nur eine 2D-Ansicht sozusagen von deinem View gerade. Und was man eigentlich möchte, ist natürlich gemeinsame dreidimensionale Räume teilen. Ich bin mir gar nicht so sicher, ob das so trivial ist. Wahrscheinlich nicht, weil wenn du jetzt sozusagen, also man könnte ja sagen, jemand anderes steigt per Immersion. Also ich könnte zum Beispiel deine Ansicht jetzt bei mir als Immersion reindrehen. Das wäre zum Beispiel eine Vorstellung so.
Das ist die andere Geschichte, die ich gerne hätte. Ich würde gerne praktisch in der 3D-Ansicht einfach von anderen Brille-Seiten fertig. Gib mir halt das, was du aufnehmen würdest in deinem Immersionsvideo direkt als Stream. Das hätte ich gerne als Erlebnis. Was ja schon kurz davor ist, du hast es halt nur flach.
Das ist ja schon so Du kannst nicht nach links und rechts gehen Ich hab mal versucht meine Personheit zu verbessern und hab dann, ich hab gerade lange Haare und ich hab mal, weil die Frisur so komisch aussah, hab ich die nach hinten gehalten und dann war meine Schulter praktisch so und da war diese Schulter als 3D-Geschichte in dieser Persona mit drin und mein Arm hing da immer so irgendwie ab, wenn ich meine Hände gezeigt habe, es sah ganz creepy aus. Also die haben so ein gefühltes 3D-Modell von deinem Oberkörper schon mit dem, was sie erfassen, weil die Finger und Hände haben sie ja dann auch, wenn sie anzeigen. Also es gibt schon von dem, was sie sehen, es könnte auch mehr sein und interpoliert werden dann und da gibt es viel, aber was es halt überhaupt nicht gibt, ist, zusammen interagieren in irgendeiner Form, also sich gemeinsam einen Film angucken, geht angeblich mit Shareplay, habe ich noch nie ausprobiert, aber dann siehst du ja die andere Person nicht, dann schaust du nur denselben Film zur selben Zeit. So, du bist jetzt nicht in so einem gemeinsamen Erlebnis, so wie es bei Facebook und Quest schon länger geht, auch wenn es ein bisschen gimmicky ist, aber sowas gibt es halt im Moment gar nicht auf der Plattform. Und ich weiß auch nicht, ob da bald was kommt.
Glaube ich, nicht so viel FaceTime gemacht, um da wirklich mir eine Meinung bilden zu können, aber audiotechnisch habe ich sowieso überhaupt nichts auszusetzen an diesem Gerät. Also das war alles tippitoppi. Jetzt haben wir schon ganz lange über die Vision Pro geredet. Wir können jetzt vielleicht nochmal so Apps, also es gibt ja abgesehen von dem Standardkram, gibt es ja auch noch ein paar Apps, die vielleicht schon mal so ein bisschen zeigen, wo jetzt das frühe Interesse von Entwicklern liegt oder wo zumindest mit rumgespielt wird. Und die eigentliche Frage, die sich natürlich damit verbindet, ist, wofür kann man das Ding eigentlich gebrauchen und taugt es überhaupt irgendwas und warum sollte man sowas überhaupt haben wollen und will man sowas überhaupt haben? Also ich will sowas zum Beispiel gerade noch nicht haben. So beeindruckend ich das alles finde, aber das ist ja eben die Frage, was ist dann sozusagen auch der Nutzen?
Ich würde es haben wollen, wenn ich es benutzen will. Also das ist ja immer so diese Frage, du hast ein Mac, du hast ein iPad oder hast ein iPhone auf dem Tisch und deine Uhr, so, und jetzt willst du irgendwas tun. Was nimmst du? Welches Gerät nimmst du als erstes, um irgendwas zu tun? Oder was tust du, wenn du irgendein Gerät nimmst? Was tust du nicht, wenn du irgendein Gerät nimmst? Es gibt Dinge, die mache ich am liebsten auf dem iPad. Es gibt sehr viele Sachen, die mache ich auf dem Mac am liebsten. Es gibt Dinge, da ist nur das iPhone für gedacht und einen Timer stelle ich mir am liebsten auf der Uhr. Und genauso müsste es halt irgendwas geben für diese Vision Pro, wo ich so diesen Urge habe, so jetzt das Ding aufsetzen, weil dann, also vor allem wo man. Kein Problem damit hat, all diese ganzen Nachteile einzugehen mit der Entkopplung von der Außenwelt, das Teil mit dem komischen Akku, den du da in der Hosentasche hast, den du erstmal irgendwie arrangieren musst und dieser komische Clip da und einschalten und booten und okay, wenn das schon läuft, dann setzt du den auf, dann Optik-ID, dann bist du auch sofort eingeloggt, dann kann es auch sofort losgehen. Passt schon alles, aber es ist halt nicht so wie eine Uhr, die du immer am Arm hast und es ist auch nicht wie das iPhone, was du mal eben aus der Hosentasche ziehst oder ein Laptop, der dich einfach auf den Tisch die ganze Zeit anlächelt und sagt, benutze mich oder das iPad. Die Vision Pro muss immer erst in Betrieb genommen werden. Du hast immer erst so diesen Aufsetzen, Arrangieren, was mit meiner Frisurbrille, wie habe ich das richtige Setting. Okay, Und dann hast du sie auf und dann geht es eigentlich erst los. Es ist also nicht so dieser in einer Sekunde kann ich sofort anfangen mit irgendwas, sondern das ist auf jeden Fall erstmal eine Prozedur. Und da muss sich natürlich was rufen. Da muss irgendwas da sein, was du nur da so machen kannst und was es dir dann natürlich auch wert ist. Sowohl jetzt die initiale Investition in Geld, als auch Wert in dem Moment diesen Aufwand zu leisten und auch die potenziellen Nachteile einzugehen, die du natürlich zwangsläufig hast, wenn du so ein Ding aufhast. Und wenn man sich jetzt mal anschaut, was an Apps derzeit so da ist, meine Apple behauptet jetzt 600 Apps, keine Ahnung, die Hälfte davon sind wahrscheinlich Clocks. Also was sind sozusagen jetzt so die Anwendungen, die gerade da sind und die andere Frage ist natürlich, was sind die Anwendungen, die einen sofort das kaufen lassen würden.
Vielleicht nicht die Generation, aber dann später. Also einfach Ich habe die Hände frei und kann aber trotzdem Informationen abrufen und mich auch gleichzeitig bewegen und irgendwo hingehen und so. Also das ist für mich ein Interaktionsmodell, was Sinn machen würde. Und das zweite ist auf jeden Fall halt auch, wenn ich irgendwas mit 3D-Druckern mache und vielleicht auch 3D-Modelle dann entwerfe, dann ist so eine Brille natürlich super. Super, machst das Modell, du kannst, wenn das entsprechend gut gemacht ist, sogar auf dem Druckerbad kannst du sehen, wie kommt das Teil da raus, wie sieht das dann aus, wie groß ist das und mit einem Tab kannst du dann den Drucker anwerfen, möglicherweise.
Ja, also ich denke alles, was so mit 3D-Modellierung, 3D-Modellerstellung, also egal ob es jetzt gedruckt ist oder virtuell, das funktioniert. Selbstverständlich werden viele Leute, die so im Bereich Architektur, Wohnungsvisualisierung, Einrichtungen und so weiter, das sind glaube ich, Early Adopter potenzielle von dieser Kamera, weil ich vermute, dass dort im Application-Bereich sehr schnell was passieren wird, weil es halt teilweise auch Apps schon gibt, die eigentlich nur angepasst werden müssen und die dann natürlich sofort davon profitieren.
Also ich könnte mir auch vorstellen, so wenn du, weiß ich, so ein CAD-Programm wie Shaper oder so oder Onshape, wenn du das gut machst, dass du das in der Brille auch gerne lieber machst, weil das hat diesen 3D, du siehst es halt wirklich. Und wenn du eh parametrisch arbeitest, dann kannst du halt ein paar Zahlen eingeben und musst halt nur, das muss halt gut bedienbar sein. Aber Shaper3D, was Shaper3D auf iPad gemacht hat, das auch für Vision OS, dann hast du gewonnen eigentlich, weil das ist schon, das willst du haben, das macht schon Spaß.
Ein Interface, das man gut auf dem iPad mit dem Stift bedienen kann, das intuitiver ist ein bisschen als Autodesk und Shape. Es hat einfach wirklich eine iPad-spezifische Lösungen gemacht, mit einem Bedienmodell, das funktioniert. Und das kannst du halt mit eigentlich mit der, mit dem Eye-Tracking und den Gesten kannst du es genau genug machen, wenn du es gut machst. Was ich ein bisschen schade finde, ist, dass Onshape hat eine Vision Pro App, aber die macht halt gar nichts irgendwie. Also die ist halt so grottenschlecht, dass ich es nicht geschafft habe, meine Modelle, die ich mir so gebaut habe, in letzter der Zeit irgendwie in den Raum zu stellen, weil ich diese App nicht bedienen kann, weil da geht halt irgendwie nichts. So soll es nicht sein. Aber das ist schon auch eine. Schon auch eine Zielgruppe für sowas. Es ist aber alles noch Zukunftsmusik. Es ist wirklich, jetzt aktuell gibt es ganz wenig Apps, wo ich sagen würde, hey, dafür brauchst du das. Für mich ist es, glaube ich, eher so eine Geschichte, das ist jetzt eine Plattform, die Apple aufbaut und Apple wird den Atem haben, die zu halten. Und die wird jetzt noch eine Zeit lang vor sich hin verkümmern, weil was Geiles zu entwickeln, kostet auch geil viel Geld und so viele Leute haben jetzt dieses Ding noch nicht, dass es sich lohnt. Und du kannst ja auch die App nicht für 150 oder noch mehr verkaufen. Das haben wir ja auch irgendwie den Leuten abgewohnt. Apps, die ich selber ganz gut finde schon, also wirklich, wo ich jetzt, ich habe gestern irgendwie einfach mal mindestens eine halbe Stunde auf das Herz geguckt und habe dann erstmal verstanden, wie so der Flow durch das Blut ins Herz so funktioniert und durch die Lunge und wieder zurück und so. Das ist halt eine freie App von diesen Herz-Apps und die Modelle in der Luft zu haben und anzugucken, ist einfach noch eine andere Qualität als nicht. Also sämtliche dieser teureren Apps, die jetzt einfach eine im Raum 3D-Visualisierung von irgendwas, was du brauchst, also als Arzt, einem Menschen oder als Techniker irgendwie Bauteile oder sonst irgendwas. Also Chick ist zum Beispiel auch wirklich geil, da kannst du dir einfach so ein 3D-Modell in den Raum stellen, in Originalgröße und dann auseinandernehmen, die Teile angucken und Texte dazu. Also das ist schon ein Anwendungsfall, wo so eine Mixed Reality-Brille wirklich Sinn Sinn macht und das Erlebnis kriegst du nicht anders. Oder auch die Mars Rover App ist ziemlich schlecht leider, aber den Mars Rover so im eigenen Zimmer in Originalgröße zu haben, nochmal um zu sehen, ach, das ist ja doch ein Auto und nicht ein Matchbox Ding, ist einfach, schau doch mal, es ist eine Klasse von, einfach eine andere Qualität, dass du diese Original-Maßstab-Geschichten hast. Und für das, was Roddy gesagt hat, alles, was mit 3D-Druck zu tun hat, da ist Reality Kit und AR Kit so gut, wenn du dem die richtigen Maße gibst, dann kannst du das im Raum platzieren und es ist einfach genau das so super geil. Finde ich auch schon cool. Aber brauche ich es konkret für irgendwas anders außer Spielen? Nee. Also ich schaue gern damit Filme und so und das wird auch so bleiben. Ich finde auch ganz gut, mich da zu bewegen dabei. Also dann praktisch so den Screen irgendwie zu haben und dabei aktiv irgendwie zu sein. Das ist okay, weil das Motion Blur beim Videogucken nicht so blöd ist. Also ich gucke viel im Stehen und Gehen. Interessanterweise nicht so viel auf der Couch. Auf der Couch nervt ein bisschen, dass dass die Klickerkennung und das Chips-Essen sich nicht so gut verträgt. Und da muss man sich praktisch erstmal die Bedienung ausschalten, bevor man da entspannt Fernsehen gucken kann. Also man kann ja auch die Bedienung auf nur linke oder nur rechte Hand stellen. Da kann man mit der einen Hand Chips essen. Das ist nicht schlecht, ohne dass da aus Versehen ein Klick erkannt wird. Oder man kann, und das sind auch ganz coole Features, so die Accessibility-Features zum Pointer-Control heißt es dann. Da kann man umstellen, dass man halt nicht mit den Augen arbeitet, sondern entweder mit dem Handgelenk, das heißt ein Handgelenk zeigt irgendwie, das andere tippt und dann hast du mehr oder weniger so einen Pointer, so ähnlich wie bei iOS, also einen Kreis, den du irgendwo anzeigst, wenn du willst, kriegst du auch den 3D-Strahl gezeigt oder du kannst mit dem Finger zeigen irgendwo drauf oder du kannst es so ganz hardcore machen, die Mitte des Bildschirms ist dein Zeiger und dann musst du halt den Kopf bewegen. Das ist für Accessibility gedacht, aber so kann man praktisch Situationen, die man nur temporär, indem man temporär nicht jetzt mit den Händen so viel auslösen will oder machen will, überbrücken. Das geht im Moment.
Vorstellung Nee, ist nicht so schlimm weil du eine sehr gute Auflösung hast auch bei dem Kopfbewegung, du musst da nicht so hektisch hin und her gehen, das ist eine ganz Ganz einfache Kopfhörungen reichen da schon aus. Also ich würde es auch nochmal so zusammenfassen, was meiner Meinung nach derzeit Anwendungen sein könnten und die potenziell in der, in der Lifetime dieser Version 1.0 vielleicht noch eine Rolle spielen können. Also nochmal so im nächsten anderthalb Jahr bei Leuten einen Kaufanreiz auslösen könnten. Und das ist definitiv natürlich ganz klar, das haben wir jetzt schon mehrfach gesagt, Visualisierung, 3D-Visualisierung, wenn man da in irgendeiner Form einen Bedarf hat, dann ist das halt einfach ein No-Brainer. Und Editing in gewisser Hinsicht auch. Das ist halt irgendwie Architektur, Wohnen, Kunst, also wenn ich das was weiß ich, für Blinkenlights, machst du eine Kunstinstallation im Raum, willst du irgendwo so was Großes irgendwo auf so einen Platz bauen, dann wäre es natürlich mega, wenn du eine Software hast, die sagen kann, so ja, hier zack, Alexanderplatz, dann das wäre natürlich der Knaller.
Ist auch eine App, die es schon gibt, also für Designer und so weiter, klatscht dein Design an ein reales Objekt dran und dann musst du halt die Objekte zahlen, also die hat auch ein Geschäftsmodell, das funktioniert so, also Also Milchkarton-Design. Da, fertig. Dann hast du Milchkarton in der Hand mit deinem Design.
Also wirklich so large scale. Wie auch immer. Also es wird es in allen Varianten geben und ich glaube, dass das einfach das ist dann auch konkurrenzlos. Also dann ist das einfach auch die die beste Möglichkeit, sich sowas anzuschauen und ein Gefühl dafür zu bekommen, sind unsere Entscheidungen richtig. Da kommt es ja manchmal auf so gefühlte Sachen an. Wie groß bauen wir das? Ist das groß genug? Wirkt das zu wenig? Ist das zu groß? Solche Entscheidungen sind sehr schwer mit Visualisierung im Zweidimensionalen zu machen, wenn du auch die Bezugsgröße deiner Umgebung nicht wirklich dabei hast. Und das ist halt das Coole, dass du sozusagen das zusammenbringen kannst. Da kann ich mir das also schon vorstellen. Dann eben, was auch schon anklang, so Remote Assistance, also wenn jetzt irgendwie jemand repariert was und du brauchst aber Expertise und dann könnte sich jemand sozusagen in deinen View einklinken, so Streaming, Facetime würde ja in dem Moment schon reichen und du kannst dann halt auch wirklich auf Dinge vielleicht auch zeigen und markieren oder so, das ist ja jetzt noch nicht möglich, um Leuten irgendwas beizubringen. Ja, da kannst du irgendwie in der Ukraine den Piloten da irgendwie noch Assistance geben oder den Leuten, die irgendwas reparieren, Assistance geben, so eine Sachen. Also mit Militär will ich jetzt gar nicht erst anfangen, aber generell die Remote Assistance, ob das dann im medizinischen Bereich ist oder Reparaturbereich, Technik und im weiteren Sinne, was du ja auch schon erwähnt hast, so Training, Education. Lernen, 3D-Modelle, interaktive Sachen, Sachen, wo du halt Dinge auseinander schälen kannst und dir wirklich dreidimensional anschauen kannst. Das ist ja bei dieser Jig-App auch so, dass du so Teile wegnehmen kannst, also wirklich vorstoßen kannst in Bereiche und das ist definitiv etwas, was damit geht. Und dann halt wie vorhin schon erwähnt, Sport denke ich mal, wird eine Rolle spielen. Mir ist noch nicht so ganz klar, was die beste Sache ist, aber du kannst natürlich jetzt auch so Stadionperspektiven einnehmen. Also wenn es möglich ist, sozusagen eine Live-Übertragung mit 180 Grad oder meinetwegen auch noch mehr. Zu machen und dann hast du eben so diese Stadionperspektive, was sozusagen den Vorteil hätte, dass du eben das ganze Spiel sehen kannst, während du heute immer nur so Kamera-Ausschnitt hast. Oder so eine mega totale, auf der du nichts erkennen kannst. Aber wenn du nah genug dran bist, um das Detail zu verfolgen, aber trotzdem jederzeit nach vorne und nach hinten gucken kannst und immer irgendwie so das Spielfeld beobachten kannst, ich glaube, das könnte ganz interessant werden und das ist auch definitiv ein Bereich, wo ich vorher eher skeptisch war und wo ich jetzt mir denke, okay, maybe there's something to it. Für mich persönlich wäre natürlich die Killer-App Google Earth. Beziehungsweise fände ich ja mal, jetzt wäre es ja mal Zeit für Apple da mal Butterbeigefische zu machen, weil die haben ja im Prinzip die gleichen Daten.
Was du ja auch machen kannst, also du kannst ja auch eine Maus und eine Tastatur, also ein Trackpad und Tastatur pairen, du ziehst ja auch durch, du kannst ja reale Dinge nutzen, das ist ja nicht ausgeschlossen. Ich meine, das ist auch eine andere Geschichte, die ich noch vergessen habe, die wir noch vergessen haben, wenn du den Mac pairst, dann hast du nicht nur auf dem, also wenn du den Mac-Bildschirm verbindest, dann hast du nicht nur auf dem Mac-Bildschirm deine Tastatur und Maus, sondern auf allen Apps, die du anguckst, kannst du auch mit dem Trackpad deine Maus bewegen und das ist halt die klassische iOS-Maus-Bedienung, die du benutzen kannst und die Tastatur direkt verwenden. Du kannst praktisch ein Laptop auch als Eingabegerät benutzen für deine, Vision Pro Apps.
Ja, natürlich, das ist ja die Zielgruppe. Wenn es möglich wäre, eine Space-Maus in dieses Produkt noch zu integrieren, also dass man sozusagen ein Ich-Kann-Mit-Meiner-Hand-in-Jede, in jede Richtung Beschleunigung bewirken. Das ist ja im Prinzip das, was die Space Mouse macht. Du kannst das Ding ziehen, drücken, in jede Richtung, Rotation und so weiter. Also allein als Model Interface, also eigentlich müssen sie das sogar irgendwie unterstützen, fällt mir dabei ein, weil diese ganzen 3D-Programme brauchen ja genau das Gleiche, weil da kannst du dann nicht die ganze Zeit irgendwie in der Luft, rumwirbeln und mit den den Fingern irgendwie rumziehen. Wie sieht denn das aus? Also, naja.
Ja, mal sehen. Aber da ist noch eine andere Geschichte, die wir jetzt noch nicht erwähnt haben. Also jenseits der Bedienung, die wir jetzt beschrieben haben und der direkten Interaktion mit mal drauf tippen, gibt es schon auch noch Handtracking per se für Apps, die in den Immersionsmodus gehen. Das heißt, Apps können auch das Handtracking komplett benutzen und eigene Erkennung machen auf dem Handskelett über ARKit, aber nur, wenn sie als immersive App die einzige App sind, die gerade am Start sind. Das ist auch so eine Privacy-Einschränkung. Und ich muss sagen, dass diese Handerkennung jetzt nicht so berauschend wirkt. Also die ist schon okay, aber die ist ein bisschen laggy. Das kann natürlich daran liegen, dass das, die Art und Weise, wie ich das jetzt mal programmiert habe an der Stelle, aber ich habe es auch bei den Spielen und bei den Apps so gesehen, es geht so. Also das ist nicht so schick. Da ist jetzt die Quest jetzt auch nicht schlechter so per se, glaube ich. Und vielleicht sogar besser. Und es ist auf alle Fälle dieses direkte Interaktionsmodell mit dem Handskelett ist so ein schwierigeres. Das ist ein bisschen schade. Also da hätte ich mir noch mehr erwartet.
Ja, nee. Nee. Also von Apple und der Garantie. So wie sie bei Gamecontroller am Anfang sich geweigert haben. Also von Apple. Selbst die Unterstützten. Also andersrum. Es ist technisch natürlich möglich, auch die zu unterstützen, die da sind. Und ich glaube, wenn sie irgendwas machen, dann, weil sie merken, der Spielemarkt bricht ihnen weg und wir machen so ein billiges Produkt, hätten gerne Spiele auch, dass sie den populären Game-Controller unterstützen, der halt diese Form hat von Flag, also den man halt Third-Party-mäßig kaufen will, wenn es einen gibt. Aber sie werden nichts selber machen. Die sind da dagegen. Definitiv.
Insgesamt, diese Zukunftsgeschichten ist halt schon spannend und wenn wir schon an der Ecke sind, da würde ich darauf eingehen wollen, von dem, was du am Anfang gesagt hast, ja beim ersten iPhone und beim ersten iPad und so weiter. Das Problem ist, das erste iPhone und das erste iPad war im Verhältnis nicht so viel teurer als der Rest und die nächste Generation muss trotzdem besser werden. Also die Vision Pro hat ein bisschen das Problem, dass die nächste Generation technisch definitiv noch besser werden muss als die hier. Und sie muss irgendwann mal in einem Preissegment ankommen, wo es Kunden hat. Also das ist im Moment so, das ist ein Luxusgut hoch 10, dass es spannend genug ist an der Stelle, aber das muss eingedampft werden auf unter 1000.
Es darf aber nichts losgelassen werden, wir brauchen alles. Die Sensoren dürfen nicht schlechter werden, das Audio darf nicht schlechter werden, die Auflösung darf nicht schlechter werden, also nichts darf schlechter werden. Insofern, nur die Zeit wird es retten. Apple hat den Atem, aber ich rechne schon mit zwei bis drei Jahren, bis da eine, bis dann mehr Massenmarkt kommt. Also das ist so ein bisschen die seltsame Geschichte, die ich damit finde, weil es ist jetzt schon ein geiles Produkt, aber kein, nicht geil genug und es hat nicht genug Nischen so an der Stelle. Also nur über den Atem kann Apple das, glaube ich, wirklich aufrollen, weil und ich weiß auch nicht, wie viele Entwickler dann bis dahin mitspielen. Also diese Investitionen zu machen, hier ein externes Produkt für zu machen, für so einen kleinen Markt, puh.
Jaja, bei Apple TV ist das ein anderer Grund irgendwie. Die Plattform hat halt den Zug da verpasst, im Sinne irgendwie spannend zu sein. Günstig genug wäre ein Apple TV schon, wenn es Spiele gäbe. Aber das Ding ist halt nicht günstig genug. Wenn das nicht weniger als 1000 kostet, dann haben das zu wenig Leute dafür, dass es sich lohnt, große Entwicklungen zu machen für kleines Geld oder in irgendeiner Form in diesem Apple-Modell. Also da habe ich schon ein bisschen Sorge.
Weil ich finde das Ökosystem, das sie geschaffen haben und auch die, also nicht das Ökosystem, sondern das Interaktionsmodell, das sie geschaffen haben, also das, was sie jetzt da hingelegt haben, ist eine Plattform. Ich würde die Plattform gerne mit Erfolg sehen, aber ich weiß nicht, bis wann es dauert, bis sie das hat. So, da bin ich nicht so optimistisch.
Naja, ich kann mir vorstellen, also sie haben die erste Vision ja ganz offensichtlich Pro genannt, weil Pro heißt bei Apple ja nicht Professional, sondern nur teuer. Und dann kann ich mir vorstellen, dass sie in drei Jahren oder sagen wir zur dritten Generation dann die nicht Pro bringen, wo dann ältere Hardware verbaut ist, die halt in der dann dritten Generation irgendwie immer noch, wo sie immer noch rechtfertigen können, warum das dann pro Modell immer noch so viel kostet.
Ja, aber was passiert denn bis dahin? Also, ich glaube nicht, dass es viele Apps geben wird, die da viel investieren. Die Sport, also, Sportübertragung und so weiter. Es gibt ein paar Nischenmärkte, die machen das wahrscheinlich. Apple selber macht natürlich so, aber so puh, also ich glaube, ich würde jetzt nicht sagen, hey, mach mal, also ich selber würde was dafür machen, weil ich es will, weil es Spaß macht, so. Also, ich empfinde immer so dieses, es gibt ja auch so eine Guitar Hero Style Piano App. Sowas hätte ich auch gerne gemacht und die ist recht schlecht, die es gibt. Die auf der Quest ist übrigens relativ gut sogar inzwischen. Die heißt irgendwie Piano Vision. Aber für den Consumer-Markt ist das halt nicht. Mal schauen. Es wird spannend. Ich glaube, Apple hat den, hat den Atem, das durchzuhalten und die werden es machen. Aber ich glaube, es dauert länger. Es dauert wirklich drei, vier, fünf Jahre, bis das in irgendeiner Form dem Produkt einfach mal vorhanden ist.
Ja doch, ich hätte jetzt gesagt der Original Macintosh, weil da war es im Prinzip genau dieselbe Situation. Sie haben einen unheimlichen Aufwand getrieben, sie haben ein System rausgebracht, was komplett anders war als alles, was bis dahin galt. Ja, ein Computer, den du nicht mit der Tastatur über Kommandos steuerst, der einen weiß-schwarzen Bildschirm hatte mit einer Maus und mit einer Floppy-Disk und also 3,5 Zoll. Ja, Lisa, also egal.
Ja genau, könnte man auch noch machen. Aber ich wollte ja darauf hinaus, was hat dann letzten Endes den Macintosh zum Erfolg werden lassen? Und das war halt Photoshop und später QuarkXPress. Desktop Publishing, das ist das Segment, das ist die Tür, die sie aufgestoßen haben, das war das Neue. Innerhalb kürzester Zeit hattest du in Werbeagenturen und Verlagen überall Macintoshes stehen während der Rest der Welt von dieser Maschine keine nennenswerte, Kenntnis genommen hat außer natürlich ein paar Die-Hard-Nerds, die sich irgendwie jeden Kram kaufen mussten aber das war das Segment, was sie sozusagen dadurch begründet haben und das haben sie in dem Sinne auch nicht geplant so wie für den Apple 2 und auch für DOS, Spreadsheets Visikal und Lotus 1, 2, 3 absolute Treiber waren und überhaupt erstmal die Legitimation der Existenz ihrer Plattform überhaupt geliefert haben. Weil es da einfach einen Bedarf gab und weil Leute gesagt haben, mir ist das scheißegal, was ein Computer kostet, wenn der Zahlen ausrechnen kann in so einer XY-Spalten-Geschichte, dann kann ich irgendwie, dann kann ich meine ganze Firma komplett anders betreiben, als ich es bisher hergemacht habe, ist mir egal, was der Computer kostet.
Und, Und genau so etwas braucht jetzt auch die Vision Pro, weil Apple hat es sozusagen platziert als, wir sind zwar irgendwie so ein Headset, aber wir benutzen das Wort gar nicht. Wir definieren hier eine Computing-Plattform und nicht irgendwie ein Gaming-Device. Wir haben ein komplett eigenes Interaktionsmodell, wir haben ganz andere Arten und Weisen, wie das hier bedient wird und so wie wir die Maus erfunden haben und wie wir Multitouch auf den Markt gebracht haben, haben wir jetzt hier irgendwie Pinch und also Stimme, Stimme, Auge und Finger sind auf einmal der Controller für dein System. Und dann halt so alles in brauchbarer Qualität, genug Sensoren und jetzt ist es eigentlich so die Wette, die auf dem Tisch liegt mit, so liebe Entwickler, jetzt lasst euch mal was einfallen, wir wissen auch nicht, was die Killer ab ist. Wir haben eine gewisse Idee und wir haben drei, vier, fünf Sachen wie bei der Watch auch schon rausgeguckt. Erinnere dich, bei dieser Watch, was da am Anfang alles probiert wurde, hier mit irgendwie Herzschlagteilen und diese ganzen Kommunikationssachen, die sich nie durchgesetzt haben. Aber am Ende waren halt Notifications allein schon mal ganz interessant und irgendwie Timer und dann vor allem halt Fitness-Tracking. ging. Das war halt der Grund, warum sich die Leute diese Uhr gekauft haben. Sport. Das war halt das Ding. Und das hat diese Watch in den Markt geholt und dann haben sie auch zugesehen, dass sie da das immer weiter verbessern und dafür ist die halt auch wirklich wirklich gut. Und genauso wird es jetzt bei der Vision Pro laufen. Es wird irgendwas rauskommen. Was diese Fähigkeiten dieser Plattform nutzt auf eine Art und Weise, um dabei was Neues zu produzieren oder irgendetwas auf eine bestimmte Art und Weise viel besser zu machen, als man das bisher mit was anderem machen konnte. Und dieser ganze 3D-Modellierungs- und Visualisierungsbereich ist ein heißer Kandidat dafür. Sicherlich auch irgendwelche Kommunikations-Interaktionsmodelle im Bereich Training, Education, Kommunikation. Kann ich mir sehr gut vorstellen, dass da irgendwas passiert. Und vielleicht ist es auch der Sport und vielleicht ist es auch am Ende Kino gucken. gucken. Vielleicht funktioniert das auch schon. Das ist, sagen wir mal, dieses Filmgucken ist so die, ich würde nicht sagen, die niedrig hängende Frucht, aber das ist so, dass das versteht jeder. Also du musst keinem mehr erklären, warum man Filme gucken sollte.
Also die Geschichte dahingehend sei vielleicht nochmal gesagt, also der Screen für Filme gucken ist schon extrem gut auch. Also ich habe ja zumindest davor nochmal versucht mit der Quest 2 das mal zu machen, die war noch viel zu schlecht, aber die Quest 3 macht auch weniger Spaß. Also das Mehr an Pixel, das man in der Density hat, ist für Filme gucken schon auch nochmal cooler. Also es ist schon auch die erste Brille, mit der ich Filme gucken will, die ich aufgesetzt hatte, weil mit den anderen wollte ich immer nur eher Spiele spielen, weil das halt ein Novum ist. Aber mit der will ich auch einen Film gucken, weil die Qualität gut ist, was ich da sehe.
Also ich sehe es ja eher in Interaktion mit 3D, ob das jetzt Spiele sind oder ob das tatsächlich ich baue CAD-Modelle, ich, bin in der Lage, die besser im Raum zu verorten und besser zu verstehen, was habe ich da eigentlich modelliert, wie sieht das aus, wenn es bei mir auf dem Tisch steht. Das ist für mich der heiße Kandidat.
Nee, es geht ja auch nicht erstmal um den…, Massenmarkt, sondern es geht darum, dass so ein neues, also das mit den Filmen ist, sagen wir mal, nur so die Reizwäsche, die einen erstmal sozusagen für diese Plattform, die eine gute Ausrede liefert, sich diese Plattform zuzulegen. Du kaufst dir diese Brille und dann kannst du Filme gucken. Und wenn du irgendwie regelmäßig Business Class im Flugzeug fliegst und irgendwie deine 4-5 Stunden Flüge hast, dann kostet dich das Ding so viel wie ein Ticket. New York, Paris und das geht sozusagen in deine Gesamtinvestitionen komplett unter. Das sind halt die Leute, die dann erstmal einfach mal kaufen und die sich da immer schön einreden können, okay, das reicht mir jetzt allein zum Film gucken. Jetzt läuft die Zeit weiter und Entwickler kommen halt mit neuen Ideen und dann ist halt eben die Frage, gibt es so einen Photoshop, VisiCalc, QuarkXPress Moment? Gibt es irgendwie so eine App, die da halt was definiert und dann kann das eben diese Kamera in die nächste Generation bringen.
Also was ich mir wünschen würde an der Stelle wirklich, was diese Reise gewinnen würde, wäre irgendwas, was praktisch mit diesem Interaktionsmodell im Raum einfach wirklich was Neues macht. So wie Spaghetti Computing für Shader, sowas für andere. Also es ist wirklich so, du arbeitest mit einem 3D-Objekt und erzeugst damit geiles Zeug, wie auch immer. Also so eine App, die es halt einfach noch nicht gibt. So eine VJ-App, die aber im Raum arbeitet und es mehr Sinn macht, im Raum zu sein. Ich finde, da hat die Vision Pro Potenzial, weil sie alle Sensoren hat und alle Auflösungen dafür, sowas zu machen. Aber das gibt es halt noch nicht. Es gibt halt das Programm noch nicht. Das Äquivalent zu Photoshop für den 3D-Raum gibt es halt noch nicht. Und das würde ich gerne sehen, das wäre mir am liebsten, weil da warte ich drauf. Ich warte schon so lange drauf auf so eine größere, das ist jetzt mal eine geile Sache, die jetzt mit neuer Technologie, nur mit neuer Technologie funktioniert.
Aber das Beispiel Photoshop ist insofern recht schön, du hast ein Tool, was in der virtuellen Welt funktioniert. Und du produzierst aber etwas damit, was in der nicht virtuellen Welt verwendet wird, nämlich das Druckerzeugnis. Und ich glaube, dass die Vision, wenn sie sich beweisen soll, muss diesen Medienbruch zwischen virtueller und echter Welt hinkriegen. Deswegen sage ich halt, 3D-Modeling aller Art kombiniert mit Rapid Prototyping, 3D-Drucker aller Art, ist glaube ich ein schöner Knackpunkt. Wenn Apple diesen Markt irgendwie auch nur halbwegs anknacken kann, dann haben sie einen Gewinner an der Stelle.
Ja, aber wie viele Leute haben denn jetzt schon einen 3D-Drucker? Ich meine, das kommt doch auch immer mehr in den Massenmarkt. Und wenn die 3D-Drucker erstmal ordentlich im Massenmarkt sind, dann kommen auch die, wie komme ich denn zu dem Kram, den ich ausdrucke? Das muss doch auch dann irgendwie mit in den Massenmarkt tröpfeln.
Also nur mal, um dich mal in meinen Relativ zu halten, mein Kleiner hat eine Einladung mit einem 3D-Druck bekommen, so zu einem Geburtstag. Und ich weiß nicht, wie nerdy die Familie wirklich ist. Ich muss mal nachfragen. Wirkt er nicht so nerdy? Also es ist erstaunlich, erstaunlich Massen. Und ich bin mit meinem Neukauf von meinem 3D-Drucker in eine Runde gekommen und dann war das, ach so, ja.
Ich weiß nicht, ob wir wirklich noch was haben, was wir loswerden wollen dazu, also ich find's nach wie vor, also ich find's, Ich finde es super spannend, vielleicht, es klingt jetzt so negativ, dass ich den Markt nicht so sehe und was auch immer, aber es ist so, seit längerem wieder so das erste Produkt, wo ich sehe, wie geil es noch werden kann, weil alle Aspekte noch viel besser werden können, so an der Stelle und auch müssen und trotzdem so die Initialzündung schon so viel Spaß macht, dass es für mich, also es ist so ein, als Hobbyding ist es irgendwie cool.
Ja, nee, ist in Ordnung. Also vielleicht mal so nochmal von oben herab. Ist das jetzt sozusagen ein bold Move, den Sie da gemacht haben? Ja. Ist es etwas, was ich kaufen würde gerade für mich, weil ich für mich da eine Anwendung sehe? Nee, derzeit noch nicht. Also nichts hat mich jetzt so gereizt und als ich das Ding, nachdem ich mich 24 Stunden damit beschäftigt habe, Gab es jetzt nichts, wo ich mir gedacht habe, so, oh, schade, dass ich die jetzt nicht im Zugriff habe, jetzt würde ich aber gerne nochmal das, also abgesehen von, ich beschäftige mich damit, um zu verstehen, was es ist, so einfach so von der Anwendung her, gab es jetzt nichts, wo ich sagen würde, das brauche ich aber jetzt unbedingt irgendwie in meinem Leben. Hat auch ein bisschen was damit zu tun, dass ich jetzt nicht so ein extensiver Filmgucker wäre. Da wäre das schon vielleicht ein bisschen anders. Und natürlich hätte ich gerne etwas, was ist wie Google Earth. Also ich meine, wenn Apple mal Apple Maps einfach so wie Google Earth baut für die Vision Pro, dann kaufe ich mir aber eins für jeden Ort.
Also das fände ich insgesamt auch einen guten Content News mit, du bist an dem Ort dann ein bisschen, du hast ein bisschen den Kontext im Sinne von, das sind die Leute da, das sind die Orte, das sind die Gebäude, das ist so die Stimmung, das ist die Farbe des Himmels oder wie auch immer so als Immersive Experience, nur damit du nicht nur diese komische Zahl hast oder so. Also das könnte ich mir auch noch gut vorstellen als, ist ja mehr Education insgesamt, aber so einfach so als, man will es dann nicht mehr nicht haben. Wenn man mal irgendwo vor Ort gewesen sein kann, um es zu sehen, anstatt so ein flaches Fernsehbild, vielleicht ist das was.
Ich weiß noch, dass ich damals am Überlegen war, jetzt mal so einen MP3-Player mit Festplatte haben zu wollen. Und habe dann hin und her überlegt, die Geräte waren alle irgendwie nicht so richtig meh. Und dann kam Apple mit dem iPod. Und ich so, scheiße, den musst du jetzt haben. Und der war ja auch geil.
Ich? Ja, ich habe mir den spontan irgendwie, ich habe von einem Bekannten mal einen alten 3D-Drucker ausgeliehen und habe so ein bisschen Lunte gerochen und habe mir überlegt, ich will mal wissen, wie der aktuelle Stand der 3D-Drucktechnik so ist. Was kauft man denn da so und hab mir dann bei Aldi gibt es da gerade was genau, empfehlen lassen den Prusa MK4 der da noch mit, Warteliste war und dann kam der doch viel früher als gedacht und dann kam der praktisch zwei Wochen vor der Vision Pro daher und dann hat mich der links hinten überrascht und seitdem hat der rund um die Uhr durchgedruckt dann, also einen zum selber aufbauen sogar, also eher nicht so Massenmarkt mäßig Ja.
Nee, also was heißt Ikea? Ja schon, von der Anleitung, die Anleitung ist sehr gut, aber acht bis neun Stunden baut man den so zusammen. Okay, willst du das machen? Ich habe mir die genaue Dauer nicht so genau durchgelesen und ich dachte mir, das ist ja doch noch so ein manuelles Produkt, wenn man es dann selber zusammengebaut hat, weiß man wenigstens, wo die Probleme sind, weil ich kenne 3D-Drucken ja nur mit Problemen. Also wir haben damals, Martin hatte damals mal von irgendeinem Kongress den ersten Maker-Bot oder den zweiten so gefühlt mitgebracht und den haben wir dann in der Cave mal aufgebaut und dann haben wir ungefähr drei Drucke hinbekommen, bis der irgendwie eingeschmolzen ist, weil wir waren alle nicht so aktiv, den zu pflegen und bis der irgendwie auf dem Druckbett dann wirklich auch gehaftet ist und so. es war dann ganz cool, aber hatte keinen Sinn. Und da habe ich mir gedacht, das ist doch jetzt anders, dann hatte ich den kleinen vom Bekannten und habe dann eben so ein bisschen ausprobiert und dann hatte ich es auch schon ein altes Modell und das ist eigentlich inzwischen alles schon viel angenehmer, weil was der Prusa macht ist und die, moderneren 3D-Drucker ist, man muss die nicht mehr so fein fiddelig justieren, sondern man steckt einfach was rein und dann startet man den Druck und man muss ein bisschen die Werte, in den Programmen einstellen, so dass sie passend zu dem Druckmaterial ist, was man benutzt. Aber man muss jetzt nicht mehr das Druckbett irgendwie anheben und dann die Temperatur ausprobieren und den ganzen Scheiß machen. So, und dann druckt man halt Dinge. Und das macht erstaunlich viel Spaß. Und die Welt der CAD-Programme hat sich auch massiv verändert. Also wie ich vorher schon gemeint habe, Shaper. Onshape ist irgendwie sogar ein Web-Tool, mit dem man parametrisch... CAD machen kann und geiles Zeug sofort, wenn man weiß, was man macht, geht es in Nullkommanix. Die Programme sind alle besser geworden. Es ist ein Spaß. Es ist ein Rabbit Hole. Es ist wirklich so, zwei Wochen hat dieser Drucker durchgedruckt. Und jetzt ist er schon langsam so ein bisschen eine Bremse drin. Aber ich habe mir zum Beispiel so das hier gemacht für meine Vision Pro. Was ist das hier? Das ist so ein in die Vision Pro kommt in der Verpackung mit so einem Karton runden Dings. Damit die Vorderseite da wo dein Gesicht drauf ist, auch abgedeckt ist. Wenn du die Vision Pro rausnimmst kriegst du im Umfang, wenn du nicht die teure Tasche gekauft hast, nichts um das irgendwie zu transportieren oder, zu schützen, außer so ein Verhüterli, der so vorne auf der, Glasscheibe sitzt, genau so ein Socken, aber die Innenseite mit den Linsen ist einfach, die ist einfach offen, also die kannst du irgendwie jetzt so nicht in die Tasche stecken oder so oder einfach nur rumlegen lassen und da habe ich mir so ein Inlay gedruckt, das man da drauf legt damit, wenn irgendwie Dreck runterfällt oder es nicht einstaubt oder man halt auch das Gefühl hat, es verkratzt nicht die Linse, die sauteuer war und, das konnte ich mir halt einfach zusammendrucken, indem ich das ein bisschen ausgemessen habe und ein bisschen dann so, CAD gemacht habe das hat Spaß gemacht, und die meisten Drucke funktionieren einfach, wenn man es machen will und es hat halt diese. Nach wie vor den Nachteil, dass man halt mit der Art und Weise des Drucks arbeiten muss, das heißt Das heißt, es gibt halt die Schichten, mit denen das Zeug läuft und man muss halt die Stärke des Materials in die richtige Richtung machen und das verschiedene Plastik. Aber es ist halt alles jetzt ein gelöstes Problem geführt. Also wenn ich jetzt irgendwas machen will, kann ich es machen. Zum Beispiel kleine Elektronikbauteile auch. Also ich habe auch noch Lust, da was schöne Enclosures für zu machen. Also die, Da wird viel passiert und das selber machen zu können hat für mich den Unterschied gemacht, weil jetzt habe ich es halt einfach ausprobiert. Ich habe die zwei Wochen lang immer was gedruckt, dann habe ich es ausprobiert, ein bisschen was gemacht, ein bisschen was selber gemacht und jetzt habe ich so innerhalb dieser zwei Wochen schon genug Selbstvertrauen, dass ich jetzt irgendwie so Reparaturzeugs machen würde. Würde für, da ist man, da fehlt man ein Plastikteil von irgendwas, dass ich das schnell nachbaue und dann einfach mal schnell drucke. So. Und das ist einfach, ich kann das jetzt, ich hab das jetzt was, ich kann da jetzt Zeug hervorheben.
Ich habe mich jetzt sehr lange mit Händen und Füßen gewehrt, einen 3D-Drucker anzuschaffen, aber ich glaube, ich komme langsam nicht mehr dran vorbei. Weil das ist wieder so ein Rabbit Hole. Vor allen Dingen das Schlimme ist, es gibt ja inzwischen auch alles, was man damit macht, also so Lebensmittel echtes Filament zum Beispiel, wo man halt dann auch mal keine Ahnung, Sachen drucken kann, die man irgendwie, weiß ich nicht, beim Brauen brauchen könnte oder so. Es gibt kaum noch Argumente dagegen. Das ist echt ein Problem.
Ich frage mich immer, wie viele Dinge ich eigentlich wirklich so zu ersetzen und zu reparieren habe. Aber klar, es gibt immer mal so Plastikteile, die brechen und dann ist es schwierig, die zu kleben und dann so, aber wie oft ich dann auch wirklich in dem Moment so einen Drucker zum Einsatz bringen könnte, erfolgreich, da habe ich doch echt meine Zweifel.
Also ich hätte es halt auch nicht gemacht, wenn ich nicht Lust runtergeleckt hätte, einfach so, okay, wie ist denn die aktuelle Situation mit 3D-Druckern? Um einfach diese Einschätzung, okay, gibt es die bei Aldi und macht das Sinn für Leute, um die einfach haben zu können und ja, also du kannst mit so einem, relativ robusten Drucker und ein bisschen was aus dem Internet runterladen, dir sinnvolles Zeug drucken, das können die Leute jetzt, die Geräte sind gut genug und, das wollte ich alleine wissen Und jetzt habe ich mich genug informiert wieder und jetzt werde ich mit dem so lange glücklich, wie ich ihn verwenden werde. Keine Ahnung. Also die Recherche ist passiert. Die sinnvollen Dinge kommen jetzt dann später in kleineren Dosen wieder.
Also, du hast einerseits die Ecke... Ist es jetzt eher so ein fertiges Produkt, das du dann nicht reparieren kannst, so wie ein Bamboo oder eher so, wie du halt so einen Drucker kaufst, den du dann wegwirfst, wenn er kaputt ist? Oder ist es eher noch in dieser Makerboard und so weiter Gedankengut, wo auch Teile selber noch 3D gedruckt sind und du es eben noch zusammenbaust und reparieren kannst und ersetzen kannst und wo es sich auch mit der Zeit verbessert? So, das ist so die eine Achse, an der man arbeiten kann und Prusa ist da einfach relativ umtriebig, was das angeht. Prusa selber verwendet die massiv und hat die einfach im Einsatz, das heißt, die sind einfach, die gehen nicht so schnell kaputt und die sind auch wirklich gepflegt und das ist jetzt nicht ein Produkt für einen Consumer in irgendeiner Form, sondern von einer Ecke von Leuten, die auch wollen, dass die Dinger lange funktionieren. So, das war so, das ist ein Ding, das hält eigentlich oder kann man reparieren oder kann man sich dann Zeug nachkaufen. Es ist eher noch so, diese MakerBot-Tradition selber finde ich halt auch noch schön, weil ich halt so ein bisschen mehr aus dieser, ich will mehr verstehen um das Zeug drumherum Ecke komme und da gibt es da einiges. Und das war es dann eigentlich schon, weil es gibt noch einige andere, aber das war halt, die Ecke und die letzte, die mir noch wichtig war, war eben dieses, der kann einfach drauf losdrucken, nachdem er aufgebaut worden ist, also der hat der muss nicht mehr eingestellt werden auf seinem Bett und das Bett muss man gerade ausrichten so, damit irgendwie der erste Layer funktioniert, sondern der hat einen Mechanismus, wo er mit mit seiner Nase auf den Layer fährt und das misst. Und das macht er jedes Mal und dann klappt es auch. Du musst nur unten die Bildplatte putzen und das war's. Und es wurde bestätigt, dass das viel so ist. Und so eine Mischung aus Convenience und noch im alten Spirit fand ich gut. Deshalb ist es der geworden, genau. Es gibt noch einige mehr, aber ich meine, das ist so ein Rabbit Hole. Ich habe mich nicht super tief reingegraben. Das war so an der Oberfläche. Aber ich bin sehr zufrieden mit meiner Entscheidung. Also der flutscht. Das Einzige, was ich nicht unbedingt empfehlen würde, das Ding selber aufzubauen, weil man halt sich schon beim Aufbauen ein bisschen was kaputt machen kann und habe ich natürlich auch wieder, weil irgendwie die Kugellager von den Stangen, wenn man die da durchdrückt, da kann man schon aus Versehen mal Kugeln rausdrücken und das weiß man halt nachher, dass man das falsch gemacht hat, mehr oder weniger. Und auch wenn es vorher beschrieben wird, wenn man es zum ersten Mal macht, macht man es halt ein bisschen nicht so dolle. Es war gut genug, dass er sauber noch funktioniert, Aber so ein, zwei Kugellager sind jetzt weniger toll, als sie sein könnten, dadurch, dass ich es selber gemacht habe.
Also ich hätte gerne, ich habe ein bisschen Lust, ein bisschen was mit Elektronik zu machen und die wird halt nur dann hübsch, wenn sie eine Enclosure bekommt. Da musst du dann selber drucken und designen. Also ich habe halt jetzt, das Letzte, was ich gemacht habe, war so ein ein E-Paper-Display in den Bilderrahmen gesteckt und dann klebt es halt hinten mit, doppelseitigem Klebeband und Kabelbindern dran und das kann ich nicht, das kann ich nirgends woanders hinstellen als hier im Raum. Wenn ich da aber einen Enclosure drumrum mache, dann hat es einen USB-Stecker und dann sieht das aus wie ein schickes Ding. Also so, weißt du? Und da ist halt auch was, was ich gesehen habe, wenn du es mit genug Zeit druckst, dann ist halt auch das Plastik hübsch genug inzwischen. Also es ist nicht mehr so, dass du diese Schichten und Rillen und alles siehst, sondern wenn du das mit genug Zeit drucken lässt, dann ist die eine Seite auf dem Druckbett super glatt, die Oberseite kannst du super glatt bekommen und wenn du es ein bisschen mit Geschmack designst, hast du einfach ein schönes Teil. Das ist nicht mehr so, das hast du ja selbst gehäkelt.