Freak Show
Menschen! Technik! Sensationen!
https://freakshow.fm


FS275 Scheinriesenfenster

Raumzeit Live — Podcast-VJing — Apple Vision Pro

Heute liegt der Schwerpunkt der Sendung massiv auf der Apple Vision Pro. Dom hat sich eine zugelegt und Tim hatte die Gelegenheit das Gerät ausführlich zu testen. Entsprechend berichten wir von unseren ersten Eindrücken und Erfahrungen, stellen die Funktionen und Eigenschaften detailliert vor und geben unsere Einschätzung darüber ab, wofür das Teil ggf. taugen könnte, für wen es heute und in der Zukunft einen Wert darstellen könnte und wo noch große Fragezeichen bleiben.

https://freakshow.fm/fs275-scheinriesenfenster
Veröffentlicht am: 23. Februar 2024
Dauer: 4:02:06


Kapitel

  1. Intro 00:00:00.000
  2. Begrüßung 00:00:21.135
  3. Raumzeit Live 00:03:35.628
  4. Podcast VJing 00:06:11.475
  5. Staubsauger-Cloud 00:22:47.870
  6. Vision Pro: First Thoughts 00:29:36.760
  7. Vision Pro: Unboxing und Komponenten 00:45:01.713
  8. Vision Pro: Kameras und Schärfe 00:56:33.082
  9. Vision Pro: Setup 01:11:04.600
  10. Vision Pro: Bedienung von Menü und Fenstern 01:19:40.194
  11. Vision Pro: Mac Screen Sharing 01:39:21.652
  12. Vision Pro: Environments 01:51:58.435
  13. Vision Pro: Filme und Videos 02:05:05.077
  14. Vision Pro: Fotos und Panoramas 02:25:47.163
  15. Vision Pro: EyeSight und Personas 02:37:08.905
  16. Vision Pro: Screen Sharing und Optic ID 02:50:39.938
  17. Vision Pro: Apps und zukünftige Anwendungen 02:56:38.572
  18. Vision Pro: Fazit 03:34:11.719
  19. 3D-Drucker 03:41:22.516
  20. Ausklang 03:53:31.844

Transkript

Tim Pritlove
0:00:22
roddi
0:01:11
Tim Pritlove
0:01:12
Dominik Wagner
0:01:24
Tim Pritlove
0:01:27
Dominik Wagner
0:01:31
Tim Pritlove
0:01:35
roddi
0:01:48
Dominik Wagner
0:01:50
Tim Pritlove
0:02:07
Dominik Wagner
0:02:24
Tim Pritlove
0:02:28
Dominik Wagner
0:02:28
Tim Pritlove
0:02:32
Dominik Wagner
0:02:36
Tim Pritlove
0:02:37
Dominik Wagner
0:02:38
Tim Pritlove
0:02:41
Dominik Wagner
0:02:43
Tim Pritlove
0:02:43
Dominik Wagner
0:02:45

Ja.

Tim Pritlove
0:02:46
Dominik Wagner
0:02:49
Tim Pritlove
0:02:51
Dominik Wagner
0:02:52
Tim Pritlove
0:02:56
Dominik Wagner
0:02:58
Tim Pritlove
0:03:00
Dominik Wagner
0:03:07
Tim Pritlove
0:03:09
roddi
0:03:30
Tim Pritlove
0:03:31
roddi
0:04:03
Tim Pritlove
0:04:15
roddi
0:04:18
Tim Pritlove
0:04:21
roddi
0:04:49
Tim Pritlove
0:05:20

Ja, da war mehr Zip Zap. Das hat zwei Gründe. Der erste ist, es gab da irgendeinen internen Abstimmungsfehler, sodass eine andere Person davon ausging, das zu fahren. Und außerdem hat halt das Thema nicht ganz so viel Material hergegeben wie jetzt diese Bodenteleskope, weil die ESO, dieses European Southern Observatory, was diese Teleskope macht, das hat halt... Das hat halt schon sehr viel von diesem 180 Grad Videokram geschossen für Planetarien. Und darauf konnte man dann halt zugreifen und dementsprechend gab es halt viel. Ja, genau. Aber das ist tatsächlich jetzt ein Punkt, auf den ich jetzt nochmal kommen wollte. Und zwar, ich habe das auch hier schon mal, glaube ich, schon mal angesprochen. Aber jetzt gerade wegen dieser Live-Geschichte und speziell auch Raumzeit, aber im Prinzip wäre es auch etwas für die Freakshow, was Podcast und Live-Podcast auf eine interessante Weise ergänzen könnte, wo es aber ein spezifisches Problem gibt. Und das ist eben visuelle Begleitung. Also ich mache ja keine Videopodcasts und mache kein Gesicht in die Fresse halten, YouTube-Channel und dieser ganze Selfie-TikTok-Kram und so weiter, dafür bin ich zu alt und das war einfach noch nie mein Ding. Ich bin dafür nicht zu alt, natürlich bin ich völlig geeignet dafür, aber ich will halt, also wenn man sozusagen Leuten einen weiteren. Kommunikationskanal anbietet, den sie dann konsumieren sollen und dann einen weiteren Sinn quasi in Beschlag nimmt, so ein Ressourcen-Acquiring, betreibt, dann muss da auch Mehrwert kommen. Das hasse ich halt immer so an diesen, mach mal heute YouTube an, so, dann ist erstmal bla bla bla, Quatsch Quatsch Quatsch, ich rede jetzt mal über irgendwas, währenddessen schaut ihr doch bitte Bitte diese 1.000.000 3-Sekunden-Stock-Videoclips, die ich in meinem Standard-Abo mit drin habe und die ich einfach mit Dreck und Drop aus irgendeinem Archiv raussuche und meine AI, da muss ich nur drei Suchworte eingeben und dann habe ich schon irgendwas. Und ich sehe immer diese selbe düsselige Stockfoto-Imagerie, die überhaupt nichts damit zu tun hat. Das ist im Prinzip so die kolossale Fortführung von so Tagesschau berichtet über Arbeitsamtzahlen. Jeden Monat kommen so die Zahlen vom Arbeitsamt raus und was sehen wir? Das Arbeitsamt in Recklinghausen schwenkt irgendwie Leute, die irgendwie arbeiten, Leute, die nicht arbeiten, Leute, die irgendwo in einer Warteschlange stehen, immer dieselbe Footage, immer das gleiche, weil es gibt visuell nichts zu berichten. Es ist einfach nichts da, kein Fleisch.

roddi
0:08:29
Tim Pritlove
0:08:37
Dominik Wagner
0:08:50
Tim Pritlove
0:08:54
Dominik Wagner
0:08:57
Tim Pritlove
0:08:59
roddi
0:09:13
Tim Pritlove
0:09:14
roddi
0:10:33
Tim Pritlove
0:10:50

Ja, das ist auch gut so, dass man das nicht gesehen hat. Das ist ja auch nicht so wichtig. Aber am Ende war es halt ein Mehrwert. Und jetzt werde ich aber nicht, Immer in Planetarien gehen, sondern halt auch mal einfach einen Ort suchen, wo nur so eine normale 2D-Leinwand ist. Das reicht auch aus. Das hatte ich damals, als ich das in Darmstadt gemacht habe, auch. Jetzt die Frage, wie bespielst du das? Und das Besondere daran ist ja, das ist ja jetzt kein fertig geschnittenes Video, das findet ja live statt. Und du weißt zwar in etwa, auf welche Themen du eingehst, aber der Witz ist ja, dass man mit der visuellen Begleitung dem Inhalt dynamisch folgt. Das heißt, man macht ein neues Themenfeld auf, so bla bla bla und jetzt reden wir mal über Science Fiction und dann, weißt du, kommt Douglas Adams ins Spiel und das stand vorher auf keiner Liste und jetzt möchte ich halt in der Lage sein, dem schnell zu folgen, ohne dass jetzt Leute einem dabei zuschauen, wie man auf dem Webbrowser bei Google irgendwelche Suchbegriffe eingibt und irgendwelche Bilder erklickt. Das ist das, was ich auf keinen Fall möchte. Was ich also suche, ist eine Software, die eigentlich so ein bisschen funktioniert, wie so VJ-Software funktioniert. funktioniert. Weil VJ-Software ist ja im Prinzip genau das. Du hast dein Material, aus dem du so auswählst, Still Images, Moving Images und dann fügst du die mehr oder weniger live in so eine Playlist ein. Also entweder du hast es schon vorher so gebaut, wie das so abläuft oder du ziehst da halt irgendwas rein. Ich muss zugeben, ich habe nicht viel Erfahrung mit VJ-Software. Im Wesentlichen habe ich eigentlich nur anderen Leuten dabei zugeschaut, wie sie die benutzen. Und natürlich Natürlich ist jetzt der Funktionsumfang von klassischer VJing-Software für meine Zwecke auch völlig over the top, weil ich brauche jetzt nicht 30 Millionen Filter und Rotationen und so weiter, aber sagen wir mal so eine Software, die folgendes macht, die im Wesentlichen, in irgendeiner Form so eine Input-Queue hat, wo man so Sachen reinwerfen kann, sodass man zum Beispiel in einem Team mit zwei Leuten arbeiten kann. Die eine Person reagiert quasi auf den Inhalt, folgt dem Inhalt, merkt so, ah, okay, Douglas Adams, wir müssen jetzt was mit Douglas Adams, ich muss mal ein Foto von Douglas Adams und dann habe ich ein Foto von Douglas Adams und dann schmeiße ich das quasi für die VJ-ende Person in so eine Art Inbox. Shared Folder, was auch immer, API, keine Ahnung, Irgendwas, Webseite, Programm, Command Line, mir egal. Also irgendwie werfe ich das da rein, sodass die Person die Visuals steuert, der das sozusagen dann so als Input-Element aufpoppt und weiß, aha. Das muss ich jetzt in irgendeiner Form verwenden. Aber ich kann dann in dem Moment auch schnell durch ein paar Tastenkontrollen so Sachen machen wie, was weiß ich, dass man das irgendwie kurz maskiert, dass man da irgendwie eine Transition hat, wie das reinkommt. So, ja, das ist nicht so plopp jetzt dieses Bild, next slide, sondern dass man, was auch immer jetzt gerade angezeigt wird, sagt, okay, jetzt kommt hier ein Foto und dass die Software es einem irgendwie einfach macht, mit so Aspektratios dann kreativ umzugehen, damit das nicht alles zu bekloppt aussieht oder dass man da was weiß ich, einen Ken Burns Effekt macht oder das reinrauscht oder was auch immer. Also in irgendeiner Form eine gute Kontrolle über die visuelle Präsentation, aber halt als Output immer nur ein Screen, wo jetzt keinerlei User Interface auftaucht. Also du arbeitest quasi an dem Rechner mit einem Hauptbildschirm, da hast du sozusagen die Kontrolle und dein Output ist halt dann letzten Endes der Beamer dieser Veranstaltung, wo das dann eben für alle Teilnehmer zu sehen ist. Aber du kannst, du musst dann, du kannst also das trennen, dieses Recherchieren und den Zugriff auf diese Fotowelten, Datenbanken, was auch immer vorbereitetes Zeug oder so oder das Web und dann. Also elegant und klar das dann sozusagen in diese Input-Queue geben, sodass die Software dann auch so eingestellt werden kann, dass, was weiß ich, wenn jetzt gerade die Playlist oder die Queue so weit abgearbeitet ist, man zeigt halt sozusagen jetzt gerade das Letzte an, auch wenn man sich vielleicht noch fünf Bilder mal vorbereitet hat und wenn man dann die durch ist und kommt was rein, dann schaltet es auch automatisch darauf um, also irgendwie sowas. Das ist eine Software, die ich suche und ich habe so ein bisschen die Vermutung, es könnte etwas geben im VJ-Bereich, was sich vielleicht anpassen lässt, also indem man im Wesentlichen seine Features, ganz viele Features erstmal ausschaltet, damit es irgendwie einfach zu benutzen ist, um dann sowas zu machen. Und wenn es sowas gäbe, dann wäre schon, das wäre schon die halbe Miete, weil dann könnte man sich sozusagen so ein Content-Jockey-Podcast-VJ-Team aufbauen, was das dann auf solchen Veranstaltungen machen kann.

roddi
0:15:55
Dominik Wagner
0:16:07
Tim Pritlove
0:16:35
Dominik Wagner
0:16:36
Tim Pritlove
0:17:22

Ja.

Dominik Wagner
0:17:23
Tim Pritlove
0:17:24
Dominik Wagner
0:18:48
Tim Pritlove
0:19:01
Dominik Wagner
0:19:39
Tim Pritlove
0:19:48
Dominik Wagner
0:19:52
Tim Pritlove
0:19:59
Dominik Wagner
0:20:03
Tim Pritlove
0:20:11
Dominik Wagner
0:20:12
Tim Pritlove
0:20:14
Dominik Wagner
0:20:33
Tim Pritlove
0:20:56
Dominik Wagner
0:20:58
Tim Pritlove
0:20:59
Dominik Wagner
0:21:06
Tim Pritlove
0:21:21
Dominik Wagner
0:21:21
Tim Pritlove
0:21:23
Dominik Wagner
0:21:24
Tim Pritlove
0:21:25
roddi
0:22:51

Ja.

Tim Pritlove
0:22:53
Dominik Wagner
0:22:57
Tim Pritlove
0:22:59
roddi
0:24:00
Tim Pritlove
0:24:03
Dominik Wagner
0:24:34
roddi
0:24:35
Dominik Wagner
0:24:40
roddi
0:24:43
Dominik Wagner
0:24:45
Tim Pritlove
0:24:55
Dominik Wagner
0:24:56
Tim Pritlove
0:24:57
roddi
0:24:58
Dominik Wagner
0:25:09
roddi
0:25:16
Tim Pritlove
0:25:36
roddi
0:25:49
Dominik Wagner
0:26:04
roddi
0:26:19
Tim Pritlove
0:26:23
Dominik Wagner
0:26:42
Tim Pritlove
0:26:47
Dominik Wagner
0:26:49
Tim Pritlove
0:27:03
roddi
0:27:48
Dominik Wagner
0:27:51
Tim Pritlove
0:27:53
Dominik Wagner
0:27:56
roddi
0:28:31
Dominik Wagner
0:28:34
roddi
0:28:52
Dominik Wagner
0:28:54
roddi
0:29:00
Dominik Wagner
0:29:07
Tim Pritlove
0:29:21
roddi
0:29:23
Dominik Wagner
0:29:24
roddi
0:29:25
Tim Pritlove
0:29:34
Dominik Wagner
0:30:00
Tim Pritlove
0:30:29
Dominik Wagner
0:30:57
Tim Pritlove
0:31:21

Also um es vielleicht dahingehend mal vorwegzunehmen Also meine Ablehnung oder meine Skepsis ist generell gegenüber eben diesen Headsets als Benutzung im normalen sozialen Kontext und auch als Alternativ zu den anderen Geräten. Da habe ich ja auch benannt, was ich primär als Problem sehe. Diese Abschottung von anderen Menschen, 3D macht nicht unbedingt immer Sinn, Auflösungsproblematik etc. Etc. Kann man alles nachhören. Und ich finde auch nach wie vor, dass das alles absolut viable Punkte sind. Dann kam das Announcement von Apple und ich fand es halt schon bemerkenswert, dass sie auf viele von diesen konkreten Dingen eingegangen sind. Mit diesem Display außen und mit diesem Blickkontakt. Wir haben ja einen riesen Aufwand gestartet jetzt eigentlich. Um quasi ein Produkt in die Welt zu bringen, wo sie sagen können so, ja, wir haben auch Freakshow gehört, wir wissen, was die generellen Probleme mit dieser Kategorie sein können, aber wir haben dann auch mal was vorbereitet und guckt auch mal hier. Das fand ich jetzt sozusagen interessant. Und, Jetzt habe ich mir natürlich in der Zwischenzeit auch viele von diesen ganzen Reviews, die reingekommen sind, andere Podcaster, die darüber berichtet haben, das habe ich mir alles angehört und da waren halt viele interessante Details dabei. Ich habe aber auch gemerkt, dass es sehr schwierig ist und das wird auch heute wieder sehr schwierig sein, dass wenn man das nicht wirklich selber ausprobiert, dann ist es sehr schwer zu vermitteln, was da sozusagen wirklich passiert, wir werden es aber trotzdem probieren.

Dominik Wagner
0:33:05
Tim Pritlove
0:34:16
Dominik Wagner
0:34:23
Tim Pritlove
0:34:25
roddi
0:34:27
Tim Pritlove
0:34:30
roddi
0:34:32
Tim Pritlove
0:34:38
roddi
0:34:39
Dominik Wagner
0:34:44
roddi
0:35:01
Dominik Wagner
0:35:11
roddi
0:35:16
Tim Pritlove
0:36:19
roddi
0:36:30
Dominik Wagner
0:36:57
Tim Pritlove
0:36:58
Dominik Wagner
0:37:03
Tim Pritlove
0:37:11
Dominik Wagner
0:37:14
roddi
0:37:19
Dominik Wagner
0:37:21
Tim Pritlove
0:37:23

Vielleicht erstmal die ersten Gedanken komplett ablegen. Also ich war offen jetzt für alles, denke ich. Und ich war halt sehr gespannt, ob ich irgendwas entdecken werde. Und ich sage, geil, das brauche ich. Was es ein bisschen schwierig gemacht hat, das kann ich auch gleich vorweg nehmen. Ich hatte jetzt die Brille ohne irgendwelche Korrekturlinsen. Und obwohl ich im Großen und Ganzen kein Problem hatte, irgendwas zu erkennen und das alles zu bedienen, gab es so im Grenzbereich für mich schon Probleme mit der Schärfe. Also wenn ich ein Fenster weit von mir weg hatte, dann war es ein bisschen unscharf für mich und ich bin mir nicht hundertprozentig sicher, aber es kann sehr gut sein, dass wenn ich vielleicht eine von diesen Lesebrillen einsetzen. Die man ja so hätte dazukaufen können, da braucht man kein Rezept für oder keine Bestätigung von irgendeinem amerikanischen Augenarzt, also jetzt so eine ganz normale 1,0 Lesebrille Korrektur, kann sein, dass das für mich vielleicht etwas verbessert hätte, weil ich halt mittlerweile auf so eine Lesebrille meistens angewiesen bin, wenn ich was lesen will. Also auf nahe Distanz. Aber mit dieser ganzen Distanz ist das halt ohnehin so eine Sache. Ich meine, auf der einen Seite hängt das alles einen Zentimeter vor deinem Auge, auf der anderen Seite arbeitet dein Hirn und deine Augen die ganze Zeit mit irgendwie einer gefühlten Distanz, die halt sehr viel größer ist. Und das ist für mich auch sehr schwierig zu prozessieren, was da jetzt eigentlich das richtige Setup wäre. Also das wird auch nochmal interessant sein dann zu sehen, wenn das hier in Deutschland auftaucht und man in so einen Apple Store latscht und die einem dann irgendwie die Augen vermessen oder was weiß ich, was für eine Beratung, was für Tests sie dann machen, ob dann sozusagen das Ergebnis wäre mit, ja hier nimm nochmal die 1,0 Lesebrille einsetze und dann ist es besser.

roddi
0:39:32
Dominik Wagner
0:39:56
roddi
0:40:50
Tim Pritlove
0:41:02
roddi
0:41:04
Dominik Wagner
0:42:01
roddi
0:42:03
Tim Pritlove
0:42:24
Dominik Wagner
0:42:25
roddi
0:42:29
Dominik Wagner
0:42:44
roddi
0:43:19
Tim Pritlove
0:43:22
Dominik Wagner
0:44:15
roddi
0:44:20
Tim Pritlove
0:44:28
roddi
0:44:54
Tim Pritlove
0:45:01
Dominik Wagner
0:46:22
Tim Pritlove
0:46:28
Dominik Wagner
0:46:30

Das so ein bisschen Abstand macht und von der Form her ein bisschen interessant ist. Das gibt es in diversen Ausführungen. Da macht man vorher einen Face. Einen ID-kamerafähigen Scan, damit man das richtige Modell bekommt. Die haben, zwei Zahlen und einen Buchstaben. Ich habe die 2-2-W und inzwischen ist irgendwie auch rausgekommen, was was bedeutet ungefähr. Es ist nicht nur einfach eine Größe, sondern es ist wirklich so eine gewisse Menge an Gesichtsformen. Es gibt da eine irre Kombination davor. Und da drauf gibt es dann wiederum zwei verschiedene Polster und zwar ein bisschen dickeres und ein bisschen dünneres, so einfach einfach um den Abstand ein bisschen größer oder kleiner zu machen. Und mit dem größeren Abstand könntest du theoretisch, glaube ich, versuchen, die Brille aufzusetzen, aber ich glaube nicht, dass sie groß reinpasst. Also eine Geschichte, die ich interessant finde, ist, Dass der untere Teil, da ist so eine Nasenklappe dran irgendwie an diesem dickeren Einsatz, also an dem allgemeinen Einsatz, den man als erstes drauf macht, der so angepasst ist. Und ich habe die als erstes auch so angezogen, dass das andersrum über die Nase war und dann geht da Licht rein und das ist blöd. Und der Zweck des Ganzen ist ganz spannend. Dieses ganze Ding ist ja relativ trotzdem ein bisschen durchsichtig. Und es ist vor allem luftdurchlässig. Und das ist der große Vorteil. Das Ding hat so eine Ventilation und Belüftung, dass die Linsen nicht beschlagen. Es ist das erste dieser Geräte, das ich aufgehabt habe, das mir noch nie die Linse beschlagen hat. Und ich bin so ein Schwitzer. Und das ist die Hölle gewesen. Das war für mich immer so ein totaler Abturner. Bei all den Quests oder was auch immer ich aufhatte. Erstmal, also ich habe die nur mit Föhn benutzt. Also ich habe wirklich, ich habe einen Föhn nebenbei gelegt und den habe ich da von unten reingepustet immer wieder, um dieses Ding wegzumachen und irgendwann nach einer Viertelstunde ist das Zeug auf Temperatur und dann beschlägt es nicht mehr. Aber bis dahin musste ich immer föhnen, ob das jetzt die Playstation VR war oder die Quest oder was auch immer. Und das Gerät habe ich auf und ich sehe. Super. Naja, die Packung. Diese verschiedenen Einsätze gibt es, aber ich glaube der Korpus ist immer der gleiche. Also es gibt dieses eine Hardware-Gerät, das der Tim gerade beschrieben hat und dann nur die Aufsätze sind unterschiedlich. Das Hardware-Gerät selber ist nicht unterschiedlich.

roddi
0:48:39
Dominik Wagner
0:48:42
Tim Pritlove
0:48:43
Dominik Wagner
0:48:44

Aber ein kleiner Nebeneffekt von dieser magnetischen Befestigung dieser Sichtsperre, eben das Blick, die ich mache, ist, das geht locker ab und man will es dann hochheben an dem Ding und man kann es nicht und es fällt einem was runter und das ist bei der Preisklasse auch ein sehr großer Schockmoment. Ist mir mindestens zwei, dreimal passiert, bis ich das Gerät praktisch an der Brille angefasst habe. Das große Problem ist, das Ding ist natürlich Apple-Style, vorne Glas alles, weil da sind Sensoren drin und eben auch noch ein Display. Das kann man auch noch zuschauen. Also das, was vorne drauf ist, was bei der Skibrille so das Visier vorne wäre. Dann gibt es außenrum so einen Alurahmen, den kann man grundsätzlich anfassen, will man aber auch irgendwie nicht, weil auf der einen Seite sind Lüfter, auf der anderen Seite sind auch Lüfter und dann sind unten auch noch zwei Kameras, die will man nicht, also die einzige Art und Weise, das Ding sauber anzufassen, ist irgendwie so mit so einem Mittel-Pinch-Griff mit Daumen und Zeigefinger. Aber das macht man eigentlich nicht an der Seite oder halt an den Henkeln, die Henkel gehen auch ganz gut, da wo die Lautsprecher dran sind. Genau, aber es ist so ein bisschen dadurch, dass es so schwer ist, man hat immer Angst, es fällt einem runter und dann ist es halt einfach mal, weiß ich nicht, 4000 Euro sind im Arsch, das ist ja so die Größenordnung, von der wir im Moment sprechen, wenn man das importiert, dass man echt unter 4000 Euro kommt kommt man da nicht ran. Und ja, genau.

Tim Pritlove
0:50:07
Dominik Wagner
0:50:52
roddi
0:50:59
Tim Pritlove
0:51:06

Genau, das ist so die Primärfunktion, also die Primärfunktion von diesen Dingern, also der Button, wie Dom schon gesagt hat, ist halt primär so Capturing, das heißt du drückst da drauf, dann kommst du sofort in Foto machen oder Video machen. Also wenn du das Ding sozusagen als Aufnahmegerät nutzen möchtest, schon mal ganz interessant, dass sie das so positionieren und tatsächlich finde ich, das ist auch eine der interessanteren Funktionen von dem Teil. Und die Crown, wenn du sie drückst, die ist quasi dein Homebutton. Also damit kriegst du dann immer wieder dieses Default-App-Menü, was wir jetzt in tausend Fotos wahrscheinlich schon gesehen haben, wo dann eben so die Primär-Apps kommen und wo man dann durch mehrere Seiten durchflicken kann und dann alle Apps, die installiert sind, finden kann. Also die kannst du dir sozusagen darüber immer einblenden. Wenn du den Button etwas länger gedrückt hältst, dann nordest du quasi deine Sicht neu ein. Also es ist ja immer die Frage, wo ist vorne? Und wenn du dich, sagen wir mal, du setzt dich so leicht schräg aufs Sofa, setzt dir das Ding auf, guckst du nach rechts, aber dann nach einer Weile merkst du so, ich will mich hier nochmal richtig hinsetzen und guckst aus, dann schaust du ja quasi für die Kamera so ein bisschen nach links und dann würdest du dein Home-Menü sozusagen immer rechts von dir finden. Also diese, wo ist die Zentrale, wo ist die Mitte für dich, wo alles erstmal bei Default erscheinen soll. Das kannst du dadurch dann machen, dass du diese Crown etwas länger gedrückt hältst und dann zack hast du die Mitte neu definiert. Das kann man also jederzeit dadurch nachpassen. Das ist auch so eine Funktion, wo man wahrscheinlich vorher gar nicht draufkommt, dass man sowas braucht. Aber das ist eigentlich das, was so diese Buttons und Dinger primär leisten. Und das war's dann glaube ich im Wesentlichen auch schon, was so an Hardwareknöpfen und Schräubchen so sich anbietet, oder? Habe ich noch was?

Dominik Wagner
0:53:03
roddi
0:53:56
Dominik Wagner
0:54:02
Tim Pritlove
0:54:03
Dominik Wagner
0:54:06
Tim Pritlove
0:54:08
roddi
0:54:10
Dominik Wagner
0:54:11
roddi
0:54:29
Tim Pritlove
0:54:32
Dominik Wagner
0:54:36
roddi
0:54:42
Tim Pritlove
0:54:47
roddi
0:55:10
Dominik Wagner
0:55:19
roddi
0:55:21
Dominik Wagner
0:55:22
Tim Pritlove
0:55:26
Dominik Wagner
0:55:30
Tim Pritlove
0:55:43
Dominik Wagner
0:55:46
Tim Pritlove
0:56:19
Dominik Wagner
0:57:33
Tim Pritlove
0:57:46
Dominik Wagner
0:58:28
roddi
0:59:47
Dominik Wagner
0:59:51
Tim Pritlove
1:00:11
Dominik Wagner
1:00:21
Tim Pritlove
1:00:33
Dominik Wagner
1:01:23
roddi
1:02:08
Dominik Wagner
1:02:11
roddi
1:02:16
Dominik Wagner
1:02:27
Tim Pritlove
1:03:11

Es ist jetzt aber auch kein Effekt, wo man sagen muss, das ist jetzt schon der totale Dealbreaker. Also das ist schon was, woran man sich gewöhnen kann. Und ich glaube, es ist auch nochmal ganz wertvoll, nochmal zu wiederholen, was du gerade gesagt hast, Dom, das ist mir nämlich auch erst danach klar geworden. Man schaut ja in die Welt. Die Kamera versucht deinen Blick zu simulieren und dir ein entsprechendes Bild so zu liefern, als würdest du da selber gerade hinschauen, was du ja nicht tust. Aber da, wo deine Augen sind, sind gar keine Kameras, sondern die Kameras befinden sich etwas weiter oben und etwas weiter unten und das heißt, sie müssen diesen Blick, die Blickrichtung oder den Winkel korrigieren in Software. wäre. Und das ist also nicht so ein einfaches Durchschalten eines Videosignals, wo man sich denkt, wieso gibt es da irgendwie noch überhaupt irgendeine Verzögerung, sondern das ist halt auch ein digital, begleiteter Vorgang, der in irgendeiner Form ein Berechnungsrendering ist und das unter Umständen hier schon wirklich auf der. Maximalen Geschwindigkeit arbeitet, die diese Elektronik gerade liefern kann. Mit anderen Worten, das ist ein steigerungsfähiger Aspekt. Es kann sehr gut sein, dass das in der nächsten oder übernächsten Generation weg ist und dann auch gar kein Thema mehr ist und dann weißt du noch damals, als es diesen Motion Blur gab und so weiter. Also das ist vielleicht nicht so wichtig, wenn es darum geht einzuschätzen, was hat das Ding für ein Potenzial, sondern es ist mehr so eine Feststellung mit so ist jetzt dieses konkrete Gerät.

Dominik Wagner
1:04:51

Und das finde ich insgesamt, das ist so ein bisschen ein Thema auch, das sich zumindest in meiner Bewertung durchziehen wird. Es gibt Es gibt viel Potenzial von... Das technisch in der Zukunft viel besser gelöst wird. Also da, wo wir jetzt beim iPhone und beim iPad ziemlich am Ende der Fahnenstange sind, sind wir halt bei der Vision Pro am Anfang. Das ist praktisch das Minimal Viable Product, das gut genug ist, um diese Art von Computing zu machen. Und was ich nochmal dazu sagen will, ist, ich habe die Durchsicht auch von der Quest 3 im Vergleich gesehen, also selber benutzt und diese geometrische Verzerrung, die dadurch stattfindet, dass die das nicht macht, die ist sehr deutlich sichtbar. Also wenn man die Quest 3 aufhat, ist die grundsätzliche Auflösung nicht so viel schlechter, als man jetzt denkt, aber der Blickwinkel und die Sicht aus deinen Augen ist halt einfach nicht korrekt, die ist einfach schief und es wirkt alles wie ein interessantes Videospiel. Hat später nochmal, erinnert mich mal an das nochmal, es hat Auswirkungen auf andere Aspekte, auch die ein bisschen störend sind, also bei der Vision Pro. Aber so grundsätzlich ist es schon eindeutig besser, wenn dein Blickfeld genauso aussieht, wie es dein Hirn erwartet. Also auch von der Art und Weise, wie es einem selber jetzt geht, wenn man das Ding auf hat, weil es gibt ja so viele physiologische Effekte, die passieren, wenn man zwei Bildschirme vor den Augen hat über einen längeren Zeitraum, da kann einem schlecht werden, da kann man desorientiert sein, da kann blöde Sachen passieren und grundsätzlich ist meine Erfahrung mit der Vision Pro da sehr gut gewesen.

Tim Pritlove
1:06:32
Dominik Wagner
1:06:47
Tim Pritlove
1:06:59
roddi
1:07:29
Dominik Wagner
1:07:37
Tim Pritlove
1:08:44
Dominik Wagner
1:08:49
Tim Pritlove
1:08:49
Dominik Wagner
1:08:57
Tim Pritlove
1:08:58
roddi
1:09:38
Tim Pritlove
1:10:06
Dominik Wagner
1:10:26
roddi
1:10:40
Dominik Wagner
1:10:49
Tim Pritlove
1:10:57
Dominik Wagner
1:11:59
Tim Pritlove
1:12:06
Dominik Wagner
1:12:09
Tim Pritlove
1:12:20
Dominik Wagner
1:12:22
Tim Pritlove
1:13:35
Dominik Wagner
1:14:17
Tim Pritlove
1:14:18
Dominik Wagner
1:14:19
Tim Pritlove
1:14:44
Dominik Wagner
1:14:46
Tim Pritlove
1:14:46
Dominik Wagner
1:14:48
Tim Pritlove
1:14:58
Dominik Wagner
1:15:00
Tim Pritlove
1:15:10
Dominik Wagner
1:15:12
Tim Pritlove
1:15:15

Ja, ja, es ist schwierig, sich das alles zu merken. Naja, auf jeden Fall, egal wie die Reihenfolge ist, verschiedene Dinge. Du musst deine Hände vor die Kamera halten, da schaut er dann drauf, damit er irgendwie weiß, wie lang sind deine Finger, wie ist deine Hand etc. Dann drehst du die Hände einmal um, dann guckt er sich sozusagen die Innenseiten der Hände an, dann ist das Thema Hände auch schon wieder beendet. Dann kann er die Hand gut erkennen und man kann diese Klickgeste sozusagen machen, also Daumen und Zeigefinger zusammen, das ist sozusagen der Klick und dann erscheinen Punkte auf dem Bildschirm, die man angucken muss, also man fokussiert sozusagen diesen Punkt in so einem Kreis, so fünf, sechs Punkte, guckst dir einzeln an und du merkst schon so, oh, das Eye-Tracking funktioniert. Also du schaust es an und dann ist da so ein kleiner Punkt, der so klein wird, dann weißt du so, ich hab da jetzt hingeguckt und dann machst du Snap mit deinem Finger und dann geht das zum nächsten und klick, klick, klick, klick, klick. Und das ist schon irgendwie ganz geil, muss ich sagen. Also dieses, dass du so auf einmal so eine bionische Verbindung hast mit diesem Gerät, dass also wirklich deine Augen jetzt dein Pointer sind. Das ist schon irre, vor allem weil viele Dinge, wo man sich denkt, so Tastatureingabe und so, wir wissen ja alle, was das immer für ein Heckmeck ist, mit dem Finger dann auf solchen Tastaturen die einzelnen Buchstaben zu machen. Du bist halt mit dem Auge und deiner Snap-Bewegung viel schneller als mit den Fingern. Das ist wirklich irre. Man muss sich so ein bisschen dran gewöhnen, dass man nicht schon auf den nächsten Punkt schaut und so ein bisschen schon mal einen Schritt weiter ist, aber wenn man sich dran gewöhnt hat, dann geht es sehr schnell.

Dominik Wagner
1:16:57

Die Augenkalibrierung, muss ich auch sagen, hat mir relativ gut gefallen vom Design her. Man guckt erstmal in die Mitte und das ist eben dieser Punkt, der so ein bisschen kleiner wird und gleichzeitig so einen Soundeffekt noch hat. Sie benutzen auch sehr gut den räumlichen Soundeffekt. Das heißt, du guckst in eine der sechs Punkte, die außenrum sind. Oder sind es sechs oder neun? Weiß ich nicht genau. Und dann guckst du da hin und dann macht der praktisch auch vom Geräusch her, das Geräusch ist auch rechts oben, wenn du nach rechts oben guckst. Und du kriegst ein visuelles Feedback, dass du du das anguckst, aber eigentlich ist es ja, dass du mit deinem Klick ihm sagst, ja, jetzt gucke ich das an. Also diese Feedback- Mechanismus, dass du ja eigentlich das Ding kalibrierst, aber er währenddessen schon so tut, als wüsste er schon, was du machst, so ungefähr. Das haben sie sehr gut hinbekommen. Und man muss es ein bisschen lange machen. Das sind so drei verschiedene Varianten davon, weil, ich glaube, wegen der Pupille, weil einmal in dunkel, einmal in mittel, einmal in hell, je nachdem, wie groß die Pupille ist dann, das Auge dann, Aber dann ist es auch gegessen. Dann wird dein Blick erkannt und dann kannst du Dinge angucken und mit dem Finger, wenn du linke oder rechte Hand, Daumen und Zeigefinger zusammen tippst, dann machst du einen Klick oder auch einen Longpress, wenn du es zusammendrückst. Die nennen es glaube ich Pinch im Englischen. Das sei vielleicht auch nochmal dazu gesagt, das Ding ist im Moment nur auf Englisch und funktioniert auch nur mit einem amerikanischen Account eigentlich, was Tim wahrscheinlich viel Spaß gemacht hat beim Testen. Und wird aber natürlich später irgendwann mal komplett international sein, aber das ist im Moment so der Fall. Und dieses Pinschen kann man mit links und mit rechts machen und das sind damit auch mehr oder weniger zwei, so wie zwei verschiedene Touches, die man damit machen kann. Ich weiß nicht, wollen wir weiter auf diese grundsätzliche Bedienung eingehen oder wie erklärt man das jetzt am besten, dass man genug Fleisch hat, um irgendwie, wenn wir drüber sprechen, sich was vorstellen zu können, wenn man es noch nicht aufhatte.

Tim Pritlove
1:18:56
Dominik Wagner
1:19:25
Tim Pritlove
1:19:44
Dominik Wagner
1:20:11
Tim Pritlove
1:20:13
roddi
1:20:25
Dominik Wagner
1:20:27

Genau, genau so diese Apple-TV-Effekte ist es so im Wesentlichen. Ein bisschen subtiler sogar, so absichtlich, weil es halt viel passiert, weil man guckt ja viel an und das ist eh Ablenkung. Manchen ist das auch zu subtil, aber es ist so, du erkennst, wenn was angeguckt wird, durch leichte Lichtverhältnisveränderungen und leichtes Highlighting. Bei den Apps, die springen dich ein bisschen an, die sind fast genauso wie die Apple-TV-Geschichten, wenn du da mit dem Finger so rumswipest so ein bisschen mit den Icons. Und alle anderen Elemente haben mehr so einen Schimmer, so ein bisschen heller oder ein bisschen dunkler oder ein bisschen weniger vibrant, wie das ja so heißt bei diesen ganzen Geschichten. Aber du weißt es meistens schon recht gut, was du anguckst in dem Moment. Und dann kannst du, wenn du siehst, kannst du es eben drücken, indem du entweder einen Finger kurz tippst oder lang tippst. Und wenn du lang tippst, dann ist die interessante Geschichte, also wenn es nicht nur ein Klick ist, die weitere Bewegung, die du dann auslösen willst, zum Beispiel, um im Homescreen von Apps zu Apps zu kommen, praktisch die App-Screens zu swipen, mehr oder weniger, die funktioniert dann mit dem Handgelenk. Du hast praktisch, du guckst was an, dann machst du deine Finger zusammen und ab diesem Zeitpunkt ist dein Handgelenk und deine Hand die Bedienung, nicht mehr das Auge. Das Auge ist schon wieder woanders und fertig, solange du deine Finger zusammen hast. Und dann kannst du praktisch so nach links scrollen und loslassen zum Werfen, dann hast du so eine physikbasierte Scrollerei, wie du im iPhone und iPad auch hast. Oder du kannst es halt in Ruhe loslassen. Und das ist ein ganz interessanter Moment, weil du kannst halt wirklich relativ genau mit dem Tracking von deinem Handgelenk dann steuern. Also das fand ich sehr gelungen in Summe. Es ist ab und zu, es gibt schon Fehlbedienungen, so ist es nicht, aber es ist erstaunlich, wie fein du es machen kannst und auch wie du deinen ganzen Körper dafür einsetzen kannst. Du kannst damit sehr genau steuern, wenn du willst. Also das Auge selber ist relativ grob. Das braucht relativ große Hit-Targets, wo du mal startest. Aber wenn du da was in der Hand hast, dann kannst du wirklich, wirklich sehr exakt was machen, wenn du willst. bist. Zur Not kannst du deinen ganzen Körper ein bisschen vor und zurück im Raum bewegen und deine Hand festlassen. Und diese ganze Bedienerfahrung ist einfach so ein bisschen, da war ich sofort so Minority Report oder whatever. It's the future, you got me. Für mich war das in der größten Ordnung von Bedienfreude, wie es jetzt wirklich, Touch-Bedienung war am Anfang auch, finde ich. Und das ist auch nach wie vor, wenn ich das Ding aufhabe und mal eben mein Fenster irgendwo hin und sonst, das klappt einfach grundsätzlich. Das ist so smooth und so nett und so wenig Belastung für die Hände. Das stimmt.

Tim Pritlove
1:23:13
Dominik Wagner
1:24:07
Tim Pritlove
1:25:17
Dominik Wagner
1:25:29
Tim Pritlove
1:26:07
Dominik Wagner
1:26:09
Tim Pritlove
1:26:21
Dominik Wagner
1:26:40
Tim Pritlove
1:26:55
roddi
1:26:58
Tim Pritlove
1:26:59
roddi
1:27:27
Tim Pritlove
1:27:30

Genau. Und es hat halt dieses transluzente Ding. Und das ist jetzt aber auch wirklich... Mein absoluter Platz 1 an, oh mein Gott, was bin ich unfassbar beeindruckt davon, wie gut sie das hinbekommen haben, das ist halt einfach, das Ding steht halt im Raum und damit meine ich, es steht im Raum. Und wenn du halt mit deinem Kopf wackelst und wenn du irgendwie deinen Körper bewegst und deine Kamera hin und her wabbert und niemand sitzt still, du hast immer Bewegung, immer schaust du irgendwo anders hin, dieses Fenster bleibt einfach immer an der Stelle und da wackelt nix. Kein Jitter, kein Blitzen, kein Pixelflashen, kein irgendwie ja im Wesentlichen ist es schon da, aber nicht immer, sondern das ist da einfach wie reingemeißelt in deinen Raum und das ist wirklich unfassbar. Also das haben sie so gut hinbekommen. Ich glaube, dass es auch, wenn sie das nicht hinbekommen hätten, dann hätten sie das Ding nicht geschippt, aber das ist wirklich genug. Also ich war mehrfach erstaunt, wie gut das funktioniert und das ist halt die Basis. Das heißt, dann ist diese Illusion perfekt, dass du etwas in den Raum stellst, dass es halt da schwebt einfach so vor dir mit Schattenwurf und dann kannst du es halt irgendwo hinlegen. Und wenn du dann unten an dieses Fenster deinen Blick wendest und auch nochmal tappst, das ist halt auch das Ding. Also du hast zwar immer dieses Eye-Tracking und man denkt sich so, naja, ich muss immer alles nur angucken und dann tut es das. Das würde aber dann bedeuten, dass wenn du so hin und her schaust, jedes nur irgendwie erdenkliche Interaktionselement immer auch sofort aufleuchtet, wenn du da mit deinen Augen drüber gehst und das würde natürlich stören und deswegen ist es manchmal wichtig, dass du das auch erstmal aktivierst. Weißt du, hast du deinen Musikplayer, der zeigt dir dann so ein Cover an, aber du siehst nicht automatisch, wenn du drauf schaust, einen Interface-Control für Vor-Zurück-Spulen oder Pause oder so, sondern du musst es dann anschauen, einmal so ein Tab machen und dann erscheint erst dieses User-Interface-Element. Weil sonst würden ja permanent irgendwelche User-Interface-Elemente um dich herum aufpoppen und gleich wieder verschwinden und das würde dich wahnsinnig machen. machen. Und genauso ist es, glaube ich, mit diesen Controls unten, oder die muss man auch manchmal aktivieren.

Dominik Wagner
1:30:06

Ja, genau, man muss die Fenster ab, also gerade wenn man so einen Film guckt oder so, da blenden sie sich manchmal aus, da muss man erstmal einmal tippen und die dann unten aktivieren, das verwirrt die Leute teilweise auch, weil schau halt stärker dahin, ist schon so ein Impuls, den man hat. Aber es ist und manche, es ist auch noch ein 1.0 Produkt, das heißt, ab und zu ist es auch so, dass die UI gar nicht erscheint Also wenn man es länger in Benutzung hat, ist es schon auch noch klar, das hat Kinderkrankheiten, aber das sind halt Bugs. Wenn man von denen absieht, ist es aber so, okay, man muss das Fenster, wenn man es bedienen will und es hat kein Element zum Verändern oder zum Schließen, dann muss man wahrscheinlich einmal reintippen. Und die Elemente zum Verschieben und Bedienen sind relativ schlicht gehalten. Also Fenster nochmal sind wirklich Flächen im Raum, die stehen irgendwie dreidimensional im Raum zu dir im Verhältnis und halt wirklich fest verankert im Raum in gewisser Größe, haben abgerundete Ecken alle und haben, wie Tim schon gesagt hat, auch wenn du nicht die Immersion anhast, dann wirklich in dem Raum selber werfen die einen Schatten am Boden. Du hast am Boden wirklich dann einen Schatten oder am Tisch oder wo auch immer die sind. Wenn die geometrisch so im Raum stehen, dass sie den Schatten werfen können, dann tun sie den auch. Du kannst sie aber auch einfach durch die Wand irgendwie durchsetzen und dann hast du ein Loch in der Wand, das eigentlich für dich optisch keinen Sinn macht, aber ist okay. okay. Also so eine Kinoleinwand kannst du auch hinter die Wand setzen und dann siehst du dann eine ausgeschnittene Kinoleinwand. Das ist schon okay. Und dieses Bedienelement unten ist relativ schlicht gehalten. Das heißt, man hat einen Strich, der so ein bisschen aussieht wie dieser Home-Button-Indikator auf dem iPhone. Dieser Home-Button-Strich. Und den kann man angucken und eben mit einem Pinch nehmen und dann kann man das Fenster dreidimensional im Raum verschieben und positionieren, wo man es denn gerne hätte. und links daneben ist so einfach nur ein runder Punkt, der ist auch super schlicht. Und wenn man den anguckt, dann wird es ein bisschen größer und wird ein X und damit schließt man Fenster. Und das ist bei allen Elementen so. Das heißt, bis auf, also es gibt später auch noch andere Sachen als Fenster, aber die haben eigentlich diesen Strich und diesen Punkt. Das ist so die. So die Design-Sprache. Und dann gibt es eben noch eine andere Sache, wenn man in die Ecke guckt, rechts oder links unten, werden wir unten schon diese Elemente sieht und das Fenster resizable ist, vergrößerbar ist, dann gibt es da praktisch so Anfasser an den Ecken, die auch nur ein gebogener Strich sind. Und diesen gebogenen Strich kann man angucken, nehmen und dann kann man halt resizen und dann hängt es wieder von der App ab, ob man das jetzt irgendwie so machen kann, dass es beliebig die Seitenverhältnisse ändert oder nicht, aber es ist im Endeffekt so, in der Mitte ist das Ding festgepinnt, da wo es im Raum ist und dann kann man es größer und kleiner ziehen in gewissen Ausmaßen. Und was ich sagen muss, die Art und Weise wie, wenn man das Fenster unten am Fensterrand verschiebt, die Art und Weise, wie sie das gelöst haben, ist erstaunlich intuitiv und exakt. Das macht so richtig Spaß, diese Fenster im Raum zu platzieren und man hat überhaupt keine Frage, was denn so Sache ist. Also die. Reichweite, die man so auswählen kann, ist super. Also die hat praktisch so Also die hat einfach, macht wahnsinnig viel Sinn und wenn es über die Grenzen hinaus geht, indem man es verschieben kann, dann kann man sich ja im Raum bewegen dann noch. Das heißt, wenn ich es dann noch weiter im Raum haben will, dann muss ich halt dann gehen ab einem gewissen Zeitpunkt. Aber sie haben echt eine super Range ausgewählt, wie man die verschiebt und auch einen super Blickwinkel. Also die sind immer relativ senkrecht zur eigenen Sicht. Also es sind Flächen, es ist nicht so wie bei der Quest 3 oder so, dass es gebogene Dinger sind. Es sind gerade Flächen, es sind brechen gerade, was bei größeren Fenstern auch ein bisschen schwierig ist. Aber ich glaube, es ist auch ganz ästhetisch sinnvoll, weil es einfach diese räumliche Interaktion viel klarer macht. Und es ist so ein bisschen wie wenn man diese, es gibt ja so, was waren diese 3D-Bilder mit den zwei Augen, die man so nach vorne und nach hinten schieben kann. So Stereoskopbilder, genau, die man dann so ein bisschen vor die Nase hält und vorneweg, so kann man sich das so ein bisschen vorstellen. Und so verschiebt man da eben so virtuelle Dinger, aber da ist halt Inhalte drin. Da sind Spiele drin, da sind Personen drin, da sind Webseiten drin und da kann man sich so den Raumvolk leisten.

Tim Pritlove
1:34:23
Dominik Wagner
1:36:13
Tim Pritlove
1:36:13
Dominik Wagner
1:36:15
roddi
1:36:19
Tim Pritlove
1:36:22
roddi
1:36:24
Dominik Wagner
1:36:28
roddi
1:36:30
Dominik Wagner
1:36:33
roddi
1:36:43
Dominik Wagner
1:36:47
Tim Pritlove
1:37:47

Ich habe jetzt gerade nochmal darüber nachgedacht, warum ich das eigentlich so angenehm gefunden habe. Ich weiß, ich mache das auch, also ich habe ja hier einen sehr großen, bin jetzt auf so einen 40 Zoll Widescreen Monitor gegangen. Ein großer Freund generell von Desktop und großen Bildschirmen und wenn ich an meinem 40 Zoller Webseiten lese, dann habe ich die auch meistens, die Schrift sehr groß, damit ich also auch wirklich in so einem Meter Abstand von diesem Bildschirm weg sein kann und genieße das, dass einfach viel Fläche bereitsteht, um den Text groß anzuzeigen. Und es ist gar nicht so sehr dieses, dass ich das jetzt brauche wegen Brille oder Sehschwäche oder so, sondern es ist einfach, ich finde, dass ich weniger Aufwand leisten muss, den Text zu erfassen, wenn er groß und klar ist. Dass ich weniger Fehlerkorrektur betreiben muss, als wenn ich das jetzt in so einem kleinen Font auf so einem sehr überschaubaren Bereich auf dem Bildschirm betrachten muss. Und insofern ist diese Vision Pro dann eigentlich die perfekte Perspektive, weil du sitzt da gemütlich im Sofa, schaust so leicht nach oben und dann prangt einfach diese riesige Webseite vor dir wie so eine riesige Leinwand, wie so ein Beamer quasi. Also du schaust auf einen Beamer, der bloß sehr scharf ist und ja, das war dann irgendwie angenehm. Also ich habe das definitiv nicht als unangenehm empfunden, wenn man dann halt... Sich ein Macintosh quasi als Fenster holt, da können wir ja vielleicht mal drauf eingehen, jetzt dieser Aspekt, also es gibt ja diese Funktion, du hast dann so dein Laptop vor dir, ich hatte so mein R und dann habe ich so drauf geschaut und irgendwie haben sie halt so eine AI-Erkennung, dass sie A wissen über Handoff, okay da ist jetzt auch ein Mac mit derselben Apple-ID und so weiter da, da, aber sie erkennen halt den Laptop als solchen. Also sie haben halt irgendwie eine, oder? Gibt es da noch einen anderen Trick? Ich glaube, sie erkennen einfach Tastatur.

Dominik Wagner
1:40:02
Tim Pritlove
1:40:04

Die wissen einfach, da steht jetzt ein Laptop und sie wissen auch genau, in welcher, Positionierung und über dem Bildschirm erscheint dann halt so, möchtest du dich damit verbinden und dann guckst du drauf, machst Tap und dann geht der Bildschirm aus auf deinem Laptop, der ist dann schwarz und dann erscheint halt da drüber irgendwie, eben so so als Fenster im Raum, eine 4K-Monitor-Simulation für deinen Computer. Also da ist dann sozusagen auch mehr Platz. Da ist ein größerer Bildschirm als der, der jetzt auf dem Laptop ist. Und die Fenster arrangieren sich halt entsprechend und das hast du dann vor der Nase. Das war dann der Moment, wo bei mir diese, das ist nicht der richtige Wort, aber diese Tiefenschärfe, also die Schärfe, wenn es ein bisschen weiter weg ist, ein bisschen nachgelassen hat, habe ich es näher an mich rangezogen war es für mich besser zu erkennen aber wie gesagt, das mag einfach nur meine Optik sein, aber dann habe ich halt versucht mit den Mac-Apps zu arbeiten und in irgendeiner Form zu interagieren und dann hast du natürlich auch wieder so einen kleinen Medienbruch, also auf einmal musst du dann deine Tastatur und deine Maus wieder benutzen, weil es ist ja ein Mac irgendwie so, dann ertappst du dich so ein bisschen dabei, so wie man Man anfängt auf dem Mac rumzutippen, wenn du die ganze Zeit ein iPad benutzt hast. Möchtest du dann die ganze Zeit deine Programme anstarren und wunderst dich, warum die jetzt sozusagen nicht auf deinen Blick reagieren. Also Eye-Tracking auf dem Laptop, hm. Also das wäre auch so ein Feature, das könnte ich auch im Laptop gebrauchen, weißt du, dass man einfach so Eye-Tracking hat und dann mit den Fingern irgendwie, also das fällt mir jetzt gerade erst ein, das wäre eigentlich ganz geil.

Dominik Wagner
1:41:48
Tim Pritlove
1:42:37
Dominik Wagner
1:43:38

Also es gibt für mich eine Distanz, wo es nicht mehr scharf genug ist auch. Also ich muss den nah genug halten. Ich habe den jetzt eher so als Standing Desk benutzt mit meinem Air meistens. Und wenn ich die Default-Auflösung habe, dann kann ich ungefähr so zwei, drei Tastaturbreiten kann ich es in die Tiefe setzen, aber dann wird es schon knapp. Und wenn ich es näher ranhole an mich, dann ist das Problem, dann mache ich es meistens auch kleiner, weil ich will den Winkel nicht haben. Und ehrlicherweise muss ich feststellen, für das Air unterwegs würde ich es wahrscheinlich benutzen wollen. Und natürlich ist es geil, wenn du für die Vision Pro was entwickelst. Dann macht das wirklich Spaß. Klar. Aber wenn du jetzt einfach es nur als Monitor Ersatz haben willst, dann ist ein Monitor mir lieber. Aber es ist eine notwendige Maßnahme für, dafür, dass man da sinnvoll arbeiten kann und für entwickeln auch. Ja, also es ist spannend, es ist mit der Schärfe, ich bin hin und her gerissen, Weil ich habe jetzt diverse Meinungen dazu gehört und ich finde grundsätzlich, man kann es als Display benutzen und es ist in seiner vollen Auflösung scharf, sobald man es nicht weit genug wegstellt von einem. Was ein bisschen, was immer funktioniert ist, wenn man die Auflösung runterdreht, also wenn man die Auflösung einfach auf ein, zweiter unten dreht, die ist super scharf, deshalb hat man von der Platzmenge jetzt nicht die Größe, dann hast du nicht so viel Gewinn, aber das geht gut. Man kann es auch, wenn man wirklich viel Platz braucht, auf riesengroß machen. Das geht auch. Und dann ist halt so ein bisschen diese Unschärfe deutlicher erkennbar. Ich finde es spannend. Ich habe am Anfang ja gemeint, der Anwendungsfall alleine wäre es schon. Und das ist es für mich eher nicht. Ja, es ist ein Feature, das das System braucht, aber es ist jetzt nicht was, es ist eher was, was es braucht, weil wenn der Durchblick nicht scharf genug ist, wenn der Durchblick scharf genug wäre, dass das Display auch volle Schärfe hat beim Durchblicken, bräuchte ich nicht unbedingt.

Tim Pritlove
1:45:52
Dominik Wagner
1:46:06
Tim Pritlove
1:46:16
roddi
1:46:53
Tim Pritlove
1:46:54
Dominik Wagner
1:47:10
Tim Pritlove
1:48:02
Dominik Wagner
1:48:22
Tim Pritlove
1:48:55
roddi
1:49:59
Dominik Wagner
1:50:08

Mit Big Privacy wird es die einfach nicht geben so insgesamt. Das ist halt so die andere Ecke, wenn man jetzt wirklich von der Entwicklerseite her möglichst freien Expressionismus haben will, was man denn alles machen kann, dann ist man auf anderen Plattformen besser aufgehoben, weil sie haben schon alles von den Entwicklern weggesperrt, was in irgendeiner Form Aufschluss geben würde, auf was man anguckt oder wie man das Ding bedient. Also du hast ganz konkret wirklich, als App kriegst du nicht mit, was angeguckt wird, sondern du sagst praktisch, okay, das ist ein Element, da kann der Benutzer drauf gucken und wenn der da drauf guckt, dann wird es geheiligt. Du kriegst aber nicht mit, dass es gehighlighted wird jetzt in dem Moment. Du kriegst auch keine Chance, dir das praktisch so zu merken. Du kannst praktisch in keinster Weise den Blick abgreifen, was aber eben auch Einschränkungen hat dafür, wie man Dinge dann gestaltet. Und deswegen so Fenster-Teiling-Apps wird es nicht geben, weil das wird keine API vergeben. Da ist man auf der Apple-Seite so. Einige von diesen Dingen, die man gerne hätte, wird es da einfach nicht geben. Gleichzeitig ist aber auch für mich das eines der größten Unterschiede, weil es ist ein in sich stimmiges. Konsistentes Bedienkonzept durch alle Apps, durch alles hindurch. Was für mich immer der größte Hinderungsgrund bei den ganzen VR-Brillen bisher war, weil jedes Spiel funktioniert ein bisschen anders, jede Bediengesichte funktioniert ein bisschen anders. Bei der Quest gibt es einfach, klar kannst du auch Handtracking und so weiter haben, aber es ist halt immer ein bisschen anders und du musst erst die App lernen, bevor du dann wieder was machen kannst. Und das ist für mich so die Stärke von Apple und ich glaube, das haben sie weit genug geschafft jetzt in diesem ersten Wurf, dass es spannend wird. Aber das ist ja schon wieder viel zu weit.

Tim Pritlove
1:51:58
Dominik Wagner
1:52:43
Tim Pritlove
1:52:45
Dominik Wagner
1:52:45
Tim Pritlove
1:52:47
Dominik Wagner
1:52:48
Tim Pritlove
1:52:49
Dominik Wagner
1:53:17
Tim Pritlove
1:53:37

Genau, und das ist ist es schon mal sehr interessant, dass es sozusagen nochmal so eine Top-Level- Organisation gibt. Das entdeckt man auch erst nach einer Weile. Ich habe auch immer nach der FaceTime-App gesucht, um irgendwie jemanden anzurufen. Aber das ist sozusagen so weit ins Betriebssystem aufgenommen worden, dass quasi diese Interaktionsmodelle ganz klar getrennt werden. Also einerseits, Arbeitest du oder wählst du Apps aus? Du kriegst diese Oberfläche mit, hier sind deine Apps. Der zweite Tab auf diesem Level ist Personen und wenn du das auswählst, dann kommen halt Personen, mit denen du interagierst sozusagen und dann kannst du die anrufen und kannst dann FaceTime damit machen. Da erzählen wir gleich nochmal drüber. Und das dritte, das passt halt jetzt nochmal in dieses ganze Thema mit, wie ist denn hier eigentlich die Optik und so. Das sind diese Environments. Also das ist jetzt auch nicht irgend so ein Programmfeature oder eine App, die man dann irgendwie noch installieren muss, sondern das ist sozusagen ein genereller Begleiter. Und wenn man das halt anwählt, diesen Tab, dann kriegt man eine Auswahl von zwei verschiedenen Arten von Environments. Die einen sind so diese softe Variante mit, da kannst du nur so deine Lichtgestaltung mit beeinflussen. Du kannst sagen, ich möchte jetzt gerne morgen Licht haben, Abenddämmerung oder so und dann nimmt das sozusagen Einfluss auf das, wie alles gerendert wird und welchen Lichteindruck du hast, so ein bisschen so Nightshift-mäßig, mehr so Modifikator. Aber das dicke Teil sind natürlich diese richtigen Orte, wo du, wenn du die dann auswählst, du halt in Teilen, je nachdem wie sehr du das mit dieser Crown reindrehst, kriegst du halt einen kleinen Ausschnitt oder eben alles um dich herum wird ersetzt durch diesen virtuellen Ort. Und dann sitzt du halt irgendwo am Rande von so einem See und blickst auf so einen Berg und du kannst dich umdrehen und nach hinten gucken und nach oben gucken und so weiter und überall, du bist halt auch einmal irgendwo anders.

roddi
1:55:53
Tim Pritlove
1:55:54
Dominik Wagner
1:55:59

Ne?

Tim Pritlove
1:56:00
Dominik Wagner
1:56:01
Tim Pritlove
1:56:05
Dominik Wagner
1:56:07
Tim Pritlove
1:56:19
Dominik Wagner
1:56:20
Tim Pritlove
1:56:26
Dominik Wagner
1:56:38
Tim Pritlove
1:57:24
Dominik Wagner
1:57:32
Tim Pritlove
1:57:36
roddi
1:57:39
Dominik Wagner
1:57:42
Tim Pritlove
1:57:48
Dominik Wagner
1:57:50
Tim Pritlove
1:57:55
Dominik Wagner
1:58:24
Tim Pritlove
1:58:35
roddi
1:59:16
Dominik Wagner
1:59:21
Tim Pritlove
2:00:01
roddi
2:00:04
Dominik Wagner
2:00:07
Tim Pritlove
2:00:09
Dominik Wagner
2:00:11
Tim Pritlove
2:00:25
Dominik Wagner
2:00:30

Für mich ist es sinnvoll, wenn ich den Raum vergrößern will. Ich mache die praktisch so ein bisschen halb oder so ein Drittel an, damit mein komplettes vorderes Blickfeld auf meine Arbeitsfläche so ein bisschen ausgeblendet ist, aber ich den Rest von meiner Umgebung sehe. Das finde ich dann ganz angenehm, weil dann habe ich praktisch nicht so diesen Suspension of Disbelief, wenn ich Fenster in die Wand stelle, weil da ist jetzt keine Wand mehr, da ist jetzt freie Gegend. Für sowas finde ich es wichtig. Und wenn man einen Kinofilm guckt, ist es interessanterweise an der Stelle super wichtig. Also der Apple-Kinosaal, der bei Apple TV kommt, der sonst gar nichts hat, also auch wegen der Lichthelligkeit außenrum und so weiter und der Ablenkung, ist der einfach wichtig. Ja, also das Environment, das halt praktisch möglichst wenig ist, aber trotzdem ein gewisses Raumgefühl hat, damit diese Wand, die da in der Luft hängt, irgendwo verankert ist. Also ich habe da 3D-Filme geguckt, Gravity, den ich auch im Kino gesehen habe und das ist halt so, da habe ich mir das Environment Kinosaale angemacht auch. auch. Ich dachte immer, bei den anderen, also bei dem, was ich bei der Quest gemacht habe, war das immer irgendwie ein bisschen albern und ein bisschen fad und so, aber da hat es irgendwie gepasst. Das war so richtig schön, weil der Kinosaal ist schön schwarz, hat auch ganz wenig Ablenkungen dann und dann hast du halt so eine Kinofläche und du willst halt wegen dem Blickwinkel schon auch nur so einen gewissen Größe haben. Du willst ihn nicht viel größer machen, sodass du diese erste Reihe Erfahrung hast im Kino, weil da musst du deinen Kopf immer so bewegen und du willst halt genauso weit weg haben, dass du mit dem linken und mit dem rechten Auge beide die volle Fläche siehst noch. Und dann brauchst du halt Environment außenrum. So geht es mir.

Tim Pritlove
2:02:13
Dominik Wagner
2:03:29
Tim Pritlove
2:04:00
roddi
2:04:06
Tim Pritlove
2:04:08
Dominik Wagner
2:04:23
roddi
2:04:35
Tim Pritlove
2:04:43
roddi
2:04:45
Dominik Wagner
2:04:46
roddi
2:04:48
Tim Pritlove
2:04:50
roddi
2:04:56
Tim Pritlove
2:05:04
Dominik Wagner
2:05:34
Tim Pritlove
2:05:38
roddi
2:05:57
Tim Pritlove
2:06:00
roddi
2:06:05
Tim Pritlove
2:06:09

Vielleicht nicht wichtig, aber doch ganz interessant. Cinemascope, anamorphotisches Verfahren der Breitbildaufzeichnung. 2,55 zu 1, später 2,35 zu 1. Mhm. Okay. Und Panavision ist dann nochmal anders. Also auf jeden Fall sehr breit gestretchte Filme, sagen wir es mal so. Also die schon fast so Panorama-Charakter haben. Das geht auf jeden Fall. Und ohne jetzt sehr viele Filme geguckt zu haben, aber das ist irgendwie für mich klar wo ich schon total skeptisch werde aber das hat gar nichts mit der Vision Pro zu tun, das sind halt die sogenannten 3D Filme und davon gibt es ja bei Apple TV und auch bei, Disney Plus so einiges die konnte ich mir allerdings nicht anschauen ich konnte mir das nur in einem, gehackten Filmchen anschauen das hatte damit mit zu tun, dass ich mit meinem deutschen Apple-ID in so einer, amerikanisch verankerten Vision Pro hing und dann bekam ich von diesen Apps nicht die richtige Regionszuteilung und dann haben sie mir immer gesagt, das wäre jetzt nicht anschaubar. Also ich konnte mir sozusagen im Disney, in der Disney-App und in der Apple-TV-App keine Filme anschauen und deswegen auch die 3D-Filme nicht ausprobieren, sondern ich musste dann sozusagen auf, anderes Material geben, wo ich dann mit AirDrop ob ich tatsächlich einen Film auf die Kamera gelegt habe und mit so einem Partyplayer abgespielt habe. Ich mag 3D-Filme, wie sie heute im Kino gezeigt werden, überhaupt nicht. Ich finde es total überflüssig und vollkommen deplatziert. Mir gibt es gar nichts. Das ist halt auch kein 3D, sondern das ist ja nur ein 2D-Film, der dann manuell so Pepper-Cut-Aus-mäßig irgendwie an bestimmten Stellen nach vorne gezogen wird. Mehr ist es ja nicht. Es ist nicht wirklich 3D-Messal.

roddi
2:08:14
Tim Pritlove
2:08:22
roddi
2:08:30
Tim Pritlove
2:08:41
Dominik Wagner
2:08:48
Tim Pritlove
2:09:56
roddi
2:10:48
Tim Pritlove
2:12:09
Dominik Wagner
2:12:24
Tim Pritlove
2:12:25
Dominik Wagner
2:12:30
Tim Pritlove
2:12:34
Dominik Wagner
2:13:11
Tim Pritlove
2:13:12
Dominik Wagner
2:13:13
Tim Pritlove
2:13:14

Ja, also das also erst mal, die Frau ist irre, also das ist so ein Mädel, die macht so Highlining, also die läuft über eine. Wie nennt man denn das? Einfach über ein Seil, über eine Schlucht. Und die Schlucht ist sozusagen zwei Vorsprünge, bildet sich durch zwei Vorsprünge an so einem norwegischen Fjord, wo es dann so einen Kilometer runter geht gefühlt. Und während sie also über dieses Seil balanciert, also nur einmal so gesichert, wenn sie runterfällt, dann hängt sie halt an so einem Seil, aber jetzt hat nichts in der Hand oder irgendwie so, kein Ballonstängel oder sowas. Sondern macht das einfach so und das ist eine kurze Doku, 10 Minuten vielleicht, 20 Minuten vielleicht auch, sehr intensiv, schön gedreht und da gelingt es, diese Tiefe, die unter ihr ist, diese Schlucht auf eine Art und Weise einzufangen, wo ich schon sagen musste, okay, now you have a point. Also das war wirklich anders, als es jetzt in so einer normalen zweidimensionalen Darreichung gewesen wäre. Das ist natürlich schon so speziell auch und man muss sehr großen Aufwand treiben, okay, aber dieses wirkliche, echte Welt dreidimensional aufnehmen und dann eben nicht so ein gefaktes Ding wie beim Film, sondern eben wie es eben wirklich ist. Das kommt wirklich geil rüber. Es gibt dann noch dieses andere Ding mit dieser Alicia Keys. Die in ihrem Studioraum mit anderen Musikern ist und da so eine Aufnahme macht. Das geht auch so zehn Minuten. Da haben sie tatsächlich drei oder vier Kameras im Raum platziert mit der Zeit, wann hast du mal von der einen Stelle zur anderen Stelle. Also nicht jetzt flüssiger Übergang, sondern schneidet dann einfach auf eine andere Kamera um. Und dann kannst du dir halt das Geschehen so anschauen, als wärst du halt dabei, könnte man jetzt sagen. Wobei ich irgendwie nie so richtig das Gefühl los gewesen, nie das Gefühl los geworden bin, dass für mich wirkte das alles so ein bisschen wie ein Aufenthalt im Wachsfigurenkabinett.

Dominik Wagner
2:15:35
Tim Pritlove
2:16:35
Dominik Wagner
2:16:36
Tim Pritlove
2:17:16
Dominik Wagner
2:18:28
roddi
2:19:46
Tim Pritlove
2:20:02
roddi
2:21:17
Tim Pritlove
2:21:23

Naja, nee, aber 210 Grad wäre geiler so. Also so in dem Bereich ein bisschen mehr. Diese ganze Frage ist natürlich jetzt auch, was könnten jetzt sozusagen interessante videografische Angebote werden? Und was natürlich auf dem Tisch liegt und was Apple ja auch schon macht, also wo man jetzt schon weiß, dass sie das tun, ist Sport. Sport interessiert die Leute. Sport findet auf großen Flächen statt. Sport hat geschehen an vielen Stellen. Wenn man nur mal schaut, was beim Fußball mittlerweile für einen Aufwand getrieben wird. Wird und im Falle von Apple ist es so, dass sie jetzt wohl auch bei Basketball Events mitfilmen, auf diese Art und Weise, und sie haben auch jetzt diesen Ticketpass, den sie ja schon längere Zeit verkaufen für die amerikanische, Fußballliga, also die Soccer, nicht American Football, sondern die MLS, die, Major League Soccer heißt das, aber ich sage halt Soccer dazu. Und jetzt kann ich dann nur darüber spekulieren, was sie da tun. Aber sie werden vermutlich dort auch ein Videoangebot machen bei dieser Major League Soccer. Also sie werden das mit Sicherheit mit ihren stereoskopischen Kameras, so wie sie diese Dokus machen, werden sie jetzt auch diese Sportevents machen. Und das Ganze hat nochmal eine andere interessante Dimension, weil beim Fußball, also in Spanien ist es zum Beispiel so, da werden ja heute schon die Spiele oder zumindest manche Spiele, die großen Vereine. In der ersten Liga, in der La Liga, werden ja mit sehr viel Kameras aufgenommen und damit meine ich nicht so acht oder zehn, sondern um das ganze Spielfeld herum eine ganze Batterie von Kameras oder zumindest um die Tore herum. Ich weiß nicht ganz genau, wie das an den Längsachsen aussieht. Und es gibt ja mittlerweile schon so Replay-Mechanismen, wo du dann quasi so einen Matrix-Bullet-Time-Effekt hast. Das heißt, du hast eine Torszene, Flanke kommt rein, Stürmer steigt hoch, köpft den Ball ins Tor. Das wird aber dann aufgenommen von 20 oder 30 Kameras, die natürlich alle Zeit synchronisiert sind. Dann kannst du das in der Wiedergabe so machen, dass du halt erstmal die Person fokussierst, die halt diese Flanke gibt. Dann geht die Flanke rein und während sozusagen diese Flanke zu dem Stürmer fliegt, wechselst du deine Betrachtungsposition zu hinter dem Tor und siehst dann quasi den Stürmer in dem Moment schon den Ball direkt in deine Richtung köpfen. Und das sozusagen alles als flüssiger Übergang, weil dann eben die Software dann auch diese Zwischenbilder entsprechend noch gerendert bekommt aus diesem ganzen Ding, was halt zu so einem kompletten 3D-Modell umgebaut wird. Keine Ahnung, wie viel Processing-Aufwand das hat. Was ich damit nur sagen will ist, der Aufwand, der für den Sport getrieben wird, ist heute schon sehr hoch, um solche scheinimmersiven Effekte zu erzeugen und wenn man das Ganze jetzt auch noch mit stereoskopischen Kameras kombiniert, wird es natürlich noch irrer, weil du dann eben dieses ganze Geschehen auch wirklich dreidimensionaler wahrnehmen kannst. Und im Falle von Fußball würde ich fast sagen, könnte das sogar richtig was bringen, weil dieses Problem. Dass man bei langen Bällen nicht genau sieht, fliegt der Ball jetzt gerade in der Kerze einmal nach oben oder nach unten oder fliegt der gerade 80 Meter in derselben Achse nach hinten. Du kriegst diese Tiefe irgendwie nicht hin. Ich weiß nicht, ob das dann mit einer Vision Pro auf einmal besser gelingt, aber das wird auf jeden Fall ein sehr interessanter Bereich sein, den es hier noch zu erforschen gibt, wie man das so bringen kann. Ja, fällt dir noch was ein zu Thema Video und Filme? Sonst könnten wir auch noch mal kurz über Fotos reden.

Dominik Wagner
2:25:56
Tim Pritlove
2:25:59
Dominik Wagner
2:26:08
Tim Pritlove
2:26:43
Dominik Wagner
2:27:33

Das fand ich auch. Also Panoramas waren schon mal so eine Größenordnung und ich hatte auch, so bevor ich nach Amerika ausgewandert bin, Und damals nochmal eine Bekannte auf Teneriffa besucht, die ist da aufgewachsen und die hat mich da ein bisschen rumgeführt und da habe ich ein paar geile Panoramas gemacht. Und dadurch, dass es ein eigenes Panorama war auch noch, war es halt wirklich auch so diese Kombination von ich bin wieder dort. Und zwar wirklich so, ich stehe jetzt an diesem Aussichtspunkt von dem Vulkan auf Teneriffa und ich bin sofort da. Und dass es nicht 3D ist, war mir gänzlich wurscht, ehrlich gesagt. Also wenn ich eins machen werde in Zukunft dann von Positionen, aus denen sich Panoramas ergeben, optisch sinnvoll, werde ich welche aufnehmen, weil das ist wirklich toll. Und das hat damit zu tun, dass man selber auch an der Stelle war, weil ich habe auch wirklich geile, hochauflösende Panoramas von sonst irgendwo runtergeladen, um sie mir anzugucken, weil ich die so gut fand. Das wirkt einfach nicht so sehr. Oder auch, was schön ist schon auch, meine Schwester war im Urlaub gerade und hat ein paar Panoramas geschossen und mir geschickt. Man hat schon einen Eindruck davon, aber die eigenen Erlebnisse so wahrzunehmen ist es schon nochmal. Und es ist also Panoramas angucken, also zum ersten Mal so, dass ich denke, Panoramas sind geil anzugucken auch, weil halt Panoramas ansonsten immer nur zu viele schwarze Balken oben und unten haben, egal mit was man es irgendwie anguckt.

Tim Pritlove
2:28:56
roddi
2:29:08
Tim Pritlove
2:29:12
roddi
2:29:14
Dominik Wagner
2:29:26

Ja, hat sein Für und Wider. ich finde es ganz gut, dass du praktisch nicht so besondere Metadaten brauchst, damit es in der Kategorie landet, weil dann verpasst du auch keine und brauchst nicht Magic, weil zum Beispiel bei den Immersive-Fotos, da brauchst du wieder irgendwelche Magic, dass du diese 3D machen kannst in irgendeiner Form. Zwei Fotos, die gleich heißen, kannst du nicht einfach reindonnern. Das wäre auch schön, dass man so, ich habe nämlich so 3D-Content und ich weiß noch nicht, wie ich den reinbringe, so dass ich ihn angucken könnte, weil da kommen wir nämlich zu anderen Geschichten so, sie kann ja jetzt 3D-Fotos, die Vision Pro, aufnehmen und anzeigen. Ähm, Und die Frage ist, ist es das wert bei den 3D-Fotos, weil es ist halt wie immer so, ich habe ja damals sogar mal eine App gemacht, die mit dem iPhone 3D-Fotos aufgenommen hat, mit so einer Apparatur, dass du an der iPhone-Kamera, Poppy hieß das Ding, zwei Prismen dran machst und dann praktisch ein bisschen das aufspiegelst, sondern in einem Bild so eine Stereoskope Bilder hast, gemacht hast, da war damals die Auflösung gerade so gut genug, dass das 3D-Bild, das da rauskam, Sinn machte. Habe ich hier auch noch die Prototypen davon und die App, die ich geschrieben habe. Aber die kriege ich jetzt da auch nicht rein. Aber es ist halt auch so ein bisschen so diese 3D-Bilder, wie die Panovision. Es hat schon was, aber es ist halt auch immer weniger aufgelöst und es ist so ein bisschen schräg. Ich weiß es nicht. Ich habe ein paar gemacht jetzt, aber...

Tim Pritlove
2:30:50
Dominik Wagner
2:30:52
roddi
2:30:54
Dominik Wagner
2:30:58
roddi
2:31:01
Tim Pritlove
2:31:14
Dominik Wagner
2:31:58

Es hat so ein bisschen einen fassigen Rand. Es ist eigentlich ein quadratischer Ausschnitt, sowohl bei den 3D-Fotos als auch bei den Videos, die man aufnimmt. Zumindest wenn man sie mit der Vision Pro aufnimmt, weil man kann ja auch mit dem aktuellsten iPhone Videos aufnehmen, die haben ein bisschen anderes Seitenverhältnis. Und die stellen es grundsätzlich in so einem Kasten da, wo du praktisch ein bisschen, also im Verhältnis zu deinem Fenster im Raum. Du guckst da praktisch ein bisschen durch und kannst deshalb ein bisschen seitlich also sie haben es ein bisschen so gemacht, dass es so ein bisschen wabert, wenn man seitlich rumguckt, damit es auch diesen Stereoskop Effekt ein bisschen mehr hat. Und du kannst auch da wieder reinzoomen, auf Immersive machen, dann ist es so ein auch ein bisschen seltsames Erlebnis, weil halt die Auflösung nicht so super dolle ist. Gleichzeitig ist es, wenn du es selber gemacht hast, also gerade das Video, ist es ist es schon das hat was ja. Ja, das stimmt ich habe auch heute nochmal versucht in Vorbereitung von der Sendung eins zu nehmen, wo ich jetzt die Treppe runter laufe und dann mal raus gucke und dann mal Klavier spiele um das so ein bisschen um mal so eins zu haben, wo man ein bisschen was ausprobiert, es ist aber schon mehr ein Gag als wirklich cool, glaube ich also ich hätte glaube ich schon gerne so Aufnahmen von meinem Kleinen, aber gleichzeitig will ich nicht mit der Brille von meinem Kleinen so rumherfeln also dem habe ich das jetzt auch noch vorenthalten weil der soll ja überhaupt nicht so viel mitbekommen das ist mir zu creepy, Papa wieder mit seinem VHS Videokamera, also ich muss aber sagen da.

Tim Pritlove
2:33:37

Wären wir jetzt auch nochmal gleich zu kommen ist ja immer die Frage, Wozu kann man das eigentlich gebrauchen? Ist das jetzt nur so eine Technologiedemonstration, ist das so ein Gimmick oder ist das vielleicht für irgendwas gut oder gibt es zumindest Leute, für die das eine besondere Bedeutung haben kann? Und dieses dreidimensionale Fotografieren und dieses dreidimensionale Video aufzeichnen, das mag zwar jetzt noch nicht perfekt sein, aber die Möglichkeit das überhaupt machen zu können ist natürlich für bestimmte Anwendungen unter Umständen wirklich geil. Also ich denke halt gerade so, wenn man so Veranstaltungen macht und so Location Scouting macht oder du bist so auf Wohnungssuche und schaust dir Wohnungen an und dann versuchst du irgendwie zu fotografieren und irgendwie dir zu merken, wie das ist, weil du nur sehr wenig Zeit hast, das zu begehen. Ja, so eine Wohnungsbegehung zum Beispiel. Da würde ich mir, also wie ich es jetzt sozusagen hätte, dann würde ich mir dieses Teil aufsetzen und da einfach 3D-Video-Capture-Button drücken und dann da einfach mal 10 Minuten lang durchlaufen und das komplett aufnehmen. Weil wenn du dir das dann auf der Brille wieder anschaust, dann kriegst du einfach so ein gutes Gefühl für die Weite und die Räume und was wo ist und was miteinander da ist und so. Es ist ein bisschen schwierig, sich zu sehr bewegte Rumlaufvideos auch anzuschauen. Da muss man aufpassen, dass man da nicht so ein bisschen wonky wird. Mir ist nie schlecht geworden jetzt bei der Brille, aber es ist schon so. Also da kann ich mir schon vorstellen, dass hier die Brille auch wirklich eine unmittelbare Anwendung hat für bestimmte Leute. Weil das halt einfach die optimale Quick-and-Dirty-Dokumentation von Situationen ist.

roddi
2:35:37
Dominik Wagner
2:35:45
Tim Pritlove
2:37:02
Dominik Wagner
2:37:19
Tim Pritlove
2:37:23
Dominik Wagner
2:37:26
Tim Pritlove
2:37:33
Dominik Wagner
2:37:37

Diese Situation, wo du die Brille aufhast, aber mit Leuten interagieren willst oder kannst und dann dadurch, dass die sowohl die Leute durch die Immersion durchgehen, also wenn du. Also vielleicht nochmal kurz erklärt, wenn wir es noch nicht oft genug gesagt haben an so einer Stelle, wenn man sich so ausblendet mit der Crown und dann so ganz einbettet in irgendeine Experience in der Apple Vision Pro, dann ist es so, wenn Menschen auf dich zukommen, mit dir reden wollen, dann machen die so ein Loch dadurch und man sieht die trotzdem. Also man wird nicht komplett aus seiner Immersion rausgeworfen, sondern es ist so, okay, die gucken dann aus der Wolke raus. Da wird einfach ein bisschen aufgemacht, wenn die einen angucken und reden. Und umgekehrt ist es so, dass die wiederum auf der Vision Pro Außen, auf der Stiebrille, so eine Andeutung von Augen sehen, die deine Augen sind. Das kommt dann gleich mit der Person nochmal raus. Aber die halt eigentlich so blurry sind und so ein bisschen, dass sie nur eine Andeutung sind. Aber dadurch sehen die halt, okay, du siehst die auch. Und dadurch kannst du diese Interaktion machen. Ich habe es jetzt selber nie in so Kontexten verwendet, wo das relevant gewesen wäre. Ich habe mir die Augen mal im Spiegel angeguckt, weil da funktionieren die auch. Und die sind so, ja, sind schon okay. okay, also ich finde die weniger kontrovers, als die Leute meinen, dass das nichts... Es ist halt, es ist ein Indikator, es ist wichtig in irgendeiner Form für diesen Anwendungsfall und es wird immer wichtiger, je mehr es von diesen Vision Pros gibt und je mehr die normal eingesetzt werden. Also das werden wir in Zukunft noch sehen, glaube ich. Ja. Aber es ist halt so ein Feature, das sehr unik ist hier. Und sehr belacht wurde im Vorfeld, aber ich finde es okay. Also es ist so, das ist ein okayer Weg, weil es geht halt intuitiv, ist es klar. Wenn da Augen Rausgucken, auch wenn sie ein bisschen creepy sind Das ist halt die Person Alles andere, was so indirekt wäre Mit einer Leuchte, sonst irgendwas Würde nicht funktionieren, weil da müsste man Jemandem was erklären erst an der Stelle.

Tim Pritlove
2:39:32
Dominik Wagner
2:39:37
Tim Pritlove
2:39:38
Dominik Wagner
2:39:47
Tim Pritlove
2:39:51

Genau, aber damit sozusagen deine Augen überhaupt mal reproduziert werden können, muss es ja Fotomaterial geben sozusagen von dir, weil es gibt ja keine Kameras, die jetzt auf deine Augen gehen und sozusagen die wirklich jetzt filmen, sondern sie werden ja nur simuliert und. Dazu musst du halt vorher durch diesen Persona-Prozess gehen der dann eben auch für diese, ja Persona heißt ja, sind diese quasi diese Avatare, die angezeigt werden wenn du jetzt mit jemandem Facetime machst und du hast diese Vision Pro auf, dazu nimmst du die Kamera halt ab und dann musst du, da reingucken, den richtigen Abstand haben, du siehst dann so ein bisschen, siehst so ein bisschen aus wie so ein Teletubby, diese Sonnenbaby bei den Teletubbies. Die Sonne, wo so ein Baby in so Sonnenstrahlen drin ist, so sieht das so ein bisschen aus, wenn du das Ding vor dich hältst und dann, siehst du erstmal quasi per Video so deinen Minikopf in der Mitte von dieser Brille und musst den dann sozusagen auch im richtigen Abstand halten und wenn das dann so weit ist, dann machst du deinen Kopf nach rechts und nach links und nach oben und nach unten und dann musst du einmal Einmal lächeln, einmal lächeln mit Zähne, Augenbrauen heben und dann Augen zumachen und das war's. Das sind sozusagen die Positionen, die dann erfasst werden und daraus berechnet sich halt auf der einen Seite das, was außen an der Brille zu sehen ist, wenn Leute dich anschauen und dadurch, dass sie ja dann auch noch so ein, wie heißt dieses Gitter, was sie da haben, dieses... Also das Glas ist ja dann nochmal so angeschliffen, dass du tatsächlich in jede Richtung noch ein anderes Bild abgeben kannst, wie bei so Wackelbildern. Das heißt, wenn dich einer von links und von rechts anguckt und so weiter, dann.

Dominik Wagner
2:41:52
Tim Pritlove
2:41:53
Dominik Wagner
2:41:56
Tim Pritlove
2:41:59
Dominik Wagner
2:41:59
Tim Pritlove
2:42:00
Dominik Wagner
2:42:32
Tim Pritlove
2:42:45
Dominik Wagner
2:44:11
Tim Pritlove
2:44:14
Dominik Wagner
2:44:19
Tim Pritlove
2:44:26
Dominik Wagner
2:44:27
roddi
2:44:35
Dominik Wagner
2:44:40
Tim Pritlove
2:44:40
roddi
2:44:41
Tim Pritlove
2:44:45
Dominik Wagner
2:45:09
Tim Pritlove
2:45:11
Dominik Wagner
2:45:24
roddi
2:46:19
Dominik Wagner
2:46:43

So, aber interessant, also mehrere Sachen sind interessant an der Geschichte. Die eine Sache war, wir haben ja Videos aufgenommen mit der Vision Pro und, Aber nur mit dem eigenen Capture, mit dem Knopf. Ja, weil Apps sehen den Videostream nicht, den du selber siehst. Die dürfen das nicht. Du kannst keine Bilder machen mit der Apple Vision Pro. That doesn't work for you as App Developer. Was du kriegst, ist der einzige Videostream, der als Rückwärtskamera gilt. Also ich habe ja auch diese Tageslicht-App, mit der man auf dem Apple TV was streamen kann, eine seiner Kameras. Und die kann man auch dafür verwenden. Und da kommt dann der Avatar. Also diese Persona kommt da praktisch, also auf der Selfie-Kamera ist immer der Avatar und das ist das einzige Video-Input, das die Apps haben können aktuell. Nur FaceTime selber kann auch Screensharing machen, aber das ist FaceTime selber, keine Third-Party-App da auf das. Und das heißt, da läuft halt dieser Avatar einfach und der funktioniert super cool im Raum. Also der ist so, je nachdem wo jetzt das Gegenüber beim Facetime steht, man hat also für Facetime, wenn man in der Apple Vision Pro Facetime macht, kriegt man ein Fenster, also ein Fenster, das dann aus mehreren. Unterfenstern besteht, mehr oder weniger, mehreren Untervierecken, aber das ist so eine Ebene, die man irgendwo im Raum platziert und dann hat man dadurch einen ganz klaren Punkt, wo man Leute angucken kann und wo man praktisch auch sogar mit den Leuten interagieren kann. Also einerseits kommt deren Audio aus deren Richtung, das macht es nochmal räumlich und wirklich klar. Die Mikros von der Apple Vision Pro sind glasklar. Dadurch, dass sie irgendwie so viele weiß ich nicht, so viele Processing-Mikros haben wollen. Es ist ein FaceTime-Call, mit der klarste Gesprächs-Call mit der Apple Vision Pro, den ich den ich je gehört habe. Also das ist wirklich super angenehm. Und dadurch, dass du die im Raum hast an der Stelle, kannst du halt auch mit denen interagieren. Das heißt, deine Hände, wenn du auf die Leute zeigst, werden eingeblendet bei FaceTime vor der Persona an der Stelle. Wenn du dich wegdrehst, drehst du dich halt auch weg von der einen oder anderen.

roddi
2:49:01
Dominik Wagner
2:49:05
Tim Pritlove
2:49:42
roddi
2:49:50
Dominik Wagner
2:49:51
Tim Pritlove
2:50:39
roddi
2:51:47
Tim Pritlove
2:51:53
roddi
2:51:56
Tim Pritlove
2:51:59
Dominik Wagner
2:52:03
Tim Pritlove
2:53:05
roddi
2:53:38
Tim Pritlove
2:53:41
roddi
2:53:42
Tim Pritlove
2:53:44
Dominik Wagner
2:54:04
roddi
2:54:18
Dominik Wagner
2:54:27
roddi
2:54:46
Dominik Wagner
2:55:00
roddi
2:56:03
Tim Pritlove
2:56:10
Dominik Wagner
2:56:14
Tim Pritlove
2:56:25
roddi
2:57:23
Tim Pritlove
2:57:28

Ich würde es haben wollen, wenn ich es benutzen will. Also das ist ja immer so diese Frage, du hast ein Mac, du hast ein iPad oder hast ein iPhone auf dem Tisch und deine Uhr, so, und jetzt willst du irgendwas tun. Was nimmst du? Welches Gerät nimmst du als erstes, um irgendwas zu tun? Oder was tust du, wenn du irgendein Gerät nimmst? Was tust du nicht, wenn du irgendein Gerät nimmst? Es gibt Dinge, die mache ich am liebsten auf dem iPad. Es gibt sehr viele Sachen, die mache ich auf dem Mac am liebsten. Es gibt Dinge, da ist nur das iPhone für gedacht und einen Timer stelle ich mir am liebsten auf der Uhr. Und genauso müsste es halt irgendwas geben für diese Vision Pro, wo ich so diesen Urge habe, so jetzt das Ding aufsetzen, weil dann, also vor allem wo man. Kein Problem damit hat, all diese ganzen Nachteile einzugehen mit der Entkopplung von der Außenwelt, das Teil mit dem komischen Akku, den du da in der Hosentasche hast, den du erstmal irgendwie arrangieren musst und dieser komische Clip da und einschalten und booten und okay, wenn das schon läuft, dann setzt du den auf, dann Optik-ID, dann bist du auch sofort eingeloggt, dann kann es auch sofort losgehen. Passt schon alles, aber es ist halt nicht so wie eine Uhr, die du immer am Arm hast und es ist auch nicht wie das iPhone, was du mal eben aus der Hosentasche ziehst oder ein Laptop, der dich einfach auf den Tisch die ganze Zeit anlächelt und sagt, benutze mich oder das iPad. Die Vision Pro muss immer erst in Betrieb genommen werden. Du hast immer erst so diesen Aufsetzen, Arrangieren, was mit meiner Frisurbrille, wie habe ich das richtige Setting. Okay, Und dann hast du sie auf und dann geht es eigentlich erst los. Es ist also nicht so dieser in einer Sekunde kann ich sofort anfangen mit irgendwas, sondern das ist auf jeden Fall erstmal eine Prozedur. Und da muss sich natürlich was rufen. Da muss irgendwas da sein, was du nur da so machen kannst und was es dir dann natürlich auch wert ist. Sowohl jetzt die initiale Investition in Geld, als auch Wert in dem Moment diesen Aufwand zu leisten und auch die potenziellen Nachteile einzugehen, die du natürlich zwangsläufig hast, wenn du so ein Ding aufhast. Und wenn man sich jetzt mal anschaut, was an Apps derzeit so da ist, meine Apple behauptet jetzt 600 Apps, keine Ahnung, die Hälfte davon sind wahrscheinlich Clocks. Also was sind sozusagen jetzt so die Anwendungen, die gerade da sind und die andere Frage ist natürlich, was sind die Anwendungen, die einen sofort das kaufen lassen würden.

roddi
3:00:15
Dominik Wagner
3:00:35
roddi
3:00:39
Dominik Wagner
3:00:41
roddi
3:00:49
Tim Pritlove
3:01:42
Dominik Wagner
3:02:21
Tim Pritlove
3:02:52
Dominik Wagner
3:02:55

Ein Interface, das man gut auf dem iPad mit dem Stift bedienen kann, das intuitiver ist ein bisschen als Autodesk und Shape. Es hat einfach wirklich eine iPad-spezifische Lösungen gemacht, mit einem Bedienmodell, das funktioniert. Und das kannst du halt mit eigentlich mit der, mit dem Eye-Tracking und den Gesten kannst du es genau genug machen, wenn du es gut machst. Was ich ein bisschen schade finde, ist, dass Onshape hat eine Vision Pro App, aber die macht halt gar nichts irgendwie. Also die ist halt so grottenschlecht, dass ich es nicht geschafft habe, meine Modelle, die ich mir so gebaut habe, in letzter der Zeit irgendwie in den Raum zu stellen, weil ich diese App nicht bedienen kann, weil da geht halt irgendwie nichts. So soll es nicht sein. Aber das ist schon auch eine. Schon auch eine Zielgruppe für sowas. Es ist aber alles noch Zukunftsmusik. Es ist wirklich, jetzt aktuell gibt es ganz wenig Apps, wo ich sagen würde, hey, dafür brauchst du das. Für mich ist es, glaube ich, eher so eine Geschichte, das ist jetzt eine Plattform, die Apple aufbaut und Apple wird den Atem haben, die zu halten. Und die wird jetzt noch eine Zeit lang vor sich hin verkümmern, weil was Geiles zu entwickeln, kostet auch geil viel Geld und so viele Leute haben jetzt dieses Ding noch nicht, dass es sich lohnt. Und du kannst ja auch die App nicht für 150 oder noch mehr verkaufen. Das haben wir ja auch irgendwie den Leuten abgewohnt. Apps, die ich selber ganz gut finde schon, also wirklich, wo ich jetzt, ich habe gestern irgendwie einfach mal mindestens eine halbe Stunde auf das Herz geguckt und habe dann erstmal verstanden, wie so der Flow durch das Blut ins Herz so funktioniert und durch die Lunge und wieder zurück und so. Das ist halt eine freie App von diesen Herz-Apps und die Modelle in der Luft zu haben und anzugucken, ist einfach noch eine andere Qualität als nicht. Also sämtliche dieser teureren Apps, die jetzt einfach eine im Raum 3D-Visualisierung von irgendwas, was du brauchst, also als Arzt, einem Menschen oder als Techniker irgendwie Bauteile oder sonst irgendwas. Also Chick ist zum Beispiel auch wirklich geil, da kannst du dir einfach so ein 3D-Modell in den Raum stellen, in Originalgröße und dann auseinandernehmen, die Teile angucken und Texte dazu. Also das ist schon ein Anwendungsfall, wo so eine Mixed Reality-Brille wirklich Sinn Sinn macht und das Erlebnis kriegst du nicht anders. Oder auch die Mars Rover App ist ziemlich schlecht leider, aber den Mars Rover so im eigenen Zimmer in Originalgröße zu haben, nochmal um zu sehen, ach, das ist ja doch ein Auto und nicht ein Matchbox Ding, ist einfach, schau doch mal, es ist eine Klasse von, einfach eine andere Qualität, dass du diese Original-Maßstab-Geschichten hast. Und für das, was Roddy gesagt hat, alles, was mit 3D-Druck zu tun hat, da ist Reality Kit und AR Kit so gut, wenn du dem die richtigen Maße gibst, dann kannst du das im Raum platzieren und es ist einfach genau das so super geil. Finde ich auch schon cool. Aber brauche ich es konkret für irgendwas anders außer Spielen? Nee. Also ich schaue gern damit Filme und so und das wird auch so bleiben. Ich finde auch ganz gut, mich da zu bewegen dabei. Also dann praktisch so den Screen irgendwie zu haben und dabei aktiv irgendwie zu sein. Das ist okay, weil das Motion Blur beim Videogucken nicht so blöd ist. Also ich gucke viel im Stehen und Gehen. Interessanterweise nicht so viel auf der Couch. Auf der Couch nervt ein bisschen, dass dass die Klickerkennung und das Chips-Essen sich nicht so gut verträgt. Und da muss man sich praktisch erstmal die Bedienung ausschalten, bevor man da entspannt Fernsehen gucken kann. Also man kann ja auch die Bedienung auf nur linke oder nur rechte Hand stellen. Da kann man mit der einen Hand Chips essen. Das ist nicht schlecht, ohne dass da aus Versehen ein Klick erkannt wird. Oder man kann, und das sind auch ganz coole Features, so die Accessibility-Features zum Pointer-Control heißt es dann. Da kann man umstellen, dass man halt nicht mit den Augen arbeitet, sondern entweder mit dem Handgelenk, das heißt ein Handgelenk zeigt irgendwie, das andere tippt und dann hast du mehr oder weniger so einen Pointer, so ähnlich wie bei iOS, also einen Kreis, den du irgendwo anzeigst, wenn du willst, kriegst du auch den 3D-Strahl gezeigt oder du kannst mit dem Finger zeigen irgendwo drauf oder du kannst es so ganz hardcore machen, die Mitte des Bildschirms ist dein Zeiger und dann musst du halt den Kopf bewegen. Das ist für Accessibility gedacht, aber so kann man praktisch Situationen, die man nur temporär, indem man temporär nicht jetzt mit den Händen so viel auslösen will oder machen will, überbrücken. Das geht im Moment.

Tim Pritlove
3:07:25
roddi
3:07:28
Dominik Wagner
3:07:32
roddi
3:07:34
Dominik Wagner
3:07:36
Tim Pritlove
3:07:45
Dominik Wagner
3:07:46
Tim Pritlove
3:07:47
roddi
3:07:52
Tim Pritlove
3:07:55
Dominik Wagner
3:09:06
Tim Pritlove
3:09:23
Dominik Wagner
3:09:29
Tim Pritlove
3:09:35

Also wirklich so large scale. Wie auch immer. Also es wird es in allen Varianten geben und ich glaube, dass das einfach das ist dann auch konkurrenzlos. Also dann ist das einfach auch die die beste Möglichkeit, sich sowas anzuschauen und ein Gefühl dafür zu bekommen, sind unsere Entscheidungen richtig. Da kommt es ja manchmal auf so gefühlte Sachen an. Wie groß bauen wir das? Ist das groß genug? Wirkt das zu wenig? Ist das zu groß? Solche Entscheidungen sind sehr schwer mit Visualisierung im Zweidimensionalen zu machen, wenn du auch die Bezugsgröße deiner Umgebung nicht wirklich dabei hast. Und das ist halt das Coole, dass du sozusagen das zusammenbringen kannst. Da kann ich mir das also schon vorstellen. Dann eben, was auch schon anklang, so Remote Assistance, also wenn jetzt irgendwie jemand repariert was und du brauchst aber Expertise und dann könnte sich jemand sozusagen in deinen View einklinken, so Streaming, Facetime würde ja in dem Moment schon reichen und du kannst dann halt auch wirklich auf Dinge vielleicht auch zeigen und markieren oder so, das ist ja jetzt noch nicht möglich, um Leuten irgendwas beizubringen. Ja, da kannst du irgendwie in der Ukraine den Piloten da irgendwie noch Assistance geben oder den Leuten, die irgendwas reparieren, Assistance geben, so eine Sachen. Also mit Militär will ich jetzt gar nicht erst anfangen, aber generell die Remote Assistance, ob das dann im medizinischen Bereich ist oder Reparaturbereich, Technik und im weiteren Sinne, was du ja auch schon erwähnt hast, so Training, Education. Lernen, 3D-Modelle, interaktive Sachen, Sachen, wo du halt Dinge auseinander schälen kannst und dir wirklich dreidimensional anschauen kannst. Das ist ja bei dieser Jig-App auch so, dass du so Teile wegnehmen kannst, also wirklich vorstoßen kannst in Bereiche und das ist definitiv etwas, was damit geht. Und dann halt wie vorhin schon erwähnt, Sport denke ich mal, wird eine Rolle spielen. Mir ist noch nicht so ganz klar, was die beste Sache ist, aber du kannst natürlich jetzt auch so Stadionperspektiven einnehmen. Also wenn es möglich ist, sozusagen eine Live-Übertragung mit 180 Grad oder meinetwegen auch noch mehr. Zu machen und dann hast du eben so diese Stadionperspektive, was sozusagen den Vorteil hätte, dass du eben das ganze Spiel sehen kannst, während du heute immer nur so Kamera-Ausschnitt hast. Oder so eine mega totale, auf der du nichts erkennen kannst. Aber wenn du nah genug dran bist, um das Detail zu verfolgen, aber trotzdem jederzeit nach vorne und nach hinten gucken kannst und immer irgendwie so das Spielfeld beobachten kannst, ich glaube, das könnte ganz interessant werden und das ist auch definitiv ein Bereich, wo ich vorher eher skeptisch war und wo ich jetzt mir denke, okay, maybe there's something to it. Für mich persönlich wäre natürlich die Killer-App Google Earth. Beziehungsweise fände ich ja mal, jetzt wäre es ja mal Zeit für Apple da mal Butterbeigefische zu machen, weil die haben ja im Prinzip die gleichen Daten.

roddi
3:12:46
Tim Pritlove
3:12:48
Dominik Wagner
3:13:00
Tim Pritlove
3:13:03
Dominik Wagner
3:13:07
Tim Pritlove
3:13:54
Dominik Wagner
3:14:03
Tim Pritlove
3:14:11
Dominik Wagner
3:15:08
roddi
3:16:19
Dominik Wagner
3:16:22
roddi
3:16:30
Dominik Wagner
3:16:36
Tim Pritlove
3:17:14
Dominik Wagner
3:17:18
roddi
3:18:00
Dominik Wagner
3:18:02
roddi
3:18:49
Dominik Wagner
3:19:07
roddi
3:19:32
Dominik Wagner
3:19:33
roddi
3:19:53
Dominik Wagner
3:20:29
Tim Pritlove
3:21:34
roddi
3:21:54
Tim Pritlove
3:21:57
Dominik Wagner
3:22:27
Tim Pritlove
3:22:32
roddi
3:23:54
Tim Pritlove
3:23:58
roddi
3:24:00
Tim Pritlove
3:24:02

Und, Und genau so etwas braucht jetzt auch die Vision Pro, weil Apple hat es sozusagen platziert als, wir sind zwar irgendwie so ein Headset, aber wir benutzen das Wort gar nicht. Wir definieren hier eine Computing-Plattform und nicht irgendwie ein Gaming-Device. Wir haben ein komplett eigenes Interaktionsmodell, wir haben ganz andere Arten und Weisen, wie das hier bedient wird und so wie wir die Maus erfunden haben und wie wir Multitouch auf den Markt gebracht haben, haben wir jetzt hier irgendwie Pinch und also Stimme, Stimme, Auge und Finger sind auf einmal der Controller für dein System. Und dann halt so alles in brauchbarer Qualität, genug Sensoren und jetzt ist es eigentlich so die Wette, die auf dem Tisch liegt mit, so liebe Entwickler, jetzt lasst euch mal was einfallen, wir wissen auch nicht, was die Killer ab ist. Wir haben eine gewisse Idee und wir haben drei, vier, fünf Sachen wie bei der Watch auch schon rausgeguckt. Erinnere dich, bei dieser Watch, was da am Anfang alles probiert wurde, hier mit irgendwie Herzschlagteilen und diese ganzen Kommunikationssachen, die sich nie durchgesetzt haben. Aber am Ende waren halt Notifications allein schon mal ganz interessant und irgendwie Timer und dann vor allem halt Fitness-Tracking. ging. Das war halt der Grund, warum sich die Leute diese Uhr gekauft haben. Sport. Das war halt das Ding. Und das hat diese Watch in den Markt geholt und dann haben sie auch zugesehen, dass sie da das immer weiter verbessern und dafür ist die halt auch wirklich wirklich gut. Und genauso wird es jetzt bei der Vision Pro laufen. Es wird irgendwas rauskommen. Was diese Fähigkeiten dieser Plattform nutzt auf eine Art und Weise, um dabei was Neues zu produzieren oder irgendetwas auf eine bestimmte Art und Weise viel besser zu machen, als man das bisher mit was anderem machen konnte. Und dieser ganze 3D-Modellierungs- und Visualisierungsbereich ist ein heißer Kandidat dafür. Sicherlich auch irgendwelche Kommunikations-Interaktionsmodelle im Bereich Training, Education, Kommunikation. Kann ich mir sehr gut vorstellen, dass da irgendwas passiert. Und vielleicht ist es auch der Sport und vielleicht ist es auch am Ende Kino gucken. gucken. Vielleicht funktioniert das auch schon. Das ist, sagen wir mal, dieses Filmgucken ist so die, ich würde nicht sagen, die niedrig hängende Frucht, aber das ist so, dass das versteht jeder. Also du musst keinem mehr erklären, warum man Filme gucken sollte.

Dominik Wagner
3:26:39
roddi
3:27:19
Tim Pritlove
3:27:43
roddi
3:27:45
Tim Pritlove
3:27:56
roddi
3:27:57
Dominik Wagner
3:28:04
roddi
3:28:13
Tim Pritlove
3:28:30
roddi
3:28:35
Tim Pritlove
3:28:39
roddi
3:29:52
Tim Pritlove
3:29:59
Dominik Wagner
3:30:04
roddi
3:31:13
Dominik Wagner
3:32:01
roddi
3:32:09
Tim Pritlove
3:32:33
roddi
3:32:35
Tim Pritlove
3:32:37
roddi
3:32:42
Dominik Wagner
3:32:47
Tim Pritlove
3:33:13
roddi
3:33:21
Tim Pritlove
3:33:27
Dominik Wagner
3:33:27
Tim Pritlove
3:33:37
Dominik Wagner
3:33:41
roddi
3:33:42
Tim Pritlove
3:33:55
roddi
3:34:01
Tim Pritlove
3:34:03
roddi
3:34:05
Tim Pritlove
3:34:12
Dominik Wagner
3:34:29
Tim Pritlove
3:35:07
Dominik Wagner
3:35:12
Tim Pritlove
3:35:14
Dominik Wagner
3:35:15
Tim Pritlove
3:35:24
roddi
3:35:27
Tim Pritlove
3:35:39
Dominik Wagner
3:36:55
Tim Pritlove
3:36:56
Dominik Wagner
3:36:59
Tim Pritlove
3:37:06
Dominik Wagner
3:37:19
Tim Pritlove
3:37:59
roddi
3:38:19
Tim Pritlove
3:38:31
roddi
3:38:35
Tim Pritlove
3:38:43
roddi
3:38:58
Tim Pritlove
3:39:28
roddi
3:39:36
Tim Pritlove
3:39:43
roddi
3:40:00
Tim Pritlove
3:40:10
roddi
3:40:17
Tim Pritlove
3:40:33
roddi
3:40:34
Tim Pritlove
3:40:50
roddi
3:40:57
Tim Pritlove
3:41:20
roddi
3:41:27

Ja.

Tim Pritlove
3:41:28
roddi
3:41:35
Dominik Wagner
3:41:36
Tim Pritlove
3:41:37
Dominik Wagner
3:41:44
Tim Pritlove
3:41:47
Dominik Wagner
3:41:58
Tim Pritlove
3:41:59
Dominik Wagner
3:42:01
roddi
3:42:41
Dominik Wagner
3:42:44

Nee, also was heißt Ikea? Ja schon, von der Anleitung, die Anleitung ist sehr gut, aber acht bis neun Stunden baut man den so zusammen. Okay, willst du das machen? Ich habe mir die genaue Dauer nicht so genau durchgelesen und ich dachte mir, das ist ja doch noch so ein manuelles Produkt, wenn man es dann selber zusammengebaut hat, weiß man wenigstens, wo die Probleme sind, weil ich kenne 3D-Drucken ja nur mit Problemen. Also wir haben damals, Martin hatte damals mal von irgendeinem Kongress den ersten Maker-Bot oder den zweiten so gefühlt mitgebracht und den haben wir dann in der Cave mal aufgebaut und dann haben wir ungefähr drei Drucke hinbekommen, bis der irgendwie eingeschmolzen ist, weil wir waren alle nicht so aktiv, den zu pflegen und bis der irgendwie auf dem Druckbett dann wirklich auch gehaftet ist und so. es war dann ganz cool, aber hatte keinen Sinn. Und da habe ich mir gedacht, das ist doch jetzt anders, dann hatte ich den kleinen vom Bekannten und habe dann eben so ein bisschen ausprobiert und dann hatte ich es auch schon ein altes Modell und das ist eigentlich inzwischen alles schon viel angenehmer, weil was der Prusa macht ist und die, moderneren 3D-Drucker ist, man muss die nicht mehr so fein fiddelig justieren, sondern man steckt einfach was rein und dann startet man den Druck und man muss ein bisschen die Werte, in den Programmen einstellen, so dass sie passend zu dem Druckmaterial ist, was man benutzt. Aber man muss jetzt nicht mehr das Druckbett irgendwie anheben und dann die Temperatur ausprobieren und den ganzen Scheiß machen. So, und dann druckt man halt Dinge. Und das macht erstaunlich viel Spaß. Und die Welt der CAD-Programme hat sich auch massiv verändert. Also wie ich vorher schon gemeint habe, Shaper. Onshape ist irgendwie sogar ein Web-Tool, mit dem man parametrisch... CAD machen kann und geiles Zeug sofort, wenn man weiß, was man macht, geht es in Nullkommanix. Die Programme sind alle besser geworden. Es ist ein Spaß. Es ist ein Rabbit Hole. Es ist wirklich so, zwei Wochen hat dieser Drucker durchgedruckt. Und jetzt ist er schon langsam so ein bisschen eine Bremse drin. Aber ich habe mir zum Beispiel so das hier gemacht für meine Vision Pro. Was ist das hier? Das ist so ein in die Vision Pro kommt in der Verpackung mit so einem Karton runden Dings. Damit die Vorderseite da wo dein Gesicht drauf ist, auch abgedeckt ist. Wenn du die Vision Pro rausnimmst kriegst du im Umfang, wenn du nicht die teure Tasche gekauft hast, nichts um das irgendwie zu transportieren oder, zu schützen, außer so ein Verhüterli, der so vorne auf der, Glasscheibe sitzt, genau so ein Socken, aber die Innenseite mit den Linsen ist einfach, die ist einfach offen, also die kannst du irgendwie jetzt so nicht in die Tasche stecken oder so oder einfach nur rumlegen lassen und da habe ich mir so ein Inlay gedruckt, das man da drauf legt damit, wenn irgendwie Dreck runterfällt oder es nicht einstaubt oder man halt auch das Gefühl hat, es verkratzt nicht die Linse, die sauteuer war und, das konnte ich mir halt einfach zusammendrucken, indem ich das ein bisschen ausgemessen habe und ein bisschen dann so, CAD gemacht habe das hat Spaß gemacht, und die meisten Drucke funktionieren einfach, wenn man es machen will und es hat halt diese. Nach wie vor den Nachteil, dass man halt mit der Art und Weise des Drucks arbeiten muss, das heißt Das heißt, es gibt halt die Schichten, mit denen das Zeug läuft und man muss halt die Stärke des Materials in die richtige Richtung machen und das verschiedene Plastik. Aber es ist halt alles jetzt ein gelöstes Problem geführt. Also wenn ich jetzt irgendwas machen will, kann ich es machen. Zum Beispiel kleine Elektronikbauteile auch. Also ich habe auch noch Lust, da was schöne Enclosures für zu machen. Also die, Da wird viel passiert und das selber machen zu können hat für mich den Unterschied gemacht, weil jetzt habe ich es halt einfach ausprobiert. Ich habe die zwei Wochen lang immer was gedruckt, dann habe ich es ausprobiert, ein bisschen was gemacht, ein bisschen was selber gemacht und jetzt habe ich so innerhalb dieser zwei Wochen schon genug Selbstvertrauen, dass ich jetzt irgendwie so Reparaturzeugs machen würde. Würde für, da ist man, da fehlt man ein Plastikteil von irgendwas, dass ich das schnell nachbaue und dann einfach mal schnell drucke. So. Und das ist einfach, ich kann das jetzt, ich hab das jetzt was, ich kann da jetzt Zeug hervorheben.

Tim Pritlove
3:46:45
Dominik Wagner
3:46:47
Tim Pritlove
3:46:49
Dominik Wagner
3:46:50
roddi
3:47:07
Tim Pritlove
3:47:50
Dominik Wagner
3:48:13
Tim Pritlove
3:48:54
Dominik Wagner
3:48:59
Tim Pritlove
3:49:03
Dominik Wagner
3:49:10

Also, du hast einerseits die Ecke... Ist es jetzt eher so ein fertiges Produkt, das du dann nicht reparieren kannst, so wie ein Bamboo oder eher so, wie du halt so einen Drucker kaufst, den du dann wegwirfst, wenn er kaputt ist? Oder ist es eher noch in dieser Makerboard und so weiter Gedankengut, wo auch Teile selber noch 3D gedruckt sind und du es eben noch zusammenbaust und reparieren kannst und ersetzen kannst und wo es sich auch mit der Zeit verbessert? So, das ist so die eine Achse, an der man arbeiten kann und Prusa ist da einfach relativ umtriebig, was das angeht. Prusa selber verwendet die massiv und hat die einfach im Einsatz, das heißt, die sind einfach, die gehen nicht so schnell kaputt und die sind auch wirklich gepflegt und das ist jetzt nicht ein Produkt für einen Consumer in irgendeiner Form, sondern von einer Ecke von Leuten, die auch wollen, dass die Dinger lange funktionieren. So, das war so, das ist ein Ding, das hält eigentlich oder kann man reparieren oder kann man sich dann Zeug nachkaufen. Es ist eher noch so, diese MakerBot-Tradition selber finde ich halt auch noch schön, weil ich halt so ein bisschen mehr aus dieser, ich will mehr verstehen um das Zeug drumherum Ecke komme und da gibt es da einiges. Und das war es dann eigentlich schon, weil es gibt noch einige andere, aber das war halt, die Ecke und die letzte, die mir noch wichtig war, war eben dieses, der kann einfach drauf losdrucken, nachdem er aufgebaut worden ist, also der hat der muss nicht mehr eingestellt werden auf seinem Bett und das Bett muss man gerade ausrichten so, damit irgendwie der erste Layer funktioniert, sondern der hat einen Mechanismus, wo er mit mit seiner Nase auf den Layer fährt und das misst. Und das macht er jedes Mal und dann klappt es auch. Du musst nur unten die Bildplatte putzen und das war's. Und es wurde bestätigt, dass das viel so ist. Und so eine Mischung aus Convenience und noch im alten Spirit fand ich gut. Deshalb ist es der geworden, genau. Es gibt noch einige mehr, aber ich meine, das ist so ein Rabbit Hole. Ich habe mich nicht super tief reingegraben. Das war so an der Oberfläche. Aber ich bin sehr zufrieden mit meiner Entscheidung. Also der flutscht. Das Einzige, was ich nicht unbedingt empfehlen würde, das Ding selber aufzubauen, weil man halt sich schon beim Aufbauen ein bisschen was kaputt machen kann und habe ich natürlich auch wieder, weil irgendwie die Kugellager von den Stangen, wenn man die da durchdrückt, da kann man schon aus Versehen mal Kugeln rausdrücken und das weiß man halt nachher, dass man das falsch gemacht hat, mehr oder weniger. Und auch wenn es vorher beschrieben wird, wenn man es zum ersten Mal macht, macht man es halt ein bisschen nicht so dolle. Es war gut genug, dass er sauber noch funktioniert, Aber so ein, zwei Kugellager sind jetzt weniger toll, als sie sein könnten, dadurch, dass ich es selber gemacht habe.

Tim Pritlove
3:51:57
Dominik Wagner
3:52:15
Tim Pritlove
3:53:15
Dominik Wagner
3:53:18
Tim Pritlove
3:53:21
roddi
3:53:42
Tim Pritlove
3:53:43
roddi
3:53:59
Tim Pritlove
3:54:04
roddi
3:54:18
Dominik Wagner
3:54:21
Tim Pritlove
3:54:24
Dominik Wagner
3:54:44
Tim Pritlove
3:54:48