FS275 Scheinriesenfenster

Raumzeit Live — Podcast-VJing — Apple Vision Pro

Heute liegt der Schwerpunkt der Sendung massiv auf der Apple Vision Pro. Dom hat sich eine zugelegt und Tim hatte die Gelegenheit das Gerät ausführlich zu testen. Entsprechend berichten wir von unseren ersten Eindrücken und Erfahrungen, stellen die Funktionen und Eigenschaften detailliert vor und geben unsere Einschätzung darüber ab, wofür das Teil ggf. taugen könnte, für wen es heute und in der Zukunft einen Wert darstellen könnte und wo noch große Fragezeichen bleiben.

Dauer: 4:02:06

avatar
Tim Pritlove
avatar
roddi
avatar
Dominik Wagner

Für diese Episode von Freak Show liegt auch ein vollständiges Transkript mit Zeitmarken und Sprecheridentifikation vor.

Bitte beachten: das Transkript wurde automatisiert erzeugt und wurde nicht nachträglich gegengelesen oder korrigiert. Dieser Prozess ist nicht sonderlich genau und das Ergebnis enthält daher mit Sicherheit eine Reihe von Fehlern. Im Zweifel gilt immer das in der Sendung aufgezeichnete gesprochene Wort. Formate: HTML, WEBVTT.



Transkript
Tim Pritlove 0:00:22
Hallo und herzlich willkommen, hier ist die Freakshow und zwar die 275.Freakshow. Das ist ganz schön viel eigentlich, ne? Also, was man so überlegt.Gibt natürlich auch Leute, die haben schon tausende von Podcastsendungen,aber die sind ja alle nicht so lang.Und irgendjemand hat ausgerechnet, dass wir mit allen Freakshows bis zu 274insgesamt 998,5 Stunden gesendet haben.In einer anderthalb Stunde, um 21.30 Uhr, haben wir 1000 Stunden voll und ichhabe keinen Shampoos kaltgestellt. So sieht das aus.Also Leute, so gut vorbereitet sind wir hier.Hallo, ich bin's Tim und heute haben wir eine kleine Runde. Roddy ist natürlich da. Hallo Roddy.
roddi 0:01:11
Ja, guten Abend.
Tim Pritlove 0:01:12
Ralf ist unpässlich, kann man sagen, also kann ich, aber dafür haben wir Domdabei, live zugeschaltet über das Internet.
Dominik Wagner 0:01:24
Guten Abend. In Bild und Ton hier.
Tim Pritlove 0:01:27
Als wärst du ein Teil dieser Runde.
Dominik Wagner 0:01:31
Ralf aus Berlin, über München, außerhalb.
Tim Pritlove 0:01:35
Und wir haben alles aufgefahren und ich bin ein bisschen stolz,dass gerade alles so richtig geil funktioniert.Jetzt haben wir so alle Features, die so in der letzten Zeit immer in der Diskussion waren.
roddi 0:01:48
Noch ist die Sendung nicht zu Ende.
Dominik Wagner 0:01:50
Und noch hat die noch nicht richtig angefangen, weil bei den letzten Malen,die hat ja auch immer so gestartet und dann ist irgendeine Technik mit mir in die Hose gegangen.Das Video ist ausgefallen, der Ton war weg, sonst irgendwas, das geht gleich weiter.Knock on wood, dieses Mal wird alles Suppi.
Tim Pritlove 0:02:07
Das ist richtig, ja genau, jetzt gucke ich gerade mal, steht da Ton ein oder aus?Jetzt ist das richtig gut. Gut, dass du das erwähnt hast, ich habe gleich noch ein Setting gemacht.Ja, nee, aber das stimmt doch nicht.
Dominik Wagner 0:02:24
Du hast jetzt gleich ein Setting gemacht und ich höre dich nicht mehr gescheit. Was?
Tim Pritlove 0:02:28
Du hörst mich jetzt nicht mehr?
Dominik Wagner 0:02:28
Du hast mir jetzt ein Setting angemacht, jetzt bist du wie aus der Dose. Ach echt?
Tim Pritlove 0:02:32
Aber es ist doch genau genau das Setting, was ich einschalte, damit das nicht so ist.
Dominik Wagner 0:02:36
Achso.
Tim Pritlove 0:02:37
Warte mal, jetzt bin ich aber ein bisschen...
Dominik Wagner 0:02:38
Jetzt bist du wieder besser.
Tim Pritlove 0:02:41
Jetzt bin ich besser?
Dominik Wagner 0:02:43
Nee.
Tim Pritlove 0:02:43
Jetzt bin ich schlechter?
Dominik Wagner 0:02:45
Ja.
Tim Pritlove 0:02:46
Und jetzt bin ich besser? Wenn ich es ausmache, ist es...
Dominik Wagner 0:02:49
Jetzt habe ich den besseren Ton.
Tim Pritlove 0:02:51
Das ist aber jetzt genau andersrum.
Dominik Wagner 0:02:52
Aber es war so ein bisschen so ein Übergang. Es war kein digitales Feld.
Tim Pritlove 0:02:56
Keine digitale Welt.
Dominik Wagner 0:02:58
Du hast den Knopf gedrückt und dann wurde es langsam wieder besser.
Tim Pritlove 0:03:00
Ja, ist so schön. ich lasse das jetzt so. Aber dafür gibt es Ton auf dem Klo.
Dominik Wagner 0:03:07
Das hilft mir wenig.
Tim Pritlove 0:03:09
Das hilft dir jetzt wenig, aber fühle einfach mit uns.Also wir können jetzt hier auch aufs Klo gehen und nach wie vor der Sendung lauschen.Das war immer so die Disruption schlechthin, dass man bei solchen Toilet Breakseinfach den Faden verloren hat.Das könnte der Grund sein, warum hier manchmal einfach alles so hin und herund kreuz und quer geht und so.
roddi 0:03:30
Daran liegt es.
Tim Pritlove 0:03:31
Klare Analyse.Mal so.
roddi 0:04:03
Nö, es war super. Hat gut geklappt und der gute Ulf war echt viel witziger, als ich erwartet hatte.Der hatte so einen schönen, trockenen Humor, also das fand ich wirklich gut.
Tim Pritlove 0:04:15
Ja, ich war auch ganz zufrieden mit der Dynamik.
roddi 0:04:18
Also du wirst das ja als Podcast-Folge auch raushauen, ne?
Tim Pritlove 0:04:21
Ja, na klar. Ist alles aufgenommen worden, hat funktioniert und ja,muss nochmal in den Schnitt und dann wird das vermutlich sogar noch diese Wochedoch mit Sicherheit morgen veröffentlicht werden,sollte sich da nicht noch irgendwas in den Weg stellen.Ja, aber das ist gut und ich will auch ohnehin mehr on stage sein, jetzt in diesem Jahr.Da wird noch so einiges passieren. Mal gucken, ob wir das auch mit der Freakshow hinbekommen.
roddi 0:04:49
Also, wenn die Sendung rauskommt, da Raumzeit mit dem guten Ulf, dann hört ihr euch an.Das ist echt, da kann man mal eine Hörempfehlung aussprechen.Das hat sehr viel Spaß gemacht.Ihr habt zwar dann leider nicht das Planetariumsbild dabei, das,fand ich war dieses Mal aber auch ein bisschen gedämpfter als die erste Variante.Du hattest da ja schon mal was gemacht und da hatten die deutlich mehr Zip Zap gemacht.
Tim Pritlove 0:05:20
Ja, da war mehr Zip Zap. Das hat zwei Gründe. Der erste ist,es gab da irgendeinen internen Abstimmungsfehler, sodass eine andere Persondavon ausging, das zu fahren.Und außerdem hat halt das Thema nicht ganz so viel Material hergegeben wie jetztdiese Bodenteleskope, weil die ESO,dieses European Southern Observatory, was diese Teleskope macht, das hat halt...Das hat halt schon sehr viel von diesem 180 Grad Videokram geschossen für Planetarien.Und darauf konnte man dann halt zugreifen und dementsprechend gab es halt viel.Ja, genau. Aber das ist tatsächlich jetzt ein Punkt, auf den ich jetzt nochmal kommen wollte.Und zwar, ich habe das auch hier schon mal, glaube ich, schon mal angesprochen.Aber jetzt gerade wegen dieser Live-Geschichte und speziell auch Raumzeit,aber im Prinzip wäre es auch etwas für die Freakshow, was Podcast und Live-Podcastauf eine interessante Weise ergänzen könnte,wo es aber ein spezifisches Problem gibt.Und das ist eben visuelle Begleitung.Also ich mache ja keine Videopodcasts und mache kein Gesicht in die Fresse halten,YouTube-Channel und dieser ganze Selfie-TikTok-Kram und so weiter,dafür bin ich zu alt und das war einfach noch nie mein Ding.Ich bin dafür nicht zu alt, natürlich bin ich völlig geeignet dafür,aber ich will halt, also wenn man sozusagen Leuten einen weiteren.Kommunikationskanal anbietet, den sie dann konsumieren sollen und dann einenweiteren Sinn quasi in Beschlag nimmt, so ein Ressourcen-Acquiring,betreibt, dann muss da auch Mehrwert kommen.Das hasse ich halt immer so an diesen, mach mal heute YouTube an,so, dann ist erstmal bla bla bla, Quatsch Quatsch Quatsch, ich rede jetzt mal über irgendwas,währenddessen schaut ihr doch bitte Bitte diese 1.000.000 3-Sekunden-Stock-Videoclips,die ich in meinem Standard-Abo mit drin habe und die ich einfach mit Dreck undDrop aus irgendeinem Archiv raussuche und meine AI,da muss ich nur drei Suchworte eingeben und dann habe ich schon irgendwas.Und ich sehe immer diese selbe düsselige Stockfoto-Imagerie,die überhaupt nichts damit zu tun hat.Das ist im Prinzip so die kolossale Fortführung von so Tagesschau berichtetüber Arbeitsamtzahlen.Jeden Monat kommen so die Zahlen vom Arbeitsamt raus und was sehen wir?Das Arbeitsamt in Recklinghausen schwenkt irgendwie Leute, die irgendwie arbeiten,Leute, die nicht arbeiten, Leute, die irgendwo in einer Warteschlange stehen,immer dieselbe Footage, immer das gleiche, weil es gibt visuell nichts zu berichten.Es ist einfach nichts da, kein Fleisch.
roddi 0:08:29
Es gäbe Fleisch, aber das machen die da nicht ran.Ein paar schöne Grafiken, ein paar Kurven könnte man bei dem Thema durchaus bringen.
Tim Pritlove 0:08:37
Ja, das kommt auch irgendwann, aber das hält halt nur für fünf Sekunden.Du kannst nicht 30 Sekunden lang diesen ganzen Bericht machen,wie sich das jetzt entwickelt hat, sondern du musst immer irgendwas zeigen.Also zeigst du immer das Gleiche.
Dominik Wagner 0:08:50
Und jetzt ist es spannend und du hast eine Idee oder was? Du machst mich ja ganz kirre.
Tim Pritlove 0:08:54
Ich habe immer Ideen. Das ist das für die Frage.
Dominik Wagner 0:08:57
Eine Umsetzung, meine ich halt. Ideen sind...
Tim Pritlove 0:08:59
Naja, also im Falle von Raumzeit on Stage, das ist jetzt das dritte Mal,dass das stattgefunden hat.Und bei all drei Malen gab es diese visuelle Begleitung. Also zweimal habe iches in Berlin gemacht, einmal habe ich es in Darmstadt gemacht.
roddi 0:09:13
Ah, okay.
Tim Pritlove 0:09:14
Und das waren dann Gott sei Dank auch mal ganz mehr oder weniger dankbare Themen.Aber das eigentliche Problem ist, wenn ich jetzt sozusagen losziehe und sage,ich suche mir jetzt irgendwo eine Bühne und mache Raumzeit live,was ich durchaus vorhabe auch, dann möchte ich gerne diese visuelle Begleitunghaben, weil das ist einfach für Live-Teilnehmer, Du hast es ja schon angesprochen, das ist ganz nett.Also du redest über das Gymnasium in Greiz, wo er aufgezogen ist und dann hast du davon ein Foto.Und dann redest du über das Max-Planck-Institut in Stuttgart und dann hast duda ein Bild und dann siehst du den Campus und bla bla bla.Und dann redest du über das und dieses und diese Rakete und dieses Modul unddiese Raumstation und dann hast du halt einfach Imagery.Das ist natürlich jetzt im Planetarium eine besondere Herausforderung,also in dem Planetarium ist es jetzt gerade noch eine besondere Herausforderung,weil sie parallel derzeit die 180 Grad Projektionen und dann noch zusätzlich Beamer haben.Das heißt, der ganze 16 zu 9 Web-Content kam sozusagen von separaten Beamern.Das ist nicht eine Software, in der das so eingeblendet wird.Es gibt derzeit noch keine Möglichkeit, sozusagen non-planetary Content einfachso in dieselbe Produktion reinzukriegen.Das ist aber etwas, woran die gerade arbeiten. Also das ist sozusagen das Problem.
roddi 0:10:33
Okay, ich hatte mich schon gewundert, weil es nie 100% opak war,sondern immer der Sternenhimmel durchschien.Genau. Aber dass das jetzt so ein echtes mechanisches Problem war,das habe ich nicht mitbekommen.Also das hat man nicht gesehen, sagen wir mal so.
Tim Pritlove 0:10:50
Ja, das ist auch gut so, dass man das nicht gesehen hat. Das ist ja auch nichtso wichtig. Aber am Ende war es halt ein Mehrwert. Und jetzt werde ich aber nicht,Immer in Planetarien gehen, sondern halt auch mal einfach einen Ort suchen,wo nur so eine normale 2D-Leinwand ist. Das reicht auch aus.Das hatte ich damals, als ich das in Darmstadt gemacht habe, auch.Jetzt die Frage, wie bespielst du das?Und das Besondere daran ist ja, das ist ja jetzt kein fertig geschnittenes Video,das findet ja live statt.Und du weißt zwar in etwa, auf welche Themen du eingehst, aber der Witz istja, dass man mit der visuellen Begleitung dem Inhalt dynamisch folgt.Das heißt, man macht ein neues Themenfeld auf, so bla bla bla und jetzt redenwir mal über Science Fiction und dann, weißt du, kommt Douglas Adams ins Spielund das stand vorher auf keiner Liste und jetzt möchte ich halt in der Lage sein,dem schnell zu folgen, ohne dass jetzt Leute einem dabei zuschauen,wie man auf dem Webbrowser bei Google irgendwelche Suchbegriffe eingibt undirgendwelche Bilder erklickt.Das ist das, was ich auf keinen Fall möchte.Was ich also suche, ist eine Software, die eigentlich so ein bisschen funktioniert,wie so VJ-Software funktioniert. funktioniert.Weil VJ-Software ist ja im Prinzip genau das.Du hast dein Material, aus dem du so auswählst, Still Images,Moving Images und dann fügst du die mehr oder weniger live in so eine Playlist ein.Also entweder du hast es schon vorher so gebaut, wie das so abläuft oder duziehst da halt irgendwas rein.Ich muss zugeben, ich habe nicht viel Erfahrung mit VJ-Software.Im Wesentlichen habe ich eigentlich nur anderen Leuten dabei zugeschaut, wie sie die benutzen.Und natürlich Natürlich ist jetzt der Funktionsumfang von klassischer VJing-Softwarefür meine Zwecke auch völlig over the top, weil ich brauche jetzt nicht 30 MillionenFilter und Rotationen und so weiter,aber sagen wir mal so eine Software, die folgendes macht, die im Wesentlichen,in irgendeiner Form so eine Input-Queue hat, wo man so Sachen reinwerfen kann,sodass man zum Beispiel in einem Team mit zwei Leuten arbeiten kann.Die eine Person reagiert quasi auf den Inhalt, folgt dem Inhalt,merkt so, ah, okay, Douglas Adams, wir müssen jetzt was mit Douglas Adams,ich muss mal ein Foto von Douglas Adams und dann habe ich ein Foto von DouglasAdams und dann schmeiße ich das quasi für die VJ-ende Person in so eine Art Inbox.Shared Folder, was auch immer, API, keine Ahnung, Irgendwas,Webseite, Programm, Command Line, mir egal.Also irgendwie werfe ich das da rein, sodass die Person die Visuals steuert,der das sozusagen dann so als Input-Element aufpoppt und weiß, aha.Das muss ich jetzt in irgendeiner Form verwenden.Aber ich kann dann in dem Moment auch schnell durch ein paar Tastenkontrollenso Sachen machen wie, was weiß ich, dass man das irgendwie kurz maskiert,dass man da irgendwie eine Transition hat, wie das reinkommt.So, ja, das ist nicht so plopp jetzt dieses Bild, next slide,sondern dass man, was auch immer jetzt gerade angezeigt wird, sagt, okay,jetzt kommt hier ein Foto und dass die Software es einem irgendwie einfach macht,mit so Aspektratios dann kreativ umzugehen, damit das nicht alles zu beklopptaussieht oder dass man da was weiß ich, einen Ken Burns Effekt macht oder dasreinrauscht oder was auch immer.Also in irgendeiner Form eine gute Kontrolle über die visuelle Präsentation,aber halt als Output immer nur ein Screen, wo jetzt keinerlei User Interface auftaucht.Also du arbeitest quasi an dem Rechner mit einem Hauptbildschirm,da hast du sozusagen die Kontrolle und dein Output ist halt dann letzten Endesder Beamer dieser Veranstaltung, wo das dann eben für alle Teilnehmer zu sehen ist.Aber du kannst, du musst dann, du kannst also das trennen, dieses Recherchierenund den Zugriff auf diese Fotowelten, Datenbanken, was auch immer vorbereitetesZeug oder so oder das Web und dann.Also elegant und klar das dann sozusagen in diese Input-Queue geben,sodass die Software dann auch so eingestellt werden kann, dass, was weiß ich,wenn jetzt gerade die Playlist oder die Queue so weit abgearbeitet ist,man zeigt halt sozusagen jetzt gerade das Letzte an, auch wenn man sich vielleichtnoch fünf Bilder mal vorbereitet hat und wenn man dann die durch ist und kommtwas rein, dann schaltet es auch automatisch darauf um, also irgendwie sowas.Das ist eine Software, die ich suche und ich habe so ein bisschen die Vermutung,es könnte etwas geben im VJ-Bereich, was sich vielleicht anpassen lässt,also indem man im Wesentlichen seine Features, ganz viele Features erstmal ausschaltet,damit es irgendwie einfach zu benutzen ist, um dann sowas zu machen.Und wenn es sowas gäbe, dann wäre schon, das wäre schon die halbe Miete,weil dann könnte man sich sozusagen so ein Content-Jockey-Podcast-VJ-Team aufbauen,was das dann auf solchen Veranstaltungen machen kann.
roddi 0:15:55
Ich habe das Gefühl, du versuchst gerade eine neue Software-Kategorie loszutreten.Aber die Ideen sind eigentlich alle offensichtlich, wenn man das Problem verstanden hat.
Dominik Wagner 0:16:07
Also ich denke grundsätzlich, es gibt schon so Software auch.Interessanterweise ist das, was aus dem Produkt, das ich damals zusammen mitBoing's gemacht habe, Boing's TV, ist so eine Live-Mischer-Software auch.Das kann sowas. Also das ist halt relativ flexibel, heißt Mimo Live inzwischen.Mal gucken, ob das jetzt genau den Anwendungsfall erfüllt, weiß ich nicht mehr.Ich bin ja da schon lange raus, aber da habe ich mich ja mal mitgeschrieben. Das gibt es noch, ja.
Tim Pritlove 0:16:35
Mimo Live.
Dominik Wagner 0:16:36
Mimo Live heißt das jetzt, Mimo Live 6 oder so, keine Ahnung,die sind auch im Einsatz für Live-Fernsehschnitt-Geschichten,also es ist halt mehr so ein Broadcast-Studio in der Box,aber lower certs und Grafiken einblenden und das Ganze kann man und man kannDinge vorbereiten vor allem.Also man könnte damals bei BoingTV schon Plugins selber machen über Quartz Composerund ein bisschen JavaScript und Co., um sich dann eben ein bisschen so eineArt von Animation zu bauen, die man so gerne braucht.Also tendenziell könnte das schon was sein, was hilft, wenn das noch gut ist.Ich habe es schon lange nicht mehr angeguckt.Aber so Software grundsätzlich gibt es schon auch. Es ist ja mehr so gefühltso ein bisschen mehr so ein Live-Keynote, was du gerne hättest, oder?
Tim Pritlove 0:17:22
Ja.
Dominik Wagner 0:17:23
Live-Modus für Kino.
Tim Pritlove 0:17:24
Genau, also es könnte auch sein, dass man in dieser Präsentationssoftware-Kategorievielleicht mehr Erfolg hat.Aber Broadcast ist natürlich, hast du natürlich recht, hat ja im Prinzip genau dieselben Aspekte.Auch gerade dann mit so Überblendungen oder dass man vielleicht so eine bestimmteMaske hat, dass unten immer irgendwie da noch ein Logo steht und so eine Sachen. Ja, tatsächlich.Aber was eigentlich dahinter steht, ist eben auch so eine Art und Weise,wie man eben Podcasts visualisiert und ähnlichen Bedarf hätten,könnten wir ja hier jetzt auch haben.Also wir haben ja immer diesen Konflikt, wir machen eigentlich jetzt ein Produkt,was für Audiokonsum gedacht ist, wir wollen halt irgendwie über alles redenund manchmal ist es schwierig, dann werden wir heute auch wieder so einen Tag haben,weil wir wollen halt über die Vision Pro ganz viel reden und wir versuchen dieganze Zeit irgendwas zu beschreiben und dann tendiert man immer schnell dazu,irgendwie auf dem Bildschirm zu zeigen und sagen, wie man hier sieht und dasfunktioniert natürlich nicht.Andererseits wäre es aber ganz cool, zumindest auch für so ein Live-Publikum,vielleicht eben so ein Screen tatsächlich mit zu maintainen.Also dass man so ein Live-Modul hat, wo dann quasi immer der Content ist,der gezeigt wird, aber man eben dafür auch noch einen Video-Jockey hat,so ein Content, so ein Podcast-Video-Jockey.Und das könnte ja … Das ist halt so ein bisschen das Punkt.
Dominik Wagner 0:18:48
Den brauchst du halt extra, weil das kann ja keiner von uns parallel machengroßartig. Oder wenn wir da alle mitmischen kollaborativ, wäre es auch furchtbar.Richtig. Da ist ja der Slack-Channel schon so das, was es gibt.
Tim Pritlove 0:19:01
Genau, das ist nämlich schon sehr schwer, einen Chat-Channel zu bespielen.Aber wenn man das sozusagen externisiert und sagt, man hat jetzt sozusagen soein Content-Team, was dann live zuhört und das dann sozusagen auch für live Podcasts macht,kann man ja im Prinzip für beliebige Podcasts machen und das so halbwegs gewissenhaftmacht, dann könnte was Interessantes bei rauskommen.Und dann hätte man auch ein Material, wo es sinnvoll wäre, so eine Podcast-Aufzeichnungals Video zu veröffentlichen.Also natürlich hast du im Wesentlichen den Ton, aber du hast dann quasi dieVideospur so als optionale Begleitspur, die du dir einblenden kannst,wenn du möchtest, aber du musst es halt nicht.
Dominik Wagner 0:19:39
Könnte ja auch ein motivierter Hörer bei der Freakshow machen,weil die Links und so weiter sind ja alles da, wenn jemand schnell ist und einenStream parallel macht und Zweitverwertung.
Tim Pritlove 0:19:48
Ja, aber dazu müsste es halt die Software geben. Vielleicht.
Dominik Wagner 0:19:52
Oder die sind ja vielleicht so drauf. Man weiß es ja nicht. Manche Leute machensowas in ihrer Freizeit einfach und dann können die.
Tim Pritlove 0:19:59
Machen im Sinne von sowas programmieren oder machen im Sinne von sowas durch?
Dominik Wagner 0:20:03
Irgendwie benutzen. Irgendwie ihren Twitch-Channel bespielen können,weil sie live bespielen können, schon mit irgendeinem Setup und die würden dasmal ausprobieren wollen.
Tim Pritlove 0:20:11
Ja klar, aber trotzdem brauchst du ja immer noch diesen Input-Kanal.
Dominik Wagner 0:20:12
So Kamerakind für Freakshow-Werden.
Tim Pritlove 0:20:14
Wenn ich jetzt hier einen Screenshot habe, über den ich reden möchte und denich sozusagen da anzeigen will, dann muss ich den ja hier während der Sendungmit Drag & Drop oder so irgendwie in diese Queue kriegen.Also diese Queue ist schon, sagen wir mal, der entscheidende Faktor.Das ist jetzt nicht ein Nebenaspekt oder so, sondern das ist schon so das, was zählt.
Dominik Wagner 0:20:33
Ja, wobei der Slack-Chat ja schon diese Queue ist für uns eigentlich,weil da meistens Links und Bilder und so weiter sind.Ja, aber Rohmaterial hätte man da genug, denn da kann man nicht einfach abbilden,aber wenn man jemand hätte, der praktisch den Content,den wir da reindonnern, aufbereitet in einem 16 zu 9 oder iPhone-Format einfachschönen, also wenn jemand das mal machen möchte, fände ich interessantes Experiment.
Tim Pritlove 0:20:56
Ja, aber Er wüsste dann auch.
Dominik Wagner 0:20:58
Welche Tools man braucht.
Tim Pritlove 0:20:59
Er unterschätzt nicht die Chaotik und Dynamik eines Live-Chat-Channels.
Dominik Wagner 0:21:06
Leute, die Twitch streamen und so weiter, wir haben bestimmt doch Hörer, die sowas auch machen.Die haben da so ein gewisses Potenzial an Wissen, wie man denn das visuell damacht, weil du brauchst ja schon noch so ein bisschen Engagement und ein bisschen Witz dabei.
Tim Pritlove 0:21:21
Klar, natürlich.
Dominik Wagner 0:21:21
Auch Style.
Tim Pritlove 0:21:23
Auch ganz wichtig.
Dominik Wagner 0:21:24
Auch Style.
Tim Pritlove 0:21:25
Naja, aber es muss dann trotzdem natürlich ein,wie soll ich sagen, ein eigener Stil dabei sichtbar werden.Und nicht einfach nur so ein hier ist das nächste Bild, hier ist das nächsteBild, hier ist ein Webbrowser.Das ist langweilig. Es muss auch und deswegen rede ich vielleicht auch von VJing,weil ein VJ ist ja nun auch nicht einfach nur so ein Knopfdrücker,sondern VJing bedeutet ja auch, da so eine kreative Note reinzubringen und einen Stil zu haben.Also eine Handschrift, das ist vielleicht das, was ich suche, das Wort.Genau, also ich wollte das auch nur mal so in den Raum stellen und bin für alleTipps dankbar und ich würde mir auf jeden Fall mal dieses Mimo anschauen,das vielleicht auch eine Option ist, aber alles steht und fällt mit diesem Channel-Ding.Also es muss sozusagen von mehreren Leuten also mindestens zwei Personen,zwei Plus-Personen gestaltet werden können und dann wird es erst spannend.Ja.Dann, wir haben uns ja hier über Staubsaugerroboter unterhalten.
roddi 0:22:51
Ja.
Tim Pritlove 0:22:53
Gestern ist bei meinem die Cloud ausgefallen.
Dominik Wagner 0:22:57
Okay.
Tim Pritlove 0:22:59
Ja, womit das Ding zwar weiterhin seinen bisher programmierten Zeitplan verfolgthat, aber man konnte keinen Einfluss mehr drauf nehmen, wann dieser Zeitplanist oder stoppen oder sonst irgendwas.Einfach nur so, nein, einmal am Tag wird jetzt geputzt. Und das war's dann.Ich hab ja so ein Nito. Und ein Nito ist vor einem Jahr oder zwei von Vorwerk gekauft worden.Und Vorwerk hat jetzt aber sozusagen Nito gedroppt.Also die Nito-Webseite sagt so, wir sind irgendwie außer Business.Und du kannst aber hier noch auf den Support-Button klicken und die Cloud läufthalt noch, aber das war es dann auch und dann hast du noch irgendwie so dieganzen Hilfe-Seiten, die auch nicht so richtig helfen.Ja, und ein bisschen unklar, was sie damit vorhaben, aber das scheint nichtso ein geiler Move geworden zu sein.Ich glaube, Vorwerk hat noch unter eigener Marke auch noch solche Staubsauger-Roboter am Start.
roddi 0:24:00
Ja, schon immer gehabt eigentlich.
Tim Pritlove 0:24:03
Ja, weiß aber auch nicht, wie sie damit vorgehen, aber die eigentliche Frage,die damit natürlich wieder aufkommt, so ist,okay, okay, was mache ich mit meinem Produkt, wenn die Cloud abgeschaltet wird,weil die Firma ja dann sozusagen gar kein Geld mehr damit verdient,sondern es nur noch Kosten hat und die ganze Zeit irgendwelche Pfennigfuchserin der Vorstandsentage halt darüber entscheiden müssen,wie lange sie da sozusagen noch einfach Geld reinfanneln, damit sie nicht soschlecht dastehen, obwohl es ihnen eigentlich irgendwie auch egal ist.So haben die Leute doch einen neuen Sturmsauger gekauft.
Dominik Wagner 0:24:34
Eben, eben, eben.
roddi 0:24:35
Ja, hurra Cloud.
Dominik Wagner 0:24:40
Ich habe einen Roborock, der funktioniert ganz gut.
roddi 0:24:43
Deren Cloud ist noch online.
Dominik Wagner 0:24:45
Ja, auch das. Ich weiß aber nicht, wie viel Cloud die überhaupt braucht,wirklich. Also für Updates und so schon, aber ansonsten ist der eigentlich,der ist, glaube ich, autark.Ich glaube nicht, dass der die Cloud braucht für irgendwas.
Tim Pritlove 0:24:55
Man kann die benutzen.
Dominik Wagner 0:24:56
Um was zu machen.
Tim Pritlove 0:24:57
Das glaubst du nicht wirklich, oder?
roddi 0:24:58
Naja, er hat obendrauf halt den Jetzt-Bitte-Staubsaugen-Button und ich glaube,wenn die Cloud ausfällt, funktioniert außer diesem Button dann auch nicht mehr mehr viel.
Dominik Wagner 0:25:09
Die Cloud ist ja, die App, spricht die mit dem auch mit der Cloud?Ich dachte, die spricht mit meinem lokalen Netz.
roddi 0:25:16
Nee, tut sie nicht. Spricht über die Cloud mit dem Staubsauger und der zeigtdir dann, wo er gefahren ist und dieses und jenes und dann kannst du deine Plänebearbeiten und so weiter und ich glaube, wenn die Cloud ausfällt,dann kannst du halt noch den Homebutton drücken und den jetzt Staubsaugen-Buttonund dann war es das wahrscheinlich.
Tim Pritlove 0:25:36
Tja, es müsste sozusagen so einekommerzielle Cloud geben, wo man alle Staubsauger drüber fahren könnte.Wenn eine Firma Out of Business gibt, dann übergibt sie das sozusagen einfach da an die Staub-Cloud.
roddi 0:25:49
Es gibt für Roborock, gibt es so eine Open Source Cloud,wo man dann mit irgendwelchen VPN oder DNS-Hacks irgendwie den Zugriff auf dieCloud, auf die eigene Open Source Cloud umbiegen kann, aber das ist natürlich….
Dominik Wagner 0:26:04
Aber da merkt man wieder, wie naiv ich bin. Ich gehe einfach davon aus,wenn die hier im lokalen Netz einen Web-Server laufen haben und die sind einComputer, weil die haben doch eh Strom.Wieso brauchen die eine Cloud, um irgendwie den Raum festzufahren?Die brauchen doch keine Cloud.
roddi 0:26:19
Keine Ahnung, weil man heutzutage halt alles in der Cloud macht,wenn man in der Cloud ist.
Tim Pritlove 0:26:23
Naja, für den ganzen AI-Kram mit irgendwie Bilderkennung, trainieren,verbessern, hochladen und so weiter, das ist dann alles nicht so super optional.Dann hast du diese ganze Zeitplanung von außen mit von aktivieren von außen.
Dominik Wagner 0:26:42
Das kann ja optional sein. Diese ganze Zeitplanung ist ja optional.
Tim Pritlove 0:26:47
Könnte.
Dominik Wagner 0:26:49
Also kenn mal deine Räume und speichere die Bilder von den Gegenständen,die du umfahren hast, weil du denkst, die sind Hundekacker.Das geht doch auch lokal auf dem Gerät. Dafür ist es doch so ein riesen Robot Dingsbums.
Tim Pritlove 0:27:03
Ich bin ganz bei dir. Chat sagt auch, Roborock funzt rudimentär ohne Cloud,das ist ja auch schön und das ich muss auch sagen, ich bin dann hier so einbisschen zusammengezuckt unddachte mir so, ich wollte die eigentlich doch noch ein, zwei Jahre nutzen,und dann habe ich halt aber auch schon Pläne gemacht, okay, was machst du dennjetzt, wenn sozusagen jetzt deine,dein Staubsauger in die ewigen Cloud-Gründe verschwindet,und ja, dann ist es mir natürlich hier deine Story mit deinem Roborock eingefallenund ich muss auch zugeben, ich habe mir die,Diesen S8, diesen Nachfolger davon angeschaut, der sieht schon wirklich sehrschick aus. Also das wäre eigentlich genau das Richtige.
roddi 0:27:48
Er wischt ordentlich, er saugt ordentlich.
Dominik Wagner 0:27:51
Hast du auch einen V7?
Tim Pritlove 0:27:53
Saugt, bläst, er hat einen V8.
Dominik Wagner 0:27:56
Also ich habe irgendwie das Maximallmodell 7 so mit Waschen und Ding-Doc.Das ist eine gute Grundreinigung schon mal, wenn man es laufen lassen kann.Bei uns ist es eher so, dass die Lego-Obsession des Nachwuchses etwas dafürsorgt, dass wir den nicht einfach so rund die Uhrfahren lassen wollen, weil ansonsten haben wir Ligo-Teile vermisst,Kleinteile, die zwar da in den Filter landen und so, wäre schon okay,aber also die Situation, dass der immer saugen kann, weil der Boden frei genugist und nicht voller Kinderspielzeug, ist halt selten.Deswegen ist er seltener im Einsatz, als man gerne hätte.
roddi 0:28:31
Das ist aber, glaube ich, herstellerunabhängig, das Problem.
Dominik Wagner 0:28:34
Genau, das hat nichts mit dem Ding zu tun. Wenn es fährt und wenn man es regelmäßiggenug Boden Klarheit schaffen, dann war es auf alle Fälle eine super Bereicherung,weil er halt einfach so, wenn der einmal am Tag fährt, ist halt einfach maleine ganz andere Raumsituation gefühlt.Das ist schon angenehmer. Auch wenn er saulaut ist natürlich.
roddi 0:28:52
Ich finde den nicht laut. Also klar, auf Max.
Dominik Wagner 0:28:54
Wenn der wieder ankommt. Achso, ja, wenn er sich wieder entleert.
roddi 0:29:00
Die Basisstation saugt den ja wieder leer und die macht das doch mit Werbe.
Dominik Wagner 0:29:07
Das hat sie bei unserem Teppich auch nicht geschafft, weil unser Teppich macht zu sehr Knäuel.Also da muss man auch mal nachhelfen. Aber ich meine, das ist ein bisschen nachhelfen.Das ist trotzdem eine Verbesserung.Ich mag meinen Raubsauger-Roboter.
Tim Pritlove 0:29:21
Raubsauger.
roddi 0:29:23
Raubsauger, ja.
Dominik Wagner 0:29:24
Raubsauger.
roddi 0:29:25
Ja, wenn zu viel Lego rumliegt, dann kassiert mir das ein. Der Raubsauger.
Tim Pritlove 0:29:34
Naja.So. So, ich war unterwegs diese Woche und das Wochenende,das letzte Wochenende und habe die Gelegenheit ergriffen, mir dann auch malso eine Vision Pro ins Gesicht zu halten.Und du Dom, hast du das auch getan? getan.
Dominik Wagner 0:30:00
Genau, ich habe die Gelegenheit ergriffen, mir von einem Bekannten,der hin und her sich bewegt zwischen Amerika und hier, eine mitbringen zu lassen.Ich habe eine eigene, ich habe mir diesen Luxus gegönnt, weil ich einfach scharf,wie auch schon in den Folgen davor gemeint bin, scharf drauf zu wissen,wie dieses Interaktionsmodell funktioniert und deswegen bereue ich das auch nicht.Ist aber scheiße teuer, ist schon so ein Luxusding, wenn man sowas machen will.
Tim Pritlove 0:30:29
Definitiv. Ich war jetzt ganz froh, dass ich mir keine kaufen musste. Das war auf jeden Fall,Um es mal vorwegzunehmen, es war auf jeden Fall sehr interessant.Also ich hatte vorher, habe ich dann gemerkt,ich hatte vorher so richtig keine klare Tendenz zu irgendeiner Meinung oderzu keinem, also ich war noch nicht mal vorurteilsfähig.
Dominik Wagner 0:30:57
Ich finde es super spannend, weil du warst ja so wir haben ja die Sendungen,die sich so, das hat sich ja angebahnt über Jahre gefühlt und du warst so lange super anti,was der Dreck soll und sowas will noch niemand und dann hat es ein bisschengekippt und jetzt bist du neutral und dann bist du neutral darauf zugegangen,also ich fand diese Wandlung fand ich spannend, weil es interessiert mich nicht, was soll denn das Ja.
Tim Pritlove 0:31:21
Also um es vielleicht dahingehend mal vorwegzunehmen Also meine Ablehnung odermeine Skepsis ist generell gegenüber eben diesen Headsets als Benutzung im normalensozialen Kontext und auch als Alternativ zu den anderen Geräten.Da habe ich ja auch benannt, was ich primär als Problem sehe.Diese Abschottung von anderen Menschen, 3D macht nicht unbedingt immer Sinn,Auflösungsproblematik etc.Etc. Kann man alles nachhören.Und ich finde auch nach wie vor, dass das alles absolut viable Punkte sind.Dann kam das Announcement von Apple und ich fand es halt schon bemerkenswert,dass sie auf viele von diesen konkreten Dingen eingegangen sind.Mit diesem Display außen und mit diesem Blickkontakt.Wir haben ja einen riesen Aufwand gestartet jetzt eigentlich.Um quasi ein Produkt in die Welt zu bringen, wo sie sagen können so,ja, wir haben auch Freakshow gehört, wir wissen, was die generellen Problememit dieser Kategorie sein können,aber wir haben dann auch mal was vorbereitet und guckt auch mal hier.Das fand ich jetzt sozusagen interessant. Und,Jetzt habe ich mir natürlich in der Zwischenzeit auch viele von diesen ganzenReviews, die reingekommen sind, andere Podcaster, die darüber berichtet haben,das habe ich mir alles angehört und da waren halt viele interessante Details dabei.Ich habe aber auch gemerkt, dass es sehr schwierig ist und das wird auch heutewieder sehr schwierig sein, dass wenn man das nicht wirklich selber ausprobiert,dann ist es sehr schwer zu vermitteln, was da sozusagen wirklich passiert,wir werden es aber trotzdem probieren.
Dominik Wagner 0:33:05
Ja, vielleicht, weil es gerade nochmal so in dieser Genese ist von diesem Produkt,was ich ja ganz spannend finde.Wir haben ja, glaube ich, in der Freakshow habt ihr auch drüber gesprochen, so dieser Humane AI Pin.Also die Firma, die Leute, die mehr oder weniger Humane gegründet haben,sind die Leute, die zu dem Zeitpunkt Apple verlassen hatten,als die Vision Pro in Planung war.Also die haben genau, auch aus einem ethischen, dystopischen Grund mit,die Leute wollen nicht diese Displays auf dem Gesicht, das ist nicht eine Zukunft,die wir gerne hätten, haben die auch verlassen.Also der AI-Pin ist jetzt auch nichts geworden, finde ich, aber ich finde eseine interessante Background-Information,weil die haben ja das in ihren Medien, in ihrer Präsentation mehr oder wenigerauch so Seitenhieber gemacht, wo sie gesagt haben, wir denken nicht,dass ein Screen vor den Augen die Zukunft ist, sondern eher das andere.Aber es ist wirklich eine große Menge Apple-Leute, die im Design fertig waren,die nicht an diese Idee von Vision Pro geglaubt haben.Nur so als interessante Landschaft.
Tim Pritlove 0:34:16
Also ich glaube, wir haben über diesen AI-Pin gar nicht gesprochen,sondern wir haben über dieses andere Ding gesprochen, Roddy.Du hast das aufgebraucht.
Dominik Wagner 0:34:23
Den Rabbit. Genau.
Tim Pritlove 0:34:25
Was so eine ähnliche Idee ist, glaube ich.
roddi 0:34:27
Doch, ich glaube, wir haben den auch mal erwähnt, den AI-Pin irgendwann.
Tim Pritlove 0:34:30
Aber der stand nicht so im Mittelpunkt.
roddi 0:34:32
Nee, nee. Ja, das andere Ding ja auch nicht. Ich fand das nur interessant.
Tim Pritlove 0:34:38
Ja, ich meine, es ist natürlich ein ...
roddi 0:34:39
Und als Linkshänder musst du dir natürlich sofort meckern, dass es ein Rechtshänder-Gerätist. Aber das nur am Rande.
Dominik Wagner 0:34:44
Oh, das habe ich ja letztens jetzt auch gemerkt, weil Nachwuchs ist Linkshänder.Und Carcasson kann man recht als Linkshänder blöd bedienen in einem großen Screen auf dem iPad.Und wir haben es nicht eingebaut, dass man es wechselt. Ich fand es ganz schön arschig von uns.
roddi 0:35:01
Linkshänder finden bei Apple sowieso nicht statt. Also du hast als Linkshänderhast du bei iOS einfach verloren.Ich meine Accessibility gibt es für alles, aber Linkshänder finden nicht statt.
Dominik Wagner 0:35:11
Weil auf dem Mac mit der Maus und so gibt es es ja schon. Und in der Visionauch. Kommen wir später auch noch dazu.
roddi 0:35:16
Nein, mein Lieblings-Nörgelpunkt ist da immer,es gibt diese Geste, um in einem Navigation-Stack zurück zu navigieren,indem man mit dem Daumen von der linken Seite rüber zieht und dann navigiert man zurück.Das funktioniert, wenn man es auf der rechten Hand hat, relativ zuverlässig,weil man muss weit rübergreifen.Wenn man das iPhone in der linken Hand hat, ist der Daumen aber standardmäßigda, wo man die Geste auslöst und man kann sämtliches horizontales Swipen nichtbenutzen, ohne dass man zurück navigiert.Es geht einfach nicht und man kann es verdammt nochmal nicht ausschalten.Man kann diese verdammte Navigation-Stack-Geste nicht ausschalten.Das ist, gut, beschwere ich mich schon seit Jahren nicht mehr,weil es keinen Sinn hat, aber wie gesagt, also Linkshändertum findet bei Apple nicht statt.Weiß ich nicht, was das für eine Art ist.
Tim Pritlove 0:36:19
Der am meisten verbreitete Bedienungsunterschied ist so bei Menschen eigentlich.Es gibt mehr Linkshänder als Blinde oder so.
roddi 0:36:30
Aber es gibt ja so viele Sachen, Autoschlüssel, die ausklappen,funktionieren nur in der rechten Hand oder solche Sachen.Oder versuch mal mit der linken Hand einen Korkenzieher in eine Beinflaschezu drehen, das kannst du komplett knicken.Und solche Sachen. Also das sind halt irgendwie, naja, aber es ist halt ein Rechtshänder-Welt.Okay.
Dominik Wagner 0:36:57
Kleiner Side-Track.
Tim Pritlove 0:36:58
Okay, gut. Zurück zur Vision Pro.
Dominik Wagner 0:37:03
Müssen wir jetzt eigentlich Apple VisionPro sagen? Wir haben alle keine Verbindungen, oder? Das ist mir egal.
Tim Pritlove 0:37:11
Wir werden irgendwelche Schimpfworte noch dafür...
Dominik Wagner 0:37:14
Meine heißt Schiebruin.
roddi 0:37:19
Schiebbrühen?
Dominik Wagner 0:37:21
Schiebbrühen heißt der, ja. Man muss ja einen Namen vergeben.
Tim Pritlove 0:37:23
Vielleicht erstmal die ersten Gedanken komplett ablegen. Also ich war offenjetzt für alles, denke ich.Und ich war halt sehr gespannt, ob ich irgendwas entdecken werde.Und ich sage, geil, das brauche ich.Was es ein bisschen schwierig gemacht hat, das kann ich auch gleich vorweg nehmen.Ich hatte jetzt die Brille ohne irgendwelche Korrekturlinsen.Und obwohl ich im Großen und Ganzen kein Problem hatte, irgendwas zu erkennenund das alles zu bedienen, gab es so im Grenzbereich für mich schon Probleme mit der Schärfe.Also wenn ich ein Fenster weit von mir weg hatte,dann war es ein bisschen unscharf für mich und ich bin mir nicht hundertprozentigsicher, aber es kann sehr gut sein, dass wenn ich vielleicht eine von diesenLesebrillen einsetzen.Die man ja so hätte dazukaufen können, da braucht man kein Rezept für oder keineBestätigung von irgendeinem amerikanischen Augenarzt, also jetzt so eine ganznormale 1,0 Lesebrille Korrektur,kann sein, dass das für mich vielleicht etwas verbessert hätte,weil ich halt mittlerweile auf so eine Lesebrille meistens angewiesen bin,wenn ich was lesen will. Also auf nahe Distanz.Aber mit dieser ganzen Distanz ist das halt ohnehin so eine Sache.Ich meine, auf der einen Seite hängt das alles einen Zentimeter vor deinem Auge,auf der anderen Seite arbeitet dein Hirn und deine Augen die ganze Zeit mitirgendwie einer gefühlten Distanz, die halt sehr viel größer ist.Und das ist für mich auch sehr schwierig zu prozessieren, was da jetzt eigentlichdas richtige Setup wäre.Also das wird auch nochmal interessant sein dann zu sehen, wenn das hier inDeutschland auftaucht und man in so einen Apple Store latscht und die einemdann irgendwie die Augen vermessen oder was weiß ich, was für eine Beratung,was für Tests sie dann machen,ob dann sozusagen das Ergebnis wäre mit, ja hier nimm nochmal die 1,0 Lesebrilleeinsetze und dann ist es besser.
roddi 0:39:32
Aber Lesebrille, das wundert mich jetzt ein bisschen, weil ich würde ja erwarten,dass die Brille von der Optik so ist, dass sie sich auf unendlich scharf stellt.Sprich, wenn du da reinguckst, ist es wie als würdest du ganz nach hinten gucken,damit das Auge sowieso entspannt ist, während du die Brille benutzt und dannbrauchst du auch keine Lesebrille, dann ist es sowieso scharf.
Dominik Wagner 0:39:56
Ich glaube, das ist das ganze Ding darum. Es ist sehr persönlich,wie man das wahrnimmt mit der Brille, wie diese Optik wirklich funktioniert.Ich habe viele Theorien und viele Kommentare dazu gehört, also auch bei ATPphilosophieren sie viel drumherum und haben unterschiedliche Haltungen,wie scharf es ist oder nicht oder wie gut es ist.Und ich habe so ein bisschen das Gefühl, das ist so ein Device,das so vor der Nase, also so persönlich ist an der Stelle.Ja, also diese Aussagen, diese gefühlten Wahrheiten, die man selber da erlebt.Ja, es ist unscharf vielleicht, weil ich eine Lese... Es hätte anders sein können mit... Who knows?Also ich glaube nicht, dass wir... Also wir sind da alle nicht optisch firmgenug, aber diese Unschärfe, die gibt es.Also es gibt diverse Ecken und ja.
roddi 0:40:50
Ja, also Zylinder sehe ich halt ein. Also wenn du eine Brille mit Zylinderschliffbrauchst, dann brauchst du auch eine entsprechende Anpassungslinse,sonst hast du da Probleme. Das ist irgendwie klar.
Tim Pritlove 0:41:02
Zylinderschliff heißt was?
roddi 0:41:04
Zylinderschliff heißt, also wenn du eine normale Lupe hast, dann kannst du diedrehen, wie du willst, dann ändert sich das Bild nicht, weil in der Horizontalenwie in der Vertikalen der Brechungsindex gleich groß ist.So, jetzt kannst du aber eine Linse so schleifen, dass in eine Richtung derBrechungsindex ist, anders als in die andere Richtung.Und wenn du eine gewisse Art von Fehlsichtigkeit hast, dann ist deine Linse im Auge so.Also dann musst du, wenn du eine Brille hast,die gegenteilige Anpassung haben, dann ist die Linse halt in eine Richtung stärkergekrümmt als in die andere, um diesen Zylindereffekt wieder auszugleichen.Und das kriegst du aber halt auch nicht mit Scharfstellen oder so hin,sondern dann brauchst du halt eine entsprechende Zylinderlinse und die mussnatürlich auch im Winkel passen.
Dominik Wagner 0:42:01
Ja, genau.
roddi 0:42:03
Also es gibt ja zum Beispiel, wenn du so einen Zylinderfehler hast im Auge undhast Kontaktlinsen, dann wird an den Kontaktlinsen unten ein Gewicht angebracht,sodass die sich im Auge automatisch hindrehen, dass der Winkel von dem Zylinder passt.
Tim Pritlove 0:42:24
Really? Ja.
Dominik Wagner 0:42:25
Und wenn du den Kopf schief hältst, ist es dann leicht off-center dann?
roddi 0:42:29
Ich weiß nicht, wie lange die Linse braucht, um sich zu drehen,aber das kann natürlich passieren, dass wenn du dann im Bett liegst mit demKopf auf der Seite, dass sich die Linse langsam dreht und du dann irgendwanngar nichts mehr siehst. Das kann, weiß ich nicht.Also da bin ich jetzt auf der Nummer 1.
Dominik Wagner 0:42:44
In diesem ganzen Kontext habe ich auch wieder noch ein bisschen Infos irgendwoauf irgendeinem Kanal reingespült bekommen, wie denn die Augenmuskeln funktionieren.Und ein Teil der Augenmuskeln ist eben auch ein Dreh des Auges,damit du praktisch so ein bisschen den Horizont gerade hältst,während dein Kopf schief ist. Also das Auge selber macht nicht nur links,rechts, oben, unten, sondern auch in der Rotation sehr unbewusst sehr viel.Also es ist einfach, diese ganze Thematik hat eine gewisse Komplexität.Und das ist ganz spannend. Wusste ich nicht, dass es einen Muskel gibt,der für die Drehung vom Auge zuständig ist.
roddi 0:43:19
Okay, das wusste ich auch nicht.
Tim Pritlove 0:43:22
Naja, ich wollte ja auch nur sagen ich habe bestimmte in bestimmten Momenten den Eindruck gehabt,dass es nicht total scharf war und das hat natürlich jetzt meine Bewertung auchbeeinflusst, aber es kann sehr gut sein,dass das so just me ist und dass das eben durch eine entsprechende,Linsenkorrektur, ob es die Lesebrille ist oder was auch immer also weiß nicht,klang für mich jetzt auch nicht logisch, dass das weitet dann auf einmal beieiner Lesebrille und so weiter beeinflusst ist, aber es ist einfach,hier geht es auch um so Nuancen in gewisser Hinsicht in diesem ganzen Spiel,dass ich da mich überhaupt nicht befugt finde, zum aktuellen Zeitpunkt,irgendeine Prediction zu geben, was da jetzt sozusagen die richtige Korrektur wäre oder,woran das liegt oder ob das jetzt noch eine Frage der Software ist,die vielleicht noch angepasst werden muss, kann alles sein.
Dominik Wagner 0:44:15
Aber dann lass uns doch nochmal so zurück zu den Warte mal.
roddi 0:44:20
An der Stelle interessiert mich jetzt natürlich schon noch die Frage,kann man unter dem Ding eine Brille tragen oder ist das völlig aussichtslos?
Tim Pritlove 0:44:28
Ich glaube das geht nicht, weil die sind so, da ist der Platz nicht dafür.Also das Insert, also da wo deine Augen reinkommen, das ist schon so rund,das ist so eine Höhle, wo du deine Augen reinsteckst.Also sie arbeiten schon daran, dass der Bildschirm wirklich möglichst nah andir dran ist und diese Inserts dürften dann auch entsprechend gekrümmt sein.Aber ich hatte jetzt keine im Zugriff.
roddi 0:44:54
Weil ich habe da nicht viel Erfahrung mit, aber von anderen Brillen kenne ichdas so, man lässt die Brille auf und dann passt es schon irgendwie.
Tim Pritlove 0:45:01
Also vielleicht sollte man nochmal am Anfang jetzt erstmal erklären,okay was ist denn jetzt eigentlich die Hardware tatsächlich, was kommt da?Man macht irgendwie die Box auf und dann liegt das Teil halt da so vor einem,die Fotos davon werdet ihr ja alle gesehen haben.Und es gibt dann eben diese hübsche Befestigungsschlaufe da hinten zum Festdrehen,die man aber eigentlich nicht nimmt, weil die sieht zwar gut aus auf Fotos,aber du hast dann halt oben nichts und dann ist das doch signifikante Gewichtvon dieser Brille zieht dann doch sehr nach unten.Und,die Brille besteht halt aus diesem vorderen Teil, links und rechts sind dieseStege reingeklippt, die kannman ja auch rausnehmen, da sind diese Lautsprecher drin, die Lautsprecher,werden also nicht ins Ohr gesteckt, sondern die liegen wirklich nur da drüberund sind also wirklich im eigentlichen Sinne Lautsprecher,und die Verbindung zwischen Zwischen der Brille und dem Gesicht ist dann haltnochmal begleitet mit so zwei Einsätzen.Das eine ist halt ein, wie heißt das eine, wie heißt das andere?Es gibt das Light Shield.
Dominik Wagner 0:46:22
Light Shield, genau. Light Shield ist so ein magnetisches Stoffdings.
Tim Pritlove 0:46:28
Genau, was sozusagen da dran klippt.
Dominik Wagner 0:46:30
Das so ein bisschen Abstand macht und von der Form her ein bisschen interessantist. Das gibt es in diversen Ausführungen. Da macht man vorher einen Face.Einen ID-kamerafähigen Scan, damit man das richtige Modell bekommt. Die haben,zwei Zahlen und einen Buchstaben. Ich habe die 2-2-W und inzwischen ist irgendwieauch rausgekommen, was was bedeutet ungefähr.Es ist nicht nur einfach eine Größe, sondern es ist wirklich so eine gewisseMenge an Gesichtsformen. Es gibt da eine irre Kombination davor.Und da drauf gibt es dann wiederum zwei verschiedene Polster und zwar ein bisschendickeres und ein bisschen dünneres, so einfach einfach um den Abstand ein bisschengrößer oder kleiner zu machen.Und mit dem größeren Abstand könntest du theoretisch, glaube ich,versuchen, die Brille aufzusetzen, aber ich glaube nicht, dass sie groß reinpasst.Also eine Geschichte, die ich interessant finde, ist,Dass der untere Teil, da ist so eine Nasenklappe dran irgendwie an diesem dickerenEinsatz, also an dem allgemeinen Einsatz, den man als erstes drauf macht, der so angepasst ist.Und ich habe die als erstes auch so angezogen, dass das andersrum über die Nasewar und dann geht da Licht rein und das ist blöd. Und der Zweck des Ganzen ist ganz spannend.Dieses ganze Ding ist ja relativ trotzdem ein bisschen durchsichtig.Und es ist vor allem luftdurchlässig. Und das ist der große Vorteil.Das Ding hat so eine Ventilation und Belüftung, dass die Linsen nicht beschlagen.Es ist das erste dieser Geräte, das ich aufgehabt habe, das mir noch nie dieLinse beschlagen hat. Und ich bin so ein Schwitzer.Und das ist die Hölle gewesen. Das war für mich immer so ein totaler Abturner.Bei all den Quests oder was auch immer ich aufhatte.Erstmal, also ich habe die nur mit Föhn benutzt. Also ich habe wirklich,ich habe einen Föhn nebenbei gelegt und den habe ich da von unten reingepustetimmer wieder, um dieses Ding wegzumachen und irgendwann nach einer Viertelstundeist das Zeug auf Temperatur und dann beschlägt es nicht mehr.Aber bis dahin musste ich immer föhnen, ob das jetzt die Playstation VR waroder die Quest oder was auch immer.Und das Gerät habe ich auf und ich sehe. Super.Naja, die Packung. Diese verschiedenen Einsätze gibt es, aber ich glaube derKorpus ist immer der gleiche. Also es gibt dieses eine Hardware-Gerät,das der Tim gerade beschrieben hat und dann nur die Aufsätze sind unterschiedlich.Das Hardware-Gerät selber ist nicht unterschiedlich.
roddi 0:48:39
Also das, wo das Glas dran ist.
Dominik Wagner 0:48:42
Genau.
Tim Pritlove 0:48:43
Das Alu-Teil.
Dominik Wagner 0:48:44
Aber ein kleiner Nebeneffekt von dieser magnetischen Befestigung dieser Sichtsperre,eben das Blick, die ich mache,ist, das geht locker ab und man will es dann hochheben an dem Ding und man kannes nicht und es fällt einem was runter und das ist bei der Preisklasse auchein sehr großer Schockmoment.Ist mir mindestens zwei, dreimalpassiert, bis ich das Gerät praktisch an der Brille angefasst habe.Das große Problem ist, das Ding ist natürlich Apple-Style, vorne Glas alles,weil da sind Sensoren drin und eben auch noch ein Display.Das kann man auch noch zuschauen. Also das, was vorne drauf ist,was bei der Skibrille so das Visier vorne wäre.Dann gibt es außenrum so einen Alurahmen, den kann man grundsätzlich anfassen,will man aber auch irgendwie nicht, weil auf der einen Seite sind Lüfter,auf der anderen Seite sind auch Lüfter und dann sind unten auch noch zwei Kameras,die will man nicht, also die einzige Art und Weise, das Ding sauber anzufassen,ist irgendwie so mit so einem Mittel-Pinch-Griff mit Daumen und Zeigefinger.Aber das macht man eigentlich nicht an der Seite oder halt an den Henkeln,die Henkel gehen auch ganz gut, da wo die Lautsprecher dran sind.Genau, aber es ist so ein bisschen dadurch, dass es so schwer ist,man hat immer Angst, es fällt einem runter und dann ist es halt einfach mal,weiß ich nicht, 4000 Euro sind im Arsch, das ist ja so die Größenordnung,von der wir im Moment sprechen, wenn man das importiert, dass man echt unter4000 Euro kommt kommt man da nicht ran. Und ja, genau.
Tim Pritlove 0:50:07
Okay, dann zählen wir vielleicht nochmal auf, was es so zur Bedienung da noch gibt.Also es gibt ja eigentlich, abgesehen jetzt von den ganzen Kameras und natürlichMikrofonen und so, gibt es eigentlich nur zwei Controls, wenn ich das richtig sehe.Also klar, bei dem einen Band hast du nochmal so einen Drehknopf,um das Band festzumachen, aber jetzt für die Elektronik, für die Software gibtes halt so eine Crown, so wie an der Apple Watch, rechts vorne,die man eben auch drücken kann und drehen kann und links oben gibt es quasiso einen Action-Button, sagen wir es mal so, nochmal so ein Button.
Dominik Wagner 0:50:52
Der heißt Capture-Button und ist auch ziemlich monothematisch besetzt.
roddi 0:50:59
Die Crown ist das, womit man die Durchsichtigkeit der Immersion regelt,ne? Richtig, genau. Ah ja, okay.
Tim Pritlove 0:51:06
Genau, das ist so die Primärfunktion, also die Primärfunktion von diesen Dingern,also der Button, wie Dom schon gesagt hat, ist halt primär so Capturing,das heißt du drückst da drauf, dann kommst du sofort in Foto machen oder Video machen.Also wenn du das Ding sozusagen als Aufnahmegerät nutzen möchtest,schon mal ganz interessant, dass sie das so positionieren und tatsächlich findeich, das ist auch eine der interessanteren Funktionen von dem Teil.Und die Crown, wenn du sie drückst, die ist quasi dein Homebutton.Also damit kriegst du dann immer wieder dieses Default-App-Menü,was wir jetzt in tausend Fotos wahrscheinlich schon gesehen haben,wo dann eben so die Primär-Apps kommen und wo man dann durch mehrere Seitendurchflicken kann und dann alle Apps, die installiert sind, finden kann.Also die kannst du dir sozusagen darüber immer einblenden.Wenn du den Button etwas länger gedrückt hältst, dann nordest du quasi deine Sicht neu ein.Also es ist ja immer die Frage, wo ist vorne? Und wenn du dich,sagen wir mal, du setzt dich so leicht schräg aufs Sofa,setzt dir das Ding auf, guckst du nach rechts, aber dann nach einer Weile merkstdu so, ich will mich hier nochmal richtig hinsetzen und guckst aus,dann schaust du ja quasi für die Kamera so ein bisschen nach links und dannwürdest du dein Home-Menü sozusagen immer rechts von dir finden.Also diese, wo ist die Zentrale, wo ist die Mitte für dich, wo alles erstmalbei Default erscheinen soll.Das kannst du dadurch dann machen, dass du diese Crown etwas länger gedrückthältst und dann zack hast du die Mitte neu definiert.Das kann man also jederzeit dadurch nachpassen. Das ist auch so eine Funktion,wo man wahrscheinlich vorher gar nicht draufkommt, dass man sowas braucht.Aber das ist eigentlich das, was so diese Buttons und Dinger primär leisten.Und das war's dann glaube ich im Wesentlichen auch schon, was so an Hardwareknöpfenund Schräubchen so sich anbietet, oder? Habe ich noch was?
Dominik Wagner 0:53:03
Genau, also der linke Knopf ist wirklich so Kamera anmachen,Kamera ausmachen, Aufnahme machen.Die Crown selber ist Homebutton, und Escape vor allem auch, ja,Doppelklick auf die Crown haut dich aus jeder Immersion sofort raus und du hastDurchblick, ich meine, das ist die andere Eigenschaft, das Ding hat Durchsicht im Sinne von,ich habe viele Kameras außenrum und ich versuche dir den Eindruck zu geben,als hättest du keine Brille auf,so, kann man gleich später noch darüber reden, wie gut es wirklich glückt odernicht, also das ist ja auch was, viel gehypt wurde im Vorfeld,aber grundsätzlich ist das ein Kernfeature also meistens schaut man durch nur selten oder,Lässt man sich komplett mit Content beschallen. Auch von der Positionierung her von Apple.Oder auch das, was es ein bisschen anders spannend macht.
roddi 0:53:56
Eine Frage hätte ich jetzt noch zur Hardware. Die Lautsprecher,wie brauchbar sind die denn?
Dominik Wagner 0:54:02
Super.
Tim Pritlove 0:54:03
Also das ist wirklich beeindruckend gut. Ja? Ja.
Dominik Wagner 0:54:06
Die machen echt Spaß.
Tim Pritlove 0:54:08
Da gibt es nichts dran zu meckern.
roddi 0:54:10
Okay.
Dominik Wagner 0:54:11
Zur Fairness halber muss man sagen, die sind interessanterweise bei den Quest-Dingernauch schon nicht schlecht. Vielleicht, aber so die Apple, also ich habe eigentlichnur Kopfhörer, AirPods drin, weil ich nicht will, dass jemand anders mithören kann.Nicht, weil ich mir denke, die Tonqualität wird jetzt besser.So, das ist die Größenordnung.
roddi 0:54:29
Aber mithören kann man an sich schon?
Tim Pritlove 0:54:32
Wenn du daneben sitzt, hörst du, was da rauskommt. Aber es ist nicht sehr laut.
Dominik Wagner 0:54:36
Es ist nicht sehr laut, aber es ist halt, wenn du irgendwie die Türen ganz offenhast und so weiter, so ein bisschen so ein Radiogesäusel für die anderen.
roddi 0:54:42
Und hat auch ordentlich Wumms untenrum im Bass?
Tim Pritlove 0:54:47
Ich habe jetzt nicht so viel Musik gehört, zumindest nicht so basslastige Musik,aber ich hatte irgendwie nicht so den Eindruck gehabt, dass da einem irgendwas fehlt.Also es war okay und wie Dom schon meinte, am Ende kannst du halt auch einfachdeine AirPods noch dazu packen, das ist eine ideale Ergänzung und dann ist ja eh alles super.
roddi 0:55:10
Dann will ich aber, dass die Immersion mit dem Drehrad von den Airpods genauso mitgesteuert wird.
Dominik Wagner 0:55:19
Da hast du recht, das ist so.
roddi 0:55:21
Ja, das ist so.
Dominik Wagner 0:55:22
Du kannst sie gar nicht mehr einzeln steuern. Hast du sofort den Apple-Faktorerkannt an der Geschichte?
Tim Pritlove 0:55:26
Das habe ich jetzt nicht verstanden. Was ist, wenn man Airpods reinmacht? Was geht da nicht mehr?
Dominik Wagner 0:55:30
Es gibt nicht die manuelle Einstellung wie sonst mit Noise Cancellation,Adaptive und so weiter, sondern die funktionieren einfach als Extension vonder Apple Vision Pro. Fertig.
Tim Pritlove 0:55:43
Genau, einschließlich dieses ganzen Spazialen.
Dominik Wagner 0:55:46
Genau, das heißt, wenn du mehr reindrehst, kommt auch mehr Noise Cancellationund so weiter an den Start.Und das kommt ja auch dazu, wenn du so drehst.Was passiert, wenn man dieses Drehrad dreht? Und dann kriegt man,sein Blickfeld ist ja eigentlich,die Gegend zeigt oder da, wo man gerade steht, weil man nur Durchsicht zeigt,wird dann von vorne in so einem Radius langsam um einen rum,so langsam bis zu vollständig ausgefüllt von einem Environment.Und das ist, Environment ist ein Ding.
Tim Pritlove 0:56:19
Jetzt greifen wir aber ein bisschen vor. Also lass uns vielleicht mal daraufgleich kommen, weil das finde ich ist nochmal so ein wichtiger Punkt.Wir halten einfach mal fest, so das ist so die Hardware, Lautsprecher sind super.Super, wenn man die jetzt aufsetzt, die Vision Pro,also jetzt sozusagen die echte Unboxing-Experience mit, das Ding ist noch komplettleer, also so hast du es ja gemacht, so ist es mir auch übergeben worden,dass ich das also mit meiner eigenen Apple-ID dann auch pairen konnte.Leute, dann gehst du halt in so einen Setup-Prozess und ich muss zugeben,ich habe mir jetzt diesen Setup-Prozess in der Reihenfolge nicht notiert.Kann sein, dass ich das jetzt ein bisschen durcheinander bringe oder was vergesse.Aber das war natürlich ganz interessant. Also du schaltest das,du setzt das Teil auf, dann,hast du ja dieses Stromkabel, was du da so reinklippst und in dem Moment,wo du das reingeklippt hast, ist das Ding im Prinzip, bootet das.Also du musst jetzt nicht nochmal irgendwas drücken oder so.Und Booten heißt, du setzt es auf und das Ding ist für einen kurzen Moment schwarz.Dann kommt ein Apple-Logo, richtig?
Dominik Wagner 0:57:33
Es kommt erst so ein Gewaber. Es kommt so ein leichtes Helligkeitsgewaber innen im Licht.Außen kommt ein Apple-Logo, das sieht relativ low-res aus. Und innen drin kommtdann auch als erstes kurz in der Mitte des Screens ein schwebendes Apple-Logo.
Tim Pritlove 0:57:46
Genau, so wie beim Mac, der bootet. Und dann geht die Kamera an.Also das ist dann sozusagen das erste Ding, also wenn das irgendwie halbwegsbetriebsbereit ist und sozusagen sagt so, hallo, ich bin's, deine Kernfunktion.Und die Kernfunktion heißt, du kannst hier durchgucken.Und dann hast du auf einmal auch wieder diese Verankerung mit dem Raum was schonmal, also bevor irgendwas aufgesetzt ist, siehst du erstmal deine Umgebung,das ist schon mal ganz gut das fand ich sehr assuring,und dann genau, weiß nicht, hast du das noch so im Kopf ich hab die Reihenfolgenicht mehr so ganz drauf also das iPhone erkennt dann erstmal natürlich.
Dominik Wagner 0:58:28
Die Durchsicht getestet an der Stelle und bin rumgelaufen, weil ich wollte erstmalsehen, wie gut ist die Durchsicht und hab mich gar nicht an das,was er mich leiten wollte erinnert, weil ich wollte sehen, wie ist die denn so.Ja, und da ist mir aufgefallen, nach all dem Hype war sie mir zu schlecht,weil sie einen extrem viel Motion Blur hatte.Also man muss sagen, ich habe das, der Bekannte von mir ist erst abends angekommen,also der ist mittags mit dem Flieger angekommen, brauchte ein bisschen Erholungund wir haben das abends getestet, es sind schlechte Lichtverhältnisse.Lichtverhältnisse machen einen riesen Unterschied für das Gerät.Und dann muss ich feststellen solange man den Kopf gerade hält ist der Durchblick super,Aber wenn man dann den Kopf bewegt, dann hat man einen sehr absurden MotionBlur, der einem diesen Durchschnittseffekt ziemlich kaputt macht, finde ich.Also da muss man sich lange dran gewöhnen, dass es kurzzeitig unscharf ist und dann ist es in Ordnung.Aber es ist nicht so, also alle haben gesagt, ja das ist genau so,als hätte man auf und ab und so, als hätte man nichts an und das ist mitnichten so.Also der Blickwinkel und so ist super, die Auflösung ist auch adäquat,aber die Kameras sind sowohl von der Lichtempfindlichkeit als auch von der Schärfe,die können noch ein paar Generationen besser werden.
roddi 0:59:47
Und das ist jetzt aber nur der Fall, dass das Licht schlecht ist?
Dominik Wagner 0:59:51
Es ist besonders schlimm, wenn das Licht schlecht ist, aber es ist auch nichtperfekt, wenn das Licht da ist.Also wenn das Licht da ist, dann ist es ungefähr so, auf so einer Handdistanzist halt was, ich meine, es ist verhältnismäßig schon cool, du kannst dein Telefonbedienen, ohne dass du die Brille absetzt.So, die Auflösung hast du, du kannst es lesen und so weiter.
Tim Pritlove 1:00:11
Mit Einschränkung. Also man kann dann nicht mehr alles so gut lesen.Also es ist nicht so, dass es dann wirklich noch genauso aussieht,sondern es ist schon etwas vager alles.
Dominik Wagner 1:00:21
Genau, aber man kann es überhaupt. Also das ist schon auch so eine technischeGeschichte, die durchaus eine Errungenschaft ist.Aber bei all dem Hype dachte ich halt so, hey, das ist so aufgelöst,wie ich sehen kann. Und das ist es halt nicht.
Tim Pritlove 1:00:33
Ja, zu dem Motion Blur nochmal, also man muss sich das jetzt nicht so vorstellen,dass wenn man nach links guckt schnell, dass dann so alles auf einmal in so Streifen übergeht.Es ist nur so, du guckst woanders hin und das Eye-Tracking braucht einen Moment,bis es sozusagen das dann auch umsetzt und umsetzen heißt, dass an der anderenStelle, wo ich hinschaue, dann nochmal nachgeschärft wird.Ich weiß nicht, ob das generell diese Funktion ist, die für dieses Rendering auch zuständig ist.Dom, ich weiß nicht, wie du das siehst, also was der Grund dafür ist,das ist mir nicht so ganz klar, aber der Effekt ist auf jeden Fall der,du schaust irgendwo hin und dann ist es für so einen ganz kurzen Moment,erst ist es nicht so richtig scharf und dann ist es scharf.
Dominik Wagner 1:01:23
Also der Grund ist mir nicht so hundertprozentig klar.Es hat glaube ich was damit zu tun, dass, so wie ich es verstehe,um dieses 3D-Bild, das die Kameras außen aufnehmen, auf die Augen zu mappen,was ein bisschen höher ist, ein bisschen anders die Geometrie zu machen,müssen sie ein bisschen mehr Informationen haben von allen Sensoren und sinddeshalb ein bisschen langsamer.Weil, wenn du in 2D guckst oder eine Aufnahme machst, dann hast du diesen Blur nicht.Den Blur hast du, wenn du die Brille auf hast, auf den beiden Augen.Also das ist glaube ich wirklich so eine,Geometrie, Anpassung und esmuss genau sein und irgendeiner von den Sensoren ist noch zu leggy dafür.Das ist, glaube ich, mein Eindruck. Aber who knows. Es sieht halt kurzzeitigso aus, als wären zwei Bilder praktisch noch übereinander gelegt.
roddi 1:02:08
Den Blur sieht man aber auch in Screen Captures.
Dominik Wagner 1:02:11
Aber nicht so sehr, wie du es drauf hast. Also wenn du es drauf hast,ist eine ganz andere Größenordnung.
roddi 1:02:16
Okay, ja, aber so in User Interface Elementen und so weiter sieht man dann schon,wo derjenige, der die Screen Capture gemacht hat, wo der hingeguckt hat,weil alles andere ist halt doch ein bisschen blurry.
Dominik Wagner 1:02:27
Das ist ja was anderes, genau, aber das ist Foveated Rendering und das ist wasanderes, weil das fällt dir innen nicht auf.Weil das ist einfach nur eine Optimierung, die passiert. Die können wir malkurz beschreiben, weil so schwierig ist die nicht.Das Ding hat Augensensoren, das heißt, es weiß, wo du hinguckst und um Performancezu sparen, ist nur der Teil scharf.Wenn du jetzt Screen Capture machst, dann fällt dir das auf,weil du dann genau siehst, wo die Person hingesehen hat und der Rest komplett unscharf ist.Diese Unschärfe hast du, wenn du es aufsitzt, nicht.Weil sobald du, also das ist schneller scharf, was du hingucken kannst.Also das ist technisch geil gelöst.Und das ist eben eine ganz andere Unschärfe. Weil die ist ja eher nur einfachdie Auflösung runtergerät.Das ist wie es wäre mit Mapping, aber halt am Augen Mittelpunkt, da wo du hinguckst.
Tim Pritlove 1:03:11
Es ist jetzt aber auch kein Effekt, wo man sagen muss, das ist jetzt schon der totale Dealbreaker.Also das ist schon was, woran man sich gewöhnen kann. Und ich glaube,es ist auch nochmal ganz wertvoll, nochmal zu wiederholen, was du gerade gesagthast, Dom, das ist mir nämlich auch erst danach klar geworden.Man schaut ja in die Welt.Die Kamera versucht deinen Blick zu simulieren und dir ein entsprechendes Bildso zu liefern, als würdest du da selber gerade hinschauen, was du ja nicht tust.Aber da, wo deine Augen sind, sind gar keine Kameras,sondern die Kameras befinden sich etwas weiter oben und etwas weiter unten unddas heißt, sie müssen diesen Blick, die Blickrichtung oder den Winkel korrigieren in Software. wäre.Und das ist also nicht so ein einfaches Durchschalten eines Videosignals,wo man sich denkt, wieso gibt es da irgendwie noch überhaupt irgendeine Verzögerung,sondern das ist halt auch ein digital,begleiteter Vorgang, der in irgendeiner Form ein Berechnungsrendering ist unddas unter Umständen hier schon wirklich auf der.Maximalen Geschwindigkeit arbeitet, die diese Elektronik gerade liefern kann.Mit anderen Worten, das ist ein steigerungsfähiger Aspekt.Es kann sehr gut sein, dass das in der nächsten oder übernächsten Generationweg ist und dann auch gar kein Thema mehr ist und dann weißt du noch damals,als es diesen Motion Blur gab und so weiter.Also das ist vielleicht nicht so wichtig, wenn es darum geht einzuschätzen,was hat das Ding für ein Potenzial, sondern es ist mehr so eine Feststellungmit so ist jetzt dieses konkrete Gerät.
Dominik Wagner 1:04:51
Und das finde ich insgesamt, das ist so ein bisschen ein Thema auch,das sich zumindest in meiner Bewertung durchziehen wird. Es gibt Es gibt viel Potenzial von...Das technisch in der Zukunft viel besser gelöst wird. Also da,wo wir jetzt beim iPhone und beim iPad ziemlich am Ende der Fahnenstange sind,sind wir halt bei der Vision Pro am Anfang.Das ist praktisch das Minimal Viable Product, das gut genug ist,um diese Art von Computing zu machen.Und was ich nochmal dazu sagen will, ist, ich habe die Durchsicht auch von derQuest 3 im Vergleich gesehen,also selber benutzt und diese geometrische Verzerrung, die dadurch stattfindet,dass die das nicht macht,die ist sehr deutlich sichtbar.Also wenn man die Quest 3 aufhat, ist die grundsätzliche Auflösung nicht soviel schlechter, als man jetzt denkt, aber der Blickwinkel und die Sicht ausdeinen Augen ist halt einfach nicht korrekt, die ist einfach schief und es wirktalles wie ein interessantes Videospiel.Hat später nochmal, erinnert mich mal an das nochmal, es hat Auswirkungen aufandere Aspekte, auch die ein bisschen störend sind, also bei der Vision Pro.Aber so grundsätzlich ist es schon eindeutig besser, wenn dein Blickfeld genausoaussieht, wie es dein Hirn erwartet.Also auch von der Art und Weise, wie es einem selber jetzt geht,wenn man das Ding auf hat, weil es gibt ja so viele physiologische Effekte,die passieren, wenn man zwei Bildschirme vor den Augen hat über einen längerenZeitraum, da kann einem schlecht werden,da kann man desorientiert sein, da kann blöde Sachen passieren und grundsätzlichist meine Erfahrung mit der Vision Pro da sehr gut gewesen.
Tim Pritlove 1:06:32
Ein Aspekt noch in Bezug auf diese Durchsicht ist natürlich,wie viel sieht man eigentlich?Und ich weiß jetzt nicht ganz genau, was das in Grad ist. Ich habe irgendwasüber 100 Grad gelesen. Stimmt das? Was ist dein Eindruck?
Dominik Wagner 1:06:47
Es gibt keine offizielle Angabe. Leider ist es auf alle Fälle im Vergleich nichtdie größte der Blickwinkel, die man so haben kann.Also sowohl Quest 3 als auch Quest Pro haben einen weiteren Also.
Tim Pritlove 1:06:59
Es ist definitiv nicht 180 Grad. Es ist sehr viel weniger.Von daher hast du schon so ein bisschen, also es ist jetzt nicht so wie durchein Fernglas gucken, auf gar keinen Fall.Also dass du so richtig in so ein Rohr reinschaust oder so, das ist es nicht.Aber es ist auch sofort klar, dass das nicht dein normaler Blickwinkel ist.Also Blickwinkel ist nicht der richtige Begriff.
roddi 1:07:29
Du, ich bin Brillenträger seit Jahren. Ich kenne das Problem und den Effekt.Also das schockt mich jetzt überhaupt.
Dominik Wagner 1:07:37
Also die interessante Sache ist ja, als Brillenträger ist man sowas ja gewohntund man kann sich wohl ganz gut darauf einstellen, wenn das Blickfeld ein bisschen eingeschränkt ist.Als Nicht-Brillenträger ist es durchaus ein größerer Nachteil,weil man kann eben nicht einfach mit dem Auge nach links gucken und dann siehtman das so weit, wie man halt am Gesicht vorbei sieht, sondern dann sieht manhalt mit dem linken Auge noch ein bisschen was und mit dem rechten Auge siehst du halt schwarz.So, insofern man muss schon ein bisschen mit diesem Tunnelblick auch arbeiten,ist aber bei den meisten Headsets so, bei anderen ist es halt ein bisschen besserund das kann man natürlich auch,weil das ist auch sowas in Zukunft wird es auch besser werden noch da gibt eskeine technischen Gründe dafür warum man das nicht besser machen würde,außer halt Auflösung im Verhältnis zu,zu Blickweite und im Moment, Apple wollte halt mehr Auflösung haben,Und ist auch wichtig Weil Ich finde gar nicht so, dass die Durchsicht von derAuflösung her So wichtig ist, sondern das, was man ansonsten Da rein macht indiese Durchsicht Das muss natürlich gestochen scharf sein Und das ist es.
Tim Pritlove 1:08:44
Kann sogar sein, dass der Begriff Gesichtsfeld ist Den wir jetzt versuchen zubeschreiben Gesichtsfeld.
Dominik Wagner 1:08:49
Echt?
Tim Pritlove 1:08:49
Ja, da gibt es nochmal Unterschiede Optik ist wirklich, das ist auch echt nochmalso ein Rattenloch Da will ich jetzt gar nicht rein Auch Disclaimer.
Dominik Wagner 1:08:57
Wir haben keine Ahnung Ja genau.
Tim Pritlove 1:08:58
Aber sagen wir mal so, man hätte gerne mehr, also ich hätte gerne mehr,aber es ist auch nicht so, dass man jetzt das gar nicht genießen kann.Also ich habe nicht das Gefühl gehabt, jetzt in so eine Kammer eingesperrt worden zu sein, aber es ist…,Ich würde sagen, das ist so ein Bereich, da kann ich mir sehr gut vorstellen,dass wir in zukünftigen Generationen Verbesserungen sehen werden.Also es sollte ein Ziel sein, noch ein breiteres Gesichtsfeld anbieten zu können,aber so wie es ist, ist es brauchbar und bietet schon eine Menge.
roddi 1:09:38
Ich muss da jetzt einfach auch mal sagen, ich meine, ich hatte das erste iPhoneund ich hatte auch das erste iPad und ich hatte auch die erste Apple Watch unddiese erste Generation Geräte von Apple, die sind zwar irgendwie ganz geil, was sie machen,was vorher keiner gemacht hat, aber gerade von der ersten Generation zur zweitenGeneration war immer ein deutlicher Sprung und das würde ich jetzt bei der Vision auch erwarten.
Tim Pritlove 1:10:06
Ist klar, aber wir beschreiben das ja auch nur deshalb jetzt so akribisch,damit jetzt alle, die uns zuhören, auch mal ein Gefühl dafür bekommen,wie ist es denn jetzt sozusagen, was sind denn jetzt die realen Constraints der Hardware,in dem sich das dann alles abspielt, worauf wir jetzt eigentlich ein bisschen hinaus wollen.
Dominik Wagner 1:10:26
Ja, das sehe ich auch so. Ich würde auf was eingehen wollen,was du sagst, aber halt erst später, weil das ist so der Ausblick,das ist so eine, lass uns mal erst durch das Produkt, wie es ist,durchgehen, aber dann haben wir relativ viel Meinung, glaube ich, noch.
roddi 1:10:40
Jetzt, wenn man es mal im Feld anguckt, zu all den anderen Brillen,die du erwähnt hast, ist es schon ein Schritt nach vorne, oder?
Dominik Wagner 1:10:49
Also es ist für den Zweck, den es erfüllt, ein Schritt nach vorne.Es ist für manche Sachen ein Schritt zur Seite.
Tim Pritlove 1:10:57
Ich denke, Apple geht den Schritt in eine andere Richtung als die anderen.Dann machen wir es mal so.Kommen wir mal vielleicht kurz zum Setup. Also jetzt haben wir die erste Wahrnehmunggehabt, man setzt sich das Ding auf und bevor irgendwas eingerichtet ist,kann man halt durchschauen.Und das eben in diesen Constraints, die wir jetzt so genannt haben.Dann kommt das Setup. Also ich meine, es fängt damit an, dass so wie wenn mansich ein HomePod kauft, das Ding erscheint dann sozusagen sofort auf deinem iPhone.Oh, eine Apple Vision Pro, möchtest du Setup machen? Ja,zack, bumm, möchte ich gerne machen und dann fangen halt Vision Pro und dein iPhone an,sich über alles mögliche zu unterhalten und dann fängt das Ding irgendwann anso zu booten und dann kennst du halt dein WLAN und deine Apple ID und das isthalt irgendwie alles aufgesetzt und so.Dann musst du dir eine PIN geben, wie für das iPhone, dann hast du das ersteMal so eine Eingabe und ich glaube, ist das vor dieser Sicht,erst kommt diese Sichttest-Geschichte.
Dominik Wagner 1:11:59
Erst muss der Sichttest, glaube ich, dann passieren. Aber ich glaube,der Account kam auch vor dem Sichttest, deswegen, da hast du schon recht.
Tim Pritlove 1:12:06
Das weiß ich nicht mehr so ganz genau.
Dominik Wagner 1:12:09
Doch, da ist eine interessante Frage, glaube ich. Hat es bei dir geklappt?Also, mach mal dein iPhone in die Nähe und dann wird alles transferiert und alles super.
Tim Pritlove 1:12:20
Also das ganze Setup war mühelos.
Dominik Wagner 1:12:22
Ich hatte gleich wieder ein Flop-Setup, aber ich hatte natürlich auch eine ältereVishnu-S-Version, während ich installiert war.Also du hast ja zwei Updates schon drauf gehabt auf deiner. Bei mir war dannso ein richtig, also es waren interessante Flops.Also das eine war, ich hatte keine Uhr dran und deshalb war mein Telefon nichtanlockt und mein Telefon hat natürlich mich mit der Brille auf nicht erkannt.Also musste ich dann erstmal mein Telefon anlocken, durch die Brille zum Durchguckenmit dem Passcode was ist so ein bisschen, also das ist so ein,das war so ein bisschen, aber das ist auch noch ein ongoing complaint,weil man könnte natürlich auch wie mit der Uhr das anlocken und dann bei mirging da leider dieser komplette Setup-Prozess so ein bisschen schief, ich war da so ein,Ja, so ein klassischer Beta-Tester, dass es nicht so dolle geklappt hat unddass ich dann auch nicht wusste, soll ich vom Backup einspielen?Ich habe doch gar kein Backup gerade.Ich will aber meine Daten drauf haben. Was soll ich tun?Also ich war so ein bisschen underwhelmed von dem, was ich eigentlich erwartethabe von Apple, wie der Ablauf läuft, weil ich ein paar Fragen als erfahreneApple-Nutzer nicht beantworten konnte, ohne mir einzuscheißen,dass ich vielleicht das Falsche ausgewählt habe.Aber nichtsdestotrotz, danach hat es auch geklappt und ist alles draufgesungen.Dauert aber halt eine ganz schöne Weile.
Tim Pritlove 1:13:35
Also ich weiß jetzt, wie gesagt, nicht, ob ich jetzt genau die Reihenfolge hinbekomme,aber was auf jeden Fall dann relativ früh kommt, ist eine Kalibrierung deiner Augen.Also ich glaube, das allererste ist, du sollst einfach nach vorne gucken.Das ist, wenn diese beiden Augengrünen Dinger da zusammenschieben.Also du guckst erst mal rein und dann messen sie sie und vermessen erstmal dasAuge. Damit geht's dann los.Und dann musst du an bestimmte Punkte gucken und das bestätigen.Da kommen wir dann jetzt auch schon zu der ersten Interaktion.Halt das mit den Fingern, das Ding.Erkennt deine, ah ne genau, die Hände. Die Hände kommen als erstes.
Dominik Wagner 1:14:17
Die Hände auch, ne.
Tim Pritlove 1:14:18
Das war das erste.
Dominik Wagner 1:14:19
Also ne, als allererstes ist wirklich der Augenabstand. Und der wird eingestellt,indem er praktisch eingeblendet kriegt, so eine Brille in beiden Seiten.Also man sieht praktisch so einen Brillenumriss in beiden Seiten und dann sagtder Text, drücke die Crown so lange gedrückt, bis das stimmt.Und dann fährt er praktisch den Augenabstand, der ist flexibel und der wirdpraktisch eingestellt auf dich, so lange bis es scharf wird und das macht aberalles automatisch. Man drückt nur ganz lange die Crown.
Tim Pritlove 1:14:44
Das war bei mir nicht mehr so.
Dominik Wagner 1:14:46
Was?
Tim Pritlove 1:14:46
Ich musste nicht draufdrücken.
Dominik Wagner 1:14:48
Doch, doch. Nee. Alle müssen da draufdrücken. Selbst ich muss das jetzt zwischendurchnochmal machen, wenn er sich verwirrt ist.Du musst einmal die Crown drücken, damit er den Augenabstand einstellt.Das hast du auch gemacht.
Tim Pritlove 1:14:58
Einmal drücken oder so lange drücken, bis es richtig ist?
Dominik Wagner 1:15:00
Gedrückt halten, bis es richtig ist.Und er braucht halt einfach eine Zeit. Und da musst du mit Doppel-Tap nochmalbestätigen. Doch, das hast du vergessen. Das ist so.
Tim Pritlove 1:15:10
Okay, das ging schnell, das zu vergessen.
Dominik Wagner 1:15:12
Es ist halt das Erste und du bist interessiert an allem anderen.
Tim Pritlove 1:15:15
Ja, ja, es ist schwierig, sich das alles zu merken. Naja, auf jeden Fall,egal wie die Reihenfolge ist, verschiedene Dinge.Du musst deine Hände vor die Kamera halten, da schaut er dann drauf,damit er irgendwie weiß, wie lang sind deine Finger, wie ist deine Hand etc.Dann drehst du die Hände einmal um, dann guckt er sich sozusagen die Innenseitender Hände an, dann ist das Thema Hände auch schon wieder beendet.Dann kann er die Hand gut erkennen und man kann diese Klickgeste sozusagen machen,also Daumen und Zeigefinger zusammen,das ist sozusagen der Klick und dann erscheinen Punkte auf dem Bildschirm, die man angucken muss,also man fokussiert sozusagen diesen Punkt in so einem Kreis,so fünf, sechs Punkte, guckst dir einzeln an und du merkst schon so,oh, das Eye-Tracking funktioniert.Also du schaust es an und dann ist da so ein kleiner Punkt, der so klein wird,dann weißt du so, ich hab da jetzt hingeguckt und dann machst du Snap mit deinemFinger und dann geht das zum nächsten und klick, klick, klick, klick, klick.Und das ist schon irgendwie ganz geil, muss ich sagen.Also dieses, dass du so auf einmal so eine bionische Verbindung hast mit diesemGerät, dass also wirklich deine Augen jetzt dein Pointer sind.Das ist schon irre, vor allem weil viele Dinge, wo man sich denkt,so Tastatureingabe und so, wir wissen ja alle, was das immer für ein Heckmeckist, mit dem Finger dann auf solchen Tastaturen die einzelnen Buchstaben zu machen.Du bist halt mit dem Auge und deiner Snap-Bewegung viel schneller als mit denFingern. Das ist wirklich irre.Man muss sich so ein bisschen dran gewöhnen, dass man nicht schon auf den nächstenPunkt schaut und so ein bisschen schon mal einen Schritt weiter ist,aber wenn man sich dran gewöhnt hat, dann geht es sehr schnell.
Dominik Wagner 1:16:57
Die Augenkalibrierung, muss ich auch sagen, hat mir relativ gut gefallen vom Design her.Man guckt erstmal in die Mitte und das ist eben dieser Punkt,der so ein bisschen kleiner wird und gleichzeitig so einen Soundeffekt noch hat.Sie benutzen auch sehr gut den räumlichen Soundeffekt. Das heißt,du guckst in eine der sechs Punkte, die außenrum sind.Oder sind es sechs oder neun? Weiß ich nicht genau. Und dann guckst du da hinund dann macht der praktisch auch vom Geräusch her, das Geräusch ist auch rechtsoben, wenn du nach rechts oben guckst.Und du kriegst ein visuelles Feedback, dass du du das anguckst,aber eigentlich ist es ja, dass du mit deinem Klick ihm sagst,ja, jetzt gucke ich das an.Also diese Feedback- Mechanismus, dass du ja eigentlich das Ding kalibrierst,aber er währenddessen schon so tut, als wüsste er schon, was du machst, so ungefähr.Das haben sie sehr gut hinbekommen. Und man muss es ein bisschen lange machen.Das sind so drei verschiedene Varianten davon, weil, ich glaube,wegen der Pupille, weil einmal in dunkel, einmal in mittel, einmal in hell,je nachdem, wie groß die Pupille ist dann, das Auge dann, Aber dann ist es auch gegessen.Dann wird dein Blick erkannt und dann kannst du Dinge angucken und mit dem Finger,wenn du linke oder rechte Hand, Daumen und Zeigefinger zusammen tippst,dann machst du einen Klick oder auch einen Longpress, wenn du es zusammendrückst.Die nennen es glaube ich Pinch im Englischen.Das sei vielleicht auch nochmal dazu gesagt, das Ding ist im Moment nur aufEnglisch und funktioniert auch nur mit einem amerikanischen Account eigentlich,was Tim wahrscheinlich viel Spaß gemacht hat beim Testen.Und wird aber natürlich später irgendwann mal komplett international sein,aber das ist im Moment so der Fall.Und dieses Pinschen kann man mit links und mit rechts machen und das sind damitauch mehr oder weniger zwei, so wie zwei verschiedene Touches,die man damit machen kann.Ich weiß nicht, wollen wir weiter auf diese grundsätzliche Bedienung eingehenoder wie erklärt man das jetzt am besten, dass man genug Fleisch hat,um irgendwie, wenn wir drüber sprechen, sich was vorstellen zu können,wenn man es noch nicht aufhatte.
Tim Pritlove 1:18:56
Ja, also das Setup haben wir dann eigentlich soweit durch.Also es besteht im Wesentlichen im Kalibrieren von Händen und Augen und wenndas Gerät der Meinung ist,das wäre jetzt verstanden, dann geht es eigentlich los und ich glaube da passiertdann auch nicht mehr sehr viel und dann hat man den Homescreen vor der Nase und dann geht es los.
Dominik Wagner 1:19:25
Man kriegt ein, zwei Bedienungseinführungen so mit, jetzt unten an diesem Fensterist so ein Balken und den kannst du angucken und verschieben.Ich glaube schon, dass du grundsätzlich noch so eine Sequenz,wie du ein Fenster im Raum verschieben kannst und vergrößern,die kannst du entweder mitmachen oder abbrechen, aber das wäre so noch die Einführung, die man bekommt.
Tim Pritlove 1:19:44
Genau, und dann…,Dann bist du eigentlich an diesem Punkt so und dann kann man jetzt vielleichtmal darauf eingehen, was sich jetzt sozusagen nach dem Setup für Möglichkeiten ergibt.Also was macht man jetzt eigentlich mit dem Ding? Du sitzt jetzt auf dem Sofa, hast das Teil auf,du siehst deinen Raum und du hast dann diesen Homescreen vor dir mit hier Safariund Musik und was da halt alles noch so dabei ist.
Dominik Wagner 1:20:11
Interessanterweise nicht alle Apps, die man so kennt, aber ein paar davon.
Tim Pritlove 1:20:13
Ja, und dann kannst du halt irgendwas angucken und wenn du was anguckst,dann zuckt das irgendwie so.Dann kriegt das so einen kleinen dreidimensionalen Schritt nach vorn Effekt.
roddi 1:20:25
So ähnlich wie beim Apple TV?
Dominik Wagner 1:20:27
Genau, genau so diese Apple-TV-Effekte ist es so im Wesentlichen.Ein bisschen subtiler sogar, so absichtlich, weil es halt viel passiert,weil man guckt ja viel an und das ist eh Ablenkung.Manchen ist das auch zu subtil, aber es ist so, du erkennst,wenn was angeguckt wird, durch leichte Lichtverhältnisveränderungen und leichtes Highlighting.Bei den Apps, die springen dich ein bisschen an, die sind fast genauso wie dieApple-TV-Geschichten, wenn du da mit dem Finger so rumswipest so ein bisschen mit den Icons.Und alle anderen Elemente haben mehr so einen Schimmer, so ein bisschen helleroder ein bisschen dunkler oder ein bisschen weniger vibrant,wie das ja so heißt bei diesen ganzen Geschichten.Aber du weißt es meistens schon recht gut, was du anguckst in dem Moment.Und dann kannst du, wenn du siehst, kannst du es eben drücken,indem du entweder einen Finger kurz tippst oder lang tippst.Und wenn du lang tippst, dann ist die interessante Geschichte,also wenn es nicht nur ein Klick ist, die weitere Bewegung, die du dann auslösenwillst, zum Beispiel, um im Homescreen von Apps zu Apps zu kommen,praktisch die App-Screens zu swipen, mehr oder weniger, die funktioniert dann mit dem Handgelenk.Du hast praktisch, du guckst was an, dann machst du deine Finger zusammen undab diesem Zeitpunkt ist dein Handgelenk und deine Hand die Bedienung, nicht mehr das Auge.Das Auge ist schon wieder woanders und fertig, solange du deine Finger zusammen hast.Und dann kannst du praktisch so nach links scrollen und loslassen zum Werfen,dann hast du so eine physikbasierte Scrollerei, wie du im iPhone und iPad auch hast.Oder du kannst es halt in Ruhe loslassen.Und das ist ein ganz interessanter Moment, weil du kannst halt wirklich relativgenau mit dem Tracking von deinem Handgelenk dann steuern. Also das fand ich sehr gelungen in Summe.Es ist ab und zu, es gibt schon Fehlbedienungen, so ist es nicht,aber es ist erstaunlich, wie fein du es machen kannst und auch wie du deinenganzen Körper dafür einsetzen kannst. Du kannst damit sehr genau steuern,wenn du willst. Also das Auge selber ist relativ grob.Das braucht relativ große Hit-Targets, wo du mal startest.Aber wenn du da was in der Hand hast, dann kannst du wirklich,wirklich sehr exakt was machen, wenn du willst. bist.Zur Not kannst du deinen ganzen Körper ein bisschen vor und zurück im Raum bewegenund deine Hand festlassen.Und diese ganze Bedienerfahrung ist einfach so ein bisschen,da war ich sofort so Minority Report oder whatever.It's the future, you got me.Für mich war das in der größten Ordnung von Bedienfreude, wie es jetzt wirklich,Touch-Bedienung war am Anfang auch, finde ich.Und das ist auch nach wie vor, wenn ich das Ding aufhabe und mal eben mein Fensterirgendwo hin und sonst, das klappt einfach grundsätzlich. Das ist so smoothund so nett und so wenig Belastung für die Hände.Das stimmt.
Tim Pritlove 1:23:13
Ich würde sagen, bei den Sachen, die so potenziell hätten schief gehen können,ist das bei mir so Platz zwei Top-Liste, was so richtig, richtig gut funktioniert hat.Das ganze Handtracking funktioniert irre gut.Und wenn es mal nicht funktioniert, dann hat es meistens was damit zu tun,dass du die Hände dann doch irgendwo hinter deinen Klamotten versteckst odergerade deinen Kopf so hältst, dass die Kamera einfach die Hände nicht sehen kann.Man gewöhnt sich so sehr daran, dass es funktioniert, dass du dann,was weiß ich, die Arme nach hinten hinter deinen Kopf legst und denkst,du könntest jetzt irgendwie weiter klippen und pinchen und zoomen und so weiter,was natürlich dann nicht geht.Also du bist schon gezwungen, deine Hände vorne zu halten. irgendwo zumindest.Das ist dann fast schon ein bisschen enttäuschend. Da würde ich mir fast schonnoch so Kameras nach hinten wünschen. Ich will immer getrackt werden.
Dominik Wagner 1:24:07
Ich will eigentlich zwei Uhren dran und dann sollten die einfach alles weitertracken. Vor allem das Pinschen auch.Dieser Unterschied, wenn du mit deinen Händen aus dem Blickfeld dann verschwindest,das relativ groß ist und auch dadurch, dass die Kamera ziemlich weit nach untenzeigt, auch wirklich breit.Aber dann ist halt der Weiser nicht mehr dass du die Hände noch zusammen machst. Kann er auch nicht.Und dann wird es wirklich blöd, weil dann hast du halt so einen Touch,der hängen bleibt und so und das, ich weiß nicht, mir passiert das sehr viel,weil ich bin halt auch jemand, der,Dinge immer extrem bedient so und mit dem Arm rudert und so und auch der haltgerne auf der Couch so lümmeln würde und dann die Hände sind hier so oben überdem Kopf hinten und kraulen und würden gerne tippen.Und das geht natürlich dann nicht. Also müssen sie ein bisschen nach vorne sein,aber die andere Hand, die vorne liegt, also man kann schon auf dem Schoß dieHand liegen haben und dann tippen. Das geht.Also man muss Man kann das sehr entspannt machen, was glaube ich auf Dauer fürdiese Bedienung, für diese ganzen körperlichen Gebrechen, die mit Computerbedienungeinhergehen, super wichtig sind, weil wenn man verkrampft sowas bedienen würdeoder ständig nur direkt touchen kann,dann würde es nicht gut funktionieren.
Tim Pritlove 1:25:17
Das moderne Äquivalent, die Maus hat das Trackpad verlassen.Damals, als die Mäuse noch Kugeln hatten.
Dominik Wagner 1:25:29
Also was auch interessant ist, so für einfache Bedienungen geht auch direkt Untouchen.Also man kann praktisch den Tipp auch machen, meistens indem man auch tippt.Also man kann praktisch auch näher an die Apps rangehen und dann die App antippen,die man starten will. Das funktioniert.Und man kann auch auf dem Zahlenfeld, wenn man jetzt den Pin eingeben muss, kann man den tippen.Man muss den nicht angucken und pinchen. was natürlich,Security-technisch eher schlecht ist, weil die Leute sehen dann, was du tippst.Aber ich mache es schon ab und zu, muss ich sagen. Mir ist es ab und zu lieber.
Tim Pritlove 1:26:07
Aber.
Dominik Wagner 1:26:09
Das mit der direkten Interaktion ist definitiv ein bisschen mehr awkward,weil es schlechter funktioniert.So im Verhältnis. Es hat so eine gewisse Latenz, eine gewisse Fadigkeit.
Tim Pritlove 1:26:21
So, jetzt müssen wir natürlich auf die andere Sache noch eingehen.Das ist halt das mit diesen Fenstern.Also alles, was du machst mit den Programmen, mit den Apps, was halt irgendwieInteraktionen sind, geschieht halt in Fenstern, die du dir irgendwie in den Raum legst.
Dominik Wagner 1:26:40
Was ist denn ein Fenster überhaupt in dem Kontext?Ist das eine Fläche? Ist das eine Kurve?Da musst du ja jetzt eigentlich schon beschreiben, was ist denn ein Fenster im Raum?
Tim Pritlove 1:26:55
Ja, das versuche ich ja auch gerade zu beschreiben.
roddi 1:26:58
Das ist eine Fläche, oder?
Tim Pritlove 1:26:59
Die ist eben. Abgesehen von diesem Home-Menü, was sozusagen überall schwebt,so im Raum, vor dir einfach nur die Icons in der Luft,hat alles andere schon so eine Fensterartige Verankerung.Und wenn du halt jetzt, was weiß ich, Safari auswählst, dann geht halt ein Browser-Fensterauf Und das schwebt dann irgendwo gefühlt einen Meter vor dir.
roddi 1:27:27
Als hätte jemand ein Brett in der Luft gehängt.
Tim Pritlove 1:27:30
Genau. Und es hat halt dieses transluzente Ding. Und das ist jetzt aber auch wirklich...Mein absoluter Platz 1 an, oh mein Gott, was bin ich unfassbar beeindruckt davon,wie gut sie das hinbekommen haben,das ist halt einfach, das Ding steht halt im Raum und damit meine ich, es steht im Raum.Und wenn du halt mit deinem Kopf wackelst und wenn du irgendwie deinen Körperbewegst und deine Kamera hin und her wabbert und niemand sitzt still,du hast immer Bewegung, immer schaust du irgendwo anders hin,dieses Fenster bleibt einfach immer an der Stelle und da wackelt nix.Kein Jitter, kein Blitzen, kein Pixelflashen, kein irgendwie ja im Wesentlichen ist es schon da,aber nicht immer, sondern das ist da einfach wie reingemeißelt in deinen Raumund das ist wirklich unfassbar.Also das haben sie so gut hinbekommen.Ich glaube, dass es auch, wenn sie das nicht hinbekommen hätten,dann hätten sie das Ding nicht geschippt, aber das ist wirklich genug.Also ich war mehrfach erstaunt, wie gut das funktioniert und das ist halt die Basis.Das heißt, dann ist diese Illusion perfekt, dass du etwas in den Raum stellst,dass es halt da schwebt einfach so vor dir mit Schattenwurf und dann kannstdu es halt irgendwo hinlegen.Und wenn du dann unten an dieses Fenster deinen Blick wendest und auch nochmaltappst, das ist halt auch das Ding.Also du hast zwar immer dieses Eye-Tracking und man denkt sich so,naja, ich muss immer alles nur angucken und dann tut es das.Das würde aber dann bedeuten, dass wenn du so hin und her schaust,jedes nur irgendwie erdenkliche Interaktionselement immer auch sofort aufleuchtet,wenn du da mit deinen Augen drüber gehst und das würde natürlich stören unddeswegen ist es manchmal wichtig, dass du das auch erstmal aktivierst.Weißt du, hast du deinen Musikplayer, der zeigt dir dann so ein Cover an,aber du siehst nicht automatisch, wenn du drauf schaust, einen Interface-Controlfür Vor-Zurück-Spulen oder Pause oder so, sondern du musst es dann anschauen,einmal so ein Tab machen und dann erscheint erst dieses User-Interface-Element.Weil sonst würden ja permanent irgendwelche User-Interface-Elemente um dichherum aufpoppen und gleich wieder verschwinden und das würde dich wahnsinnig machen. machen.Und genauso ist es, glaube ich, mit diesen Controls unten, oder die muss manauch manchmal aktivieren.
Dominik Wagner 1:30:06
Ja, genau, man muss die Fenster ab, also gerade wenn man so einen Film gucktoder so, da blenden sie sich manchmal aus, da muss man erstmal einmal tippenund die dann unten aktivieren, das verwirrt die Leute teilweise auch,weil schau halt stärker dahin, ist schon so ein Impuls, den man hat.Aber es ist und manche, es ist auch noch ein 1.0 Produkt, das heißt,ab und zu ist es auch so, dass die UI gar nicht erscheint Also wenn man es längerin Benutzung hat, ist es schon auch noch klar, das hat Kinderkrankheiten, aber das sind halt Bugs.Wenn man von denen absieht, ist es aber so, okay, man muss das Fenster,wenn man es bedienen will und es hat kein Element zum Verändern oder zum Schließen,dann muss man wahrscheinlich einmal reintippen. Und die Elemente zum Verschiebenund Bedienen sind relativ schlicht gehalten.Also Fenster nochmal sind wirklich Flächen im Raum, die stehen irgendwie dreidimensionalim Raum zu dir im Verhältnis und halt wirklich fest verankert im Raum in gewisser Größe,haben abgerundete Ecken alle und haben, wie Tim schon gesagt hat,auch wenn du nicht die Immersion anhast, dann wirklich in dem Raum selber werfendie einen Schatten am Boden.Du hast am Boden wirklich dann einen Schatten oder am Tisch oder wo auch immer die sind.Wenn die geometrisch so im Raum stehen, dass sie den Schatten werfen können, dann tun sie den auch.Du kannst sie aber auch einfach durch die Wand irgendwie durchsetzen und dannhast du ein Loch in der Wand, das eigentlich für dich optisch keinen Sinn macht, aber ist okay. okay.Also so eine Kinoleinwand kannst du auch hinter die Wand setzen und dann siehstdu dann eine ausgeschnittene Kinoleinwand. Das ist schon okay.Und dieses Bedienelement unten ist relativ schlicht gehalten.Das heißt, man hat einen Strich, derso ein bisschen aussieht wie dieser Home-Button-Indikator auf dem iPhone.Dieser Home-Button-Strich.Und den kann man angucken und eben mit einem Pinch nehmen und dann kann mandas Fenster dreidimensional im Raum verschieben und positionieren,wo man es denn gerne hätte. und links daneben ist so einfach nur ein runderPunkt, der ist auch super schlicht.Und wenn man den anguckt, dann wird es ein bisschen größer und wird ein X unddamit schließt man Fenster. Und das ist bei allen Elementen so.Das heißt, bis auf, also es gibt später auch noch andere Sachen als Fenster,aber die haben eigentlich diesen Strich und diesen Punkt. Das ist so die.So die Design-Sprache. Und dann gibt es eben noch eine andere Sache,wenn man in die Ecke guckt, rechts oder links unten, werden wir unten schondiese Elemente sieht und das Fenster resizable ist,vergrößerbar ist, dann gibt es da praktisch so Anfasser an den Ecken,die auch nur ein gebogener Strich sind.Und diesen gebogenen Strich kann man angucken, nehmen und dann kann man haltresizen und dann hängt es wieder von der App ab, ob man das jetzt irgendwieso machen kann, dass es beliebig die Seitenverhältnisse ändert oder nicht,aber es ist im Endeffekt so, in der Mitte ist das Dingfestgepinnt, da wo es im Raum ist und dann kann man es größer und kleiner ziehen in gewissen Ausmaßen.Und was ich sagen muss, die Art und Weise wie, wenn man das Fenster unten amFensterrand verschiebt, die Art und Weise, wie sie das gelöst haben,ist erstaunlich intuitiv und exakt.Das macht so richtig Spaß, diese Fenster im Raum zu platzieren und man hat überhauptkeine Frage, was denn so Sache ist. Also die.Reichweite, die man so auswählen kann, ist super. Also die hat praktisch soAlso die hat einfach, macht wahnsinnig viel Sinn und wenn es über die Grenzenhinaus geht, indem man es verschieben kann, dann kann man sich ja im Raum bewegen dann noch.Das heißt, wenn ich es dann noch weiter im Raum haben will, dann muss ich haltdann gehen ab einem gewissen Zeitpunkt.Aber sie haben echt eine super Range ausgewählt, wie man die verschiebt undauch einen super Blickwinkel. Also die sind immer relativ senkrecht zur eigenen Sicht.Also es sind Flächen, es ist nicht so wie bei der Quest 3 oder so,dass es gebogene Dinger sind.Es sind gerade Flächen, es sind brechen gerade, was bei größeren Fenstern auchein bisschen schwierig ist.Aber ich glaube, es ist auch ganz ästhetisch sinnvoll, weil es einfach dieseräumliche Interaktion viel klarer macht.Und es ist so ein bisschen wie wenn man diese, es gibt ja so,was waren diese 3D-Bilder mit den zwei Augen, die man so nach vorne und nachhinten schieben kann. So Stereoskopbilder, genau, die man dann so ein bisschenvor die Nase hält und vorneweg, so kann man sich das so ein bisschen vorstellen.Und so verschiebt man da eben so virtuelle Dinger, aber da ist halt Inhalte drin.Da sind Spiele drin, da sind Personen drin, da sind Webseiten drin und da kannman sich so den Raumvolk leisten.
Tim Pritlove 1:34:23
Ja, also das ist wirklich gut gelöst.Ich kann ja auch nur zustimmen, diese Positionierung, diese Vor-Zurück-Bewegung,um die Tiefe zu bestimmen,aber dann eben auch so diese zweidimensionale Platzierung um einen herum unddu kannst sie halt auch überall platzieren, du kannst sie auch direkt über dir platzieren.Kannst dich ins Bett legen und kannst irgendwie einen Film an der Decke schauen, wenn dir danach ist.Und von daher hat man auf einmal einen unglaublichen Platz, wo man so Fenster hinlegen kann.Wobei man auch sagen muss, diese Perspektiven, die sich daraus ergeben,das ist dann halt auch nicht so, dass man sagt, jetzt habe ich so viel Platz,jetzt kann ich hier 30 8K Fenster hinlegen.Deswegen, also abgesehen davon, dass jetzt die Auflösung der Kameras das natürlichso nicht hergeben oder der, nicht der Kameras, der Displays,der inneren Displays das überhaupt gar nicht hergeben würde,macht es auch keinen Sinn, weil wenn die Dinge weiter weg sind,dann müssen sie auch irgendwie größer sein. Also das ist dann halt wie im richtigen Leben.Überhaupt ist so die Menge an Content, die so in diesen Fenstern sind, ist so überschaubar.Trotzdem waren manche Sachen für mich fast auf der Vision Pro konsumierbarer als auf dem Computer.Ich habe zum Beispiel großen Spaß daran gehabt, Webseiten zu lesen.Also ich fand das Lesen von Webseiten, von so Artikeln,Irgendwie, weiß ich nicht, irgendwie angenehmer.
Dominik Wagner 1:36:13
Spannend.
Tim Pritlove 1:36:13
Also das habe.
Dominik Wagner 1:36:15
Ich noch kaum gemacht bisher. Ich habe Safari so gemieden wie die Pest.
roddi 1:36:19
Gibt es da Tabs? Ja.
Tim Pritlove 1:36:22
Wie meinst du das?
roddi 1:36:24
Naja, hat das Fenster Tabs. Achso, Tabs.
Dominik Wagner 1:36:28
Willst du wissen, wie die optisch aussehen?
roddi 1:36:30
Nö, einfach nur, ob es sie gibt. Also ich meine...
Dominik Wagner 1:36:33
Also es gibt den Mechanismus, der Tabs heißt ist und es sind frei schwebendeoben drüber ein paar und darüber hinaus sind es einfach dann mehrere Fensterim Raum, die du anders platzieren kannst.
roddi 1:36:43
Ja klar, dass du mehrere Fenster machen kannst, davon war ich jetzt ausgegangen.
Dominik Wagner 1:36:47
Aber Oder du hast halt diese Tab-Galerie wie auf dem iPad dann auch irgendwie,wo du eher durch das Grid durchscrollst, anstatt dass du das andere machst.Aber du hast auch oben so, glaube ich, drei oder vier maximal,weil du hast schon so eine gewisse, in der Grundauflösung kannst du dir vorstellen,hast du eher ein iPhone als ein iPad.Von dem, wie es von der Größe her auf dich wirkt.Also das kann man nochmal jetzt vielleicht eingehen auch darauf,es gibt ja viele Systemeinstellungen und eins davon ist auch,wie groß deine Default-Fontgröße und deine Default-Fenster sind.Und da gibt es halt ein paar Größen, aber es ist schon eher größer gedacht wegender Bedienung, glaube ich, wegen angucken können und machen.Deshalb ist es eher so, Dinge sind ein bisschen größer.Und deswegen brauchen sie auch mehr Platz und deshalb...Sind sie weniger dicht. Also du hast jetzt nicht einen Mac-Interface normalerweise,sondern eher einen iPad und ich würde sogar sagen, sogar einen iPhone-Interface von der Grundidee her.
Tim Pritlove 1:37:47
Ich habe jetzt gerade nochmal darüber nachgedacht, warum ich das eigentlichso angenehm gefunden habe.Ich weiß, ich mache das auch, also ich habe ja hier einen sehr großen,bin jetzt auf so einen 40 Zoll Widescreen Monitor gegangen.Ein großer Freund generell von Desktop und großen Bildschirmen und wenn ichan meinem 40 Zoller Webseiten lese,dann habe ich die auch meistens, die Schrift sehr groß,damit ich also auch wirklich in so einem Meter Abstand von diesem Bildschirmweg sein kann und genieße das, dass einfach viel Fläche bereitsteht,um den Text groß anzuzeigen.Und es ist gar nicht so sehr dieses, dass ich das jetzt brauche wegen Brilleoder Sehschwäche oder so, sondern es ist einfach,ich finde, dass ich weniger Aufwand leisten muss, den Text zu erfassen,wenn er groß und klar ist.Dass ich weniger Fehlerkorrektur betreiben muss, als wenn ich das jetzt in soeinem kleinen Font auf so einem sehr überschaubaren Bereich auf dem Bildschirm betrachten muss.Und insofern ist diese Vision Pro dann eigentlich die perfekte Perspektive,weil du sitzt da gemütlich im Sofa,schaust so leicht nach oben und dann prangt einfach diese riesige Webseite vordir wie so eine riesige Leinwand, wie so ein Beamer quasi.Also du schaust auf einen Beamer, der bloß sehr scharf ist und ja,das war dann irgendwie angenehm. Also ich habe das definitiv nicht als unangenehmempfunden, wenn man dann halt...Sich ein Macintosh quasi als Fenster holt, da können wir ja vielleicht mal draufeingehen, jetzt dieser Aspekt, also es gibt ja diese Funktion,du hast dann so dein Laptop vor dir, ich hatte so mein R und dann habe ich sodrauf geschaut und irgendwie haben sie halt so eine AI-Erkennung,dass sie A wissen über Handoff,okay da ist jetzt auch ein Mac mit derselben Apple-ID und so weiter da,da, aber sie erkennen halt den Laptop als solchen.Also sie haben halt irgendwie eine, oder?Gibt es da noch einen anderen Trick? Ich glaube, sie erkennen einfach Tastatur.
Dominik Wagner 1:40:02
Oberkante Bildschirm ist schon ordentlich.
Tim Pritlove 1:40:04
Die wissen einfach, da steht jetzt ein Laptop und sie wissen auch genau, in welcher,Positionierung und über dem Bildschirm erscheint dann halt so,möchtest du dich damit verbinden und dann guckst du drauf, machst Tap und danngeht der Bildschirm aus auf deinem Laptop, der ist dann schwarz und dann erscheinthalt da drüber irgendwie,eben so so als Fenster im Raum,eine 4K-Monitor-Simulation für deinen Computer.Also da ist dann sozusagen auch mehr Platz.Da ist ein größerer Bildschirm als der, der jetzt auf dem Laptop ist.Und die Fenster arrangieren sich halt entsprechend und das hast du dann vor der Nase.Das war dann der Moment, wo bei mir diese, das ist nicht der richtige Wort,aber diese Tiefenschärfe, also die Schärfe, wenn es ein bisschen weiter wegist, ein bisschen nachgelassen hat,habe ich es näher an mich rangezogen war es für mich besser zu erkennen aberwie gesagt, das mag einfach nur meine Optik sein,aber dann habe ich halt versucht mit den Mac-Apps zu arbeiten und in irgendeinerForm zu interagieren und dann hast du natürlich auch wieder so einen kleinenMedienbruch, also auf einmal musst du dann deine Tastatur und deine Maus wieder benutzen,weil es ist ja ein Mac irgendwie so, dann ertappst du dich so ein bisschen dabei,so wie man Man anfängt auf dem Mac rumzutippen, wenn du die ganze Zeit ein iPad benutzt hast.Möchtest du dann die ganze Zeit deine Programme anstarren und wunderst dich,warum die jetzt sozusagen nicht auf deinen Blick reagieren.Also Eye-Tracking auf dem Laptop, hm.Also das wäre auch so ein Feature, das könnte ich auch im Laptop gebrauchen,weißt du, dass man einfach so Eye-Tracking hat und dann mit den Fingern irgendwie,also das fällt mir jetzt gerade erst ein, das wäre eigentlich ganz geil.
Dominik Wagner 1:41:48
Leider nicht. Leider nicht. Also deshalb wollte ich es auch sehen,weil Apple was released mit Eye-Tracking, was funktioniert.Ich habe den Luxus gehabt in diversen, ich glaube zwei, drei von guten Prototypenvon Eye-Tracking-Steuerung für Laptops.Zu fummelig, zu kleinteilig, zu unangenehm. Also was Apple da gemacht hat, ist schon sehr gut.Und du triffst nicht so genau. Also ein normaler Laptop-Screen hat einfach nicht nicht die Fidelity.Das wäre wie wenn du, stell dir vor, iOS hätte Mac-Auflösungen eigentlich undvon der bedienenden Größe her. So ungefähr ist das.Also die Idee ist nicht schlecht, aber ich habe das in schlecht gesehen.Deshalb war ich ja so heiß drauf, es in gut zu sehen.Und wie gesagt, die PC-Varianten waren alle schlecht bisher, die ich gesehen habe.
Tim Pritlove 1:42:37
Ja, okay. Also ich habe ja nur gesagt, man hat dann wieder dieses Problem,dass so ein anderes User-Interaktionsmodell in dem anderen hast Und dann musstdu irgendwie da hinterher kommen. Kann man damit arbeiten?Ja, schon, wenn es konsequent scharf gewesen wäre für mich, weil ich wollteden Bildschirm dann nicht so nah an mich ranholen.Das ist auch merkwürdig, was man als angenehm findet oder so.Also wenn ich den so nah ranziehe, das Fenster, dass er quasi über meinem Laptoptatsächlich ist, also wenn ich es auf einen Meter Distanz mache,dann ist es mir zu nah, es ist mir zu aufdringlich.Und dann habe ich es halt weiter nach hinten geschoben, dass es so ein,zwei Meter Abstand hat, wie so vor so einem Beamer.Dann war es mir halt ein bisschen zu unscharf. Wäre das scharf gewesen, wäre es scharf gewesen.Dann wäre es, ich weiß nicht, ist das bei dir so, wenn du so ein,zwei Meter gefühlten Abstand hast, siehst du das dann scharf?
Dominik Wagner 1:43:38
Also es gibt für mich eine Distanz, wo es nicht mehr scharf genug ist auch.Also ich muss den nah genug halten.Ich habe den jetzt eher so als Standing Desk benutzt mit meinem Air meistens.Und wenn ich die Default-Auflösung habe, dann kann ich ungefähr so zwei,drei Tastaturbreiten kann ich es in die Tiefe setzen, aber dann wird es schon knapp.Und wenn ich es näher ranhole an mich, dann ist das Problem,dann mache ich es meistens auch kleiner, weil ich will den Winkel nicht haben.Und ehrlicherweise muss ich feststellen, für das Air unterwegs würde ich eswahrscheinlich benutzen wollen.Und natürlich ist es geil, wenn du für die Vision Pro was entwickelst.Dann macht das wirklich Spaß. Klar.Aber wenn du jetzt einfach es nur als Monitor Ersatz haben willst,dann ist ein Monitor mir lieber.Aber es ist eine notwendige Maßnahme für,dafür, dass man da sinnvoll arbeiten kann und für entwickeln auch.Ja, also es ist spannend, es ist mit der Schärfe,ich bin hin und her gerissen, Weil ich habe jetzt diverse Meinungen dazu gehörtund ich finde grundsätzlich, man kann es als Display benutzen und es ist inseiner vollen Auflösung scharf, sobald man es nicht weit genug wegstellt von einem.Was ein bisschen, was immer funktioniert ist, wenn man die Auflösung runterdreht,also wenn man die Auflösung einfach auf ein, zweiter unten dreht,die ist super scharf, deshalb hat man von der Platzmenge jetzt nicht die Größe,dann hast du nicht so viel Gewinn, aber das geht gut.Man kann es auch, wenn man wirklich viel Platz braucht, auf riesengroß machen. Das geht auch.Und dann ist halt so ein bisschen diese Unschärfe deutlicher erkennbar.Ich finde es spannend. Ich habe am Anfang ja gemeint, der Anwendungsfall alleine wäre es schon.Und das ist es für mich eher nicht. Ja, es ist ein Feature, das das System braucht,aber es ist jetzt nicht was, es ist eher was, was es braucht,weil wenn der Durchblick nicht scharf genug ist, wenn der Durchblick scharfgenug wäre, dass das Display auch volle Schärfe hat beim Durchblicken,bräuchte ich nicht unbedingt.
Tim Pritlove 1:45:52
Ralf fragt gerade im Chat eine interessante Frage und ich glaube,da müssen wir nochmal so ein bisschen klären, wie sich diese Fenster generell verhalten.Die Frage ist, kann man es nicht weiter nach hinten schieben,aber dafür den Screen viel größer ziehen?
Dominik Wagner 1:46:06
Grundsätzlich kann man.
Tim Pritlove 1:46:16
Also es ist nicht so, dass es seine Größe beibehält in dem Sinne,dass es dann kleiner wird, weil es hinten ist.Sondern wenn du etwas nach hinten schiebst, wird es automatisch größer.Das Fenster nimmt sozusagen immer denselben Bereich deines Gesichtsfeldes ein,du hast immer denselben Winkel, ist es automatisch größer.Hat aber auch denselben Content skaliert, aber es wird einfach aufgebläht.Also das ist so ein bisschen wie bei Jim Knopf sozusagen, nur andersrum.
roddi 1:46:53
Der Scheinriese.
Tim Pritlove 1:46:54
Der Scheinriese, genau. Wenn der in der Ferne ist, wirkt er total riesig unddann kommt er immer näher und dann ist er klein. Das ist genauso wie bei Jim Knopf.Ein Scheinriesenfenster. Ein Scheinriesenfenster.
Dominik Wagner 1:47:10
Und das Spannende ist, dass es trotzdem einen Unterschied macht.Also dass das selbe Fenster, dass das selbe Platz in deinem,Gesichtsfeld, Blickwinkel, was auch immer wir da jetzt genannt haben,einnimmt, wirkt anders, je nachdem, welche Distanz es hat. Ich weiß nicht genauund ich kann dir nicht genau sagen, woran es wie liegt.Aber es ist trotzdem so. Ich justiere da immer wieder ein bisschen weiter weg,auch beim Kinofilm gucken und so weiter.Ich positioniere das ist da, wo es angenehm ist und das ist immer ein bisschen anders.Also es ist so, es macht alles einen Unterschied und es ist aber super spannendauch, weil wenn man zum Beispiel so einen Film direkt vor die Nase klatscht, hat auch was.Es ist nicht so nervig wie im Kino, aber es ist halt trotzdem Zunahme,hat so ein bisschen so das Gefühl, es ist einem zu nah und dann ein bisschenweiter weg, aber im selben Blickfeld, aber trotzdem zu flach. Es ist ganz anders.
Tim Pritlove 1:48:02
Ralf fragt jetzt, sagt, bei der Quest 3 kann man das frei und unabhängig einstellen.Also du kannst natürlich dasFenster auch, wenn du es weiter nach hinten schiebst, noch größer machen.Wobei Programme auch immer so mit Constraints daherkommen. Also es gibt immerso ein bestimmtes Maximum. Ich weiß nicht, ob das für alle Programme gleichist oder ob das Programm das definiert. Das habe ich nicht so ganz verstanden.
Dominik Wagner 1:48:22
Alles, und da drehen sie auch noch drum herum. Updates haben das schon verändertauch, die Verhältnisse, wie das denn so geht.Und du musst halt teilweise ein bisschen tricksen. Also du musst teilweise einbisschen im Raum rumlaufen.Also wenn du was größer haben willst, als jetzt gerade geht,dann geht das, indem du praktisch weiter weg gehst und es dann von dir weiterweg schiebst und dann wieder näher rangehst und so.Aber das finde ich eigentlich einen ganz netten Modus, wie man damit umgeht,weil, wie gesagt, dieses Verändern im Raum ist so intuitiv, das macht einfachSpaß, das haben sie gut gemacht, das ist einfach eine geile Interaktion,die sie da geschaffen haben.
Tim Pritlove 1:48:55
Es ist irre, wie schwierig das ist, diese Effekte zu beschreiben,aber Aber warum ist das Fenster gleich groß?Also es ist halt wirklich dieser Jim-Knopf-Scheinriesen-Effekt tatsächlich undes macht einen riesigen Unterschied.Wie weit es weg ist, auch wenn es irgendwie immer denselben Platz einnimmt. Das ist crazy.Fenster können ja auch hintereinander sein. Also es gibt dann auch so Stacking-Tiefe.Es ist nicht so, dass ein Fenster dann exklusiv diesen Bereich hat.Also es ist kein Tiling oder so, sondern du kannst da alle Fenster an dieselbenStelle kloppen. Dann siehst du bestenfalls, was vorne ist.Und es wird dann auch schwierig, die unterschiedlich zu managen und anzufassenund rauszusuchen. Also es ist dann genauso wie auf dem richtigen Schreibtisch,wenn die Zettel alle erstmal übereinander liegen, dann kommst du nicht mehr so ohne weiteres ran.Also man braucht schon so eine gewisse Platzierungshygiene, aber das macht manauch irgendwie intuitiv nicht und du hast auch nicht so viel offen immer, glaube ich.
roddi 1:49:59
Ich frage mich, wie dann die ersten Fenster-Tiling-Hilfs-Apps aussehen.
Dominik Wagner 1:50:08
Mit Big Privacy wird es die einfach nicht geben so insgesamt.Das ist halt so die andere Ecke, wenn man jetzt wirklich von der Entwicklerseiteher möglichst freien Expressionismus haben will, was man denn alles machen kann,dann ist man auf anderen Plattformen besser aufgehoben, weil sie haben schonalles von den Entwicklern weggesperrt, was in irgendeiner Form Aufschluss geben würde,auf was man anguckt oder wie man das Ding bedient.Also du hast ganz konkret wirklich, als App kriegst du nicht mit,was angeguckt wird, sondern du sagst praktisch, okay, das ist ein Element,da kann der Benutzer drauf gucken und wenn der da drauf guckt, dann wird es geheiligt.Du kriegst aber nicht mit, dass es gehighlighted wird jetzt in dem Moment.Du kriegst auch keine Chance, dir das praktisch so zu merken.Du kannst praktisch in keinster Weise den Blick abgreifen, was aber eben auchEinschränkungen hat dafür, wie man Dinge dann gestaltet.Und deswegen so Fenster-Teiling-Apps wird es nicht geben, weil das wird keineAPI vergeben. Da ist man auf der Apple-Seite so.Einige von diesen Dingen, die man gerne hätte, wird es da einfach nicht geben.Gleichzeitig ist aber auch für mich das eines der größten Unterschiede,weil es ist ein in sich stimmiges.Konsistentes Bedienkonzept durch alle Apps, durch alles hindurch.Was für mich immer der größte Hinderungsgrund bei den ganzen VR-Brillen bisherwar, weil jedes Spiel funktioniert ein bisschen anders, jede Bediengesichtefunktioniert ein bisschen anders.Bei der Quest gibt es einfach, klar kannst du auch Handtracking und so weiterhaben, aber es ist halt immer ein bisschen anders und du musst erst die Applernen, bevor du dann wieder was machen kannst.Und das ist für mich so die Stärke von Apple und ich glaube,das haben sie weit genug geschafft jetzt in diesem ersten Wurf, dass es spannend wird.Aber das ist ja schon wieder viel zu weit.
Tim Pritlove 1:51:58
Kommen wir mal so ein bisschen auf,einen anderen Aspekt, nämlich die Sache mit dem drei Dimensionen und dem Inhalt.Also Content oder Oder wir müssen mal über Video und Filme und so weiter reden,weil das ist natürlich etwas, was sie auch pushen, zu Recht,wie ich finde, als ein mögliches Anwendungsszenario.Das ist ja immer die Frage, wofür taugt denn das Ding eigentlich?Und man kann, glaube ich, getrost sagen, man kann da ganz gut Filme gucken.Ich habe jetzt nicht viel Zeit mit Filme gucken verbracht, muss ich sagen,aber ich habe das auch ausprobiert.Es gibt ja auch so einen speziellen Kinomodus da in dieser Geschichte.
Dominik Wagner 1:52:43
Der ist super übrigens.
Tim Pritlove 1:52:45
Ja. Achso.
Dominik Wagner 1:52:45
Den braucht man dann auch.
Tim Pritlove 1:52:47
Entschuldigung, wir müssen...
Dominik Wagner 1:52:48
Die Environments hast du mir erwähnt.
Tim Pritlove 1:52:49
Ja, wir müssen... Entschuldigung, genau. Es ist schwierig.Es ist wirklich schwierig hier die Linien zu machen, aber es passt im Prinzip auch noch mit rein.Also generell hat man nämlich auf diesem Top-Level-User-Interface- Element nochmalso eine Dreier-Unterteilung.Das ist ja immer mal links von diesem Hauptmenü noch, oder wo war das mit diesenApps und den People und Environments, das ist doch so links so ein Steuerelement, ne?
Dominik Wagner 1:53:17
Genau, das ist eins dieser Standard-Elemente, man kann praktisch an Fensterlinks, unten und rechts und oben so Zeug dran hängen, so andere Optionen undes ist mehr oder weniger wie so eine Tab-View links,das ist ein Element von drei verschiedenen Tabs, mehr oder weniger von dem Homescreenund das erste ist Apps, das mittlere ist Leute und das untere ist Environments.
Tim Pritlove 1:53:37
Genau, und das ist ist es schon mal sehr interessant, dass es sozusagen nochmalso eine Top-Level- Organisation gibt.Das entdeckt man auch erst nach einer Weile. Ich habe auch immer nach der FaceTime-Appgesucht, um irgendwie jemanden anzurufen.Aber das ist sozusagen so weit ins Betriebssystem aufgenommen worden,dass quasi diese Interaktionsmodelle ganz klar getrennt werden. Also einerseits,Arbeitest du oder wählst du Apps aus? Du kriegst diese Oberfläche mit, hier sind deine Apps.Der zweite Tab auf diesem Level ist Personen und wenn du das auswählst,dann kommen halt Personen, mit denen du interagierst sozusagen und dann kannstdu die anrufen und kannst dann FaceTime damit machen. Da erzählen wir gleich nochmal drüber.Und das dritte, das passt halt jetzt nochmal in dieses ganze Thema mit,wie ist denn hier eigentlich die Optik und so.Das sind diese Environments. Also das ist jetzt auch nicht irgend so ein Programmfeatureoder eine App, die man dann irgendwie noch installieren muss,sondern das ist sozusagen ein genereller Begleiter.Und wenn man das halt anwählt, diesen Tab, dann kriegt man eine Auswahl vonzwei verschiedenen Arten von Environments.Die einen sind so diese softe Variante mit, da kannst du nur so deine Lichtgestaltung mit beeinflussen.Du kannst sagen, ich möchte jetzt gerne morgen Licht haben, Abenddämmerung oderso und dann nimmt das sozusagen Einfluss auf das,wie alles gerendert wird und welchen Lichteindruck du hast, so ein bisschenso Nightshift-mäßig, mehr so Modifikator.Aber das dicke Teil sind natürlich diese richtigen Orte, wo du,wenn du die dann auswählst, du halt in Teilen, je nachdem wie sehr du das mitdieser Crown reindrehst,kriegst du halt einen kleinen Ausschnitt oder eben alles um dich herum wirdersetzt durch diesen virtuellen Ort.Und dann sitzt du halt irgendwo am Rande von so einem See und blickst auf soeinen Berg und du kannst dich umdrehen und nach hinten gucken und nach obengucken und so weiter und überall, du bist halt auch einmal irgendwo anders.
roddi 1:55:53
Wie viele gibt es davon?
Tim Pritlove 1:55:54
Nicht so viele, drei, vier, vier sind es.
Dominik Wagner 1:55:59
Ne?
Tim Pritlove 1:56:00
Eins ist Coming Soon.
Dominik Wagner 1:56:01
Eins, zwei, drei, vier, fünf. Fünf.
Tim Pritlove 1:56:05
Sag nochmal, das ist dieser Berg.
Dominik Wagner 1:56:07
Es gibt den Berg. Dieser Joshua-Tree. Dann gibt es den Joshua-Tree, dann gibt es Yosemite.Gibt es nicht auch noch den Mond? Genau, den Mond gibt es. Und dann gibt es Mount Hood.
Tim Pritlove 1:56:19
Genau, Mount Hood.
Dominik Wagner 1:56:20
Und dann gibt es noch...Ne, White Sands gibt es auch noch, aber White Sands war so langweilig,da bin ich nicht geblieben.
Tim Pritlove 1:56:26
Das ist alles eigentlich eher langweilig. Das ist alles so menschenfreie Gegenden,wo nicht viel, das ist jetzt nicht so New York oder so, sondern es ist Mond.
Dominik Wagner 1:56:38
Aber es ist halt maximale Immersion. Das heißt wirklich, das ist eine Umgebung,da kannst du um dich rumgucken, die ist 3D, die hat eine Geräuschkulisse,die hat eine Farbstimmung.Und selbst wenn du gar nichts an hast und nur, ich gehe jetzt mal zum Beispielin Yosemite rein und drehe mir den hier mal auf,dann bin ich halt jetzt so in so einer Nacht in der Wüste und das fühlt sich,das wirkt schon sehr so, als wäre ich da.Das ist schon nicht schlecht. Und das ist halt gedacht einerseits,um halt so einen Kontext zu haben und alles andere auszublenden,für für eine Sache oder halt einfach wirklich nur so mal drin zu sein,um sich ein bisschen zu entspannen, wenn man will.
Tim Pritlove 1:57:24
Also, du hast jetzt gerade diese Kamera auf und unser Headset.Mehr Cyber geht eigentlich gerade gar nicht.
Dominik Wagner 1:57:32
Ich habe jetzt mal versucht, das über das Headset anzuziehen, das geht ganz gut.
Tim Pritlove 1:57:36
Er müsste jetzt noch einen Datenelch reiten.
roddi 1:57:39
Aber ansonsten.
Dominik Wagner 1:57:42
Aber er kennt euch nicht als Menschen, deshalb sieht man Eis halt nicht,das Feature haben wir auch noch nicht erwähnt.
Tim Pritlove 1:57:48
Ja richtig, oh Gott Aber jetzt immer.
Dominik Wagner 1:57:50
Also diese Environments gibt's und es gibt beim Videogucken Warte mal kurz.
Tim Pritlove 1:57:55
Zu dieser Immersion das muss man auch nochmal klar machen, du hast es schonangedeutet, also mit der Crown kann man sagen wir mal,reindrehen wie sehr bin ich jetzt in diesem Raum und das ist halt auf der einen Seite optisch,aber es ist auch akustisch einerseits, dass wenn du die volle Immersion hasthast, dass du dann so einen Hintergrund-Sound bekommst von diesem Ort,der erst, glaube ich, so auf den letzten,Dreh kommt.
Dominik Wagner 1:58:24
Nee, der kommt schon relativ früh langsam rein und es ist sogar Hall, der also sogar die,akustisch.
Tim Pritlove 1:58:35
Beeinflusst ist alles, was du tust. Das heißt, das, was du hörst, hörst du dann anders.Also wenn ich jetzt mit mit Dom FaceTime machen würde Oder mit der Vision Pro.So. Und ich bin in meinem Raum. Und ich höre ihn. Dann höre ich ihn wie in einem Raum.Drehe ich die Immersion rein, umso mehr ich in irgendeiner Wüste lande,umso mehr verschwinden auch akustisch die Räume, also die Wände,die dann keinen Schall mehr liefern und du hörst es sozusagen reflektionsfrei,dein Audio auf einmal.
roddi 1:59:16
Also auf gut Deutsch, die Brille macht eine Raumsimulation auch im Schall. Richtig.
Dominik Wagner 1:59:21
Genau. Genau. Und auch von der Art und Weise, wie der Schall von den Apps,die Apps haben ja auch ihren Schall praktisch so ein bisschen spatial im Raum platziert.Das heißt, wenn du was hast, was ein Video ist, dann hast du dieselbe spatialeOrientierung von diesem Video, wie du es auch mit dem iPad auch hast, wenn du das anmachst.Und da wollte ich eben noch mal am Anfang hin, wenn du die Airpods Pro im Ohrhast, dann hast du halt denAutomatismus, dass es ist jetzt so spatial gerendert, wie es die Vision Provorhat und wenn du den Environment reindrehen, dann ist halt Noise Cancellation mit an auch und sowas.Also du hast das nicht mehr so explizit, sondern du hast das schön integriert.
Tim Pritlove 2:00:01
Das ist schon ziemlich awesome.
roddi 2:00:04
Wie klingt denn der Mond?
Dominik Wagner 2:00:07
Wenig. Wenig.
Tim Pritlove 2:00:09
Ja, du verlierst halt das Echo sozusagen.
Dominik Wagner 2:00:11
Aber der Joshua Tree ist halt, also,der Wald und so, also ich hab mich schon mal, ich war irritiert von den Geräuschenab und zu, wo ich mich mal reingedreht hab, so Grillen zirpen und so.
Tim Pritlove 2:00:25
Also wie geht's dir denn, wenn du in diesen Environments rumsitzt? Gibt dir das was? Ja.
Dominik Wagner 2:00:30
Für mich ist es sinnvoll, wenn ich den Raum vergrößern will.Ich mache die praktisch so ein bisschen halb oder so ein Drittel an,damit mein komplettes vorderes Blickfeld auf meine Arbeitsfläche so ein bisschenausgeblendet ist, aber ich den Rest von meiner Umgebung sehe.Das finde ich dann ganz angenehm, weil dann habe ich praktisch nicht so diesenSuspension of Disbelief, wenn ich Fenster in die Wand stelle,weil da ist jetzt keine Wand mehr, da ist jetzt freie Gegend.Für sowas finde ich es wichtig. Und wenn man einen Kinofilm guckt,ist es interessanterweise an der Stelle super wichtig.Also der Apple-Kinosaal, der bei Apple TV kommt, der sonst gar nichts hat,also auch wegen der Lichthelligkeit außenrum und so weiter und der Ablenkung,ist der einfach wichtig.Ja, also das Environment, das halt praktisch möglichst wenig ist,aber trotzdem ein gewisses Raumgefühl hat, damit diese Wand,die da in der Luft hängt, irgendwo verankert ist.Also ich habe da 3D-Filme geguckt, Gravity, den ich auch im Kino gesehen habeund das ist halt so, da habe ich mir das Environment Kinosaale angemacht auch. auch.Ich dachte immer, bei den anderen, also bei dem, was ich bei der Quest gemachthabe, war das immer irgendwie ein bisschen albern und ein bisschen fad und so,aber da hat es irgendwie gepasst.Das war so richtig schön, weil der Kinosaal ist schön schwarz,hat auch ganz wenig Ablenkungen dann und dann hast du halt so eine Kinoflächeund du willst halt wegen dem Blickwinkel schon auch nur so einen gewissen Größe haben.Du willst ihn nicht viel größer machen, sodass du diese erste Reihe Erfahrunghast im Kino, weil da musst du deinen Kopf immer so bewegen und du willst haltgenauso weit weg haben, dass du mit dem linken und mit dem rechten Auge beidedie volle Fläche siehst noch.Und dann brauchst du halt Environment außenrum. So geht es mir.
Tim Pritlove 2:02:13
Ja, kann ich sehr gut nachvollziehen. Ich fand es auch praktisch,wenn man diese Immersion so bei 80 Prozent belässt.Das hat dann so den Vorteil, dass wenn man sich nach links und rechts drehtund so ein bisschen nach unten guckt, dann sieht man noch so,wo man sitzt und dann kann man noch so seine Sachen greifen und so weiter.Also das reicht dann dann sozusagen komplett in der Immersion zu verschwinden,heißt auch so ein bisschen, den Kontakt zur Außenwelt zu verlieren,im wahrsten Sinne des Wortes.Und das ist dann nicht unbedingt immer das, was man braucht.Aber dadurch, dass man das eben durch das einfache Drehen dieser Crown jederzeitauch ändern kann und dass das so ein unmittelbares,kontextunabhängige Geschichte ist. Das ist schon eine sehr gute Entscheidunggewesen und das macht dann diese Environments einerseits noch nützlicher undandererseits erhalten sie dadurch meiner Auffassung nach auch erst die Legitimationso hoch auf Systemebene angesiedelt zu sein.Sie sind einfach so ein ganz grundsätzliches Ding, was so dabei ist und du kannstes immer steuern und kannst es immer beeinflussen und kannst es immer dazuholenoder wegmachen, wenn du es brauchst.Ohne irgendwelche App- oder Menü-gestützten Klimmzüge zu machen.Und dadurch wird es eigentlich erst so richtig nützlich.
Dominik Wagner 2:03:29
Was ich persönlich ein bisschen strange finde, ist, dass es halt diese systemweiten Environments gibt.Und Apps können auch Environments haben. Zumindest die Disney-Plus-Apps.Ich weiß nicht, wie viele andere Third-Party-Apps auch.Und ich hätte halt gerne die auch zur Verfügung für was anderes ab und zu.Weil das ist halt schon, also bei Disney-Plus gibt es halt so den Avengers-Tower, von dem man rausguckt.Super geile Immersion an der Stelle. Also auch mit kleinen Details und Geräuschenoder du bist halt in Star Wars in so einem Gleiter und bist halt auf einem Wüstenplanet so ein bisschen.
Tim Pritlove 2:04:00
Ich hoffe, dass es für Third-Party die Möglichkeit geben wird,diese Environments bereitzustellen.
roddi 2:04:06
Ah, Klingeltöne.
Tim Pritlove 2:04:08
Ja, ja, das ist, also da zahlt man dann vielleicht dann wirklich gerne Geld für.Aber ich glaube, das wird Apple erstmal nicht machen. Aber Apple wird mit Sicherheitnoch mehr liefern. Also das ist definitiv.
Dominik Wagner 2:04:23
Steht da nicht sogar coming soon irgendwo? Ja, ja.Ja, die sind halt nicht fertig geworden überall, aber es ist fertig genug,dass es ein sinnvolles Release ist, so ungefähr.
roddi 2:04:35
Obwohl ich mir das absolut vorstellen kann, dass ein Emergency-Bereich im App Store gut laufen würde.
Tim Pritlove 2:04:43
Emergency?
roddi 2:04:45
Immersion.
Dominik Wagner 2:04:46
Im Immersion-Bereich.
roddi 2:04:48
Emergency.
Tim Pritlove 2:04:50
Emergency.
roddi 2:04:56
This is fine.Ja.
Tim Pritlove 2:05:04
Okay, aber kommen wir mal auf die Filme. Das ist schon interessant.Also erstmal mal ganz normale 2D-Filme anschauen, ist super.Also da gibt es, glaube ich, wenig dran zu meckern.Ich habe auch heute gelesen, es ist sogar so, wenn du dir Filme anschaust,die in Panavision aufgenommen wurden, dann hast du auch wirklich den Original-Kino-Aspekt-Ratio.Also diese 70 Millimeter.
Dominik Wagner 2:05:34
Das Fenster im Raum ändert sich Aspekt-Ratio auch noch in alle Richtungen.
Tim Pritlove 2:05:38
Das heißt, du hast da keinerlei Clipping, keine schwarzen Balken,das ist alles nicht mehr der Fall, sondern alles kommt sozusagen in seine,natürlichen Aspektratio und damit kannst du dir einfach bestimmte Filme,also viel weiß ich, Panavision war mal so ein großer Trend, ich glaube heutewird nicht mehr so viel damit gemacht.
roddi 2:05:57
Cinema Scope war doch auch so ein Ding.
Tim Pritlove 2:06:00
Ja, das weiß ich aber nicht ganz genau, wie die sich zueinander verhalten tatsächlich.
roddi 2:06:05
Naja gut, ist im Detail jetzt vielleicht auch nicht wichtig.
Tim Pritlove 2:06:09
Vielleicht nicht wichtig, aber doch ganz interessant.Cinemascope, anamorphotisches Verfahren der Breitbildaufzeichnung.2,55 zu 1, später 2,35 zu 1. Mhm.Okay. Und Panavision ist dann nochmal anders.Also auf jeden Fall sehr breit gestretchte Filme, sagen wir es mal so.Also die schon fast so Panorama-Charakter haben. Das geht auf jeden Fall.Und ohne jetzt sehr viele Filme geguckt zu haben, aber das ist irgendwie fürmich klar wo ich schon total skeptisch werde aber das hat gar nichts mit der Vision Pro zu tun,das sind halt die sogenannten 3D Filme und davon gibt es ja bei Apple TV und auch bei,Disney Plus so einiges die konnte ich mir allerdings nicht anschauen ich konnte mir das nur in einem,gehackten Filmchen anschauen das hatte damit mit zu tun, dass ich mit meinemdeutschen Apple-ID in so einer,amerikanisch verankerten Vision Pro hing und dann bekam ich von diesen Appsnicht die richtige Regionszuteilung und dann haben sie mir immer gesagt,das wäre jetzt nicht anschaubar.Also ich konnte mir sozusagen im Disney, in der Disney-App und in der Apple-TV-Appkeine Filme anschauen und deswegen auch die 3D-Filme nicht ausprobieren,sondern ich musste dann sozusagen auf,anderes Material geben, wo ich dann mit AirDrop ob ich tatsächlich einen Filmauf die Kamera gelegt habe und mit so einem Partyplayer abgespielt habe.Ich mag 3D-Filme, wie sie heute im Kino gezeigt werden, überhaupt nicht.Ich finde es total überflüssig und vollkommen deplatziert. Mir gibt es gar nichts.Das ist halt auch kein 3D, sondern das ist ja nur ein 2D-Film,der dann manuell so Pepper-Cut-Aus-mäßig irgendwie an bestimmten Stellen nach vorne gezogen wird.Mehr ist es ja nicht. Es ist nicht wirklich 3D-Messal.
roddi 2:08:14
Kommt immer ein bisschen drauf an, wie Sie ihn aufnehmen.Beziehungsweise, wenn Sie sowieso mit CGI die Effekte machen,dann können Sie die auch gleich in 3D machen.
Tim Pritlove 2:08:22
Ja, könnten Sie, machen Sie aber nicht. Also generell sind die Effekte so.Du hast auch keine Stereoskopie wirklich da drin.
roddi 2:08:30
Ich hatte immer das Problem, dass über der normalen Brille auch noch die 3D-Brillezu haben halt irgendwie dann mal so richtig schlechtes Bild ist hinterher. Ja, aber gut.
Tim Pritlove 2:08:41
Du hast ja Zugang zu dem Apple-TV-Kram und so weiter, also sag doch mal was zu den 3D-Filmen.
Dominik Wagner 2:08:48
Naja, also sie wirken auf alle Fälle gut im Sinne von, wenn du die im Kino magst,magst du die in der Brille auch oder noch viel mehr in der Brille.Also Gravity zum Beispiel ist halt schon auch ein prädestinierter Film für diesen3D-Effekt, weil dann bist du halt im Weltraum zwischen der ISS und dem anderenund drehst dich und das ist alles sowieso keine Orientierung,aber 3D und da bist du halt voll drin und das ist toll.Aber ansonsten ist es für mich eher ein Gimmick so, ja, es ist halt ein bisscheneine Tiefe da drin ist es es wirklich wert?Nee will ich es lieber haben, wenn ich mir mit der Vision Pro einen Film angucke und es gibt ihn in 3D?Schon, aber so aber es ist nicht wirklich wichtig also so, eigentlich hat esflach auch was smootheres, weil gerade so diese aus diese verschiedenen Ebenenund wie diese 3D-Sachen so gestaltet sind, sind auch ein bisschen ablenkend nur und machen es jetzt,wie gesagt, bei Gravity sehr gut, für manche ist es ich glaube,Avatar wird auch Sinn machen, weil es halt für 3D gedacht ist und so das Mediumdementsprechend benutzt würde, aber es sind halt wenige, also ich würde jetztnicht ich würde mir selbst Mario nicht in 3D gucken.
Tim Pritlove 2:09:56
Ich sag dir mal, warum ich es nicht mag und warum ich das bei diesen Doku-Sachen sinnvoller finde.Also, das Problem ist, dass dass sie ja nicht wirklich dieses 3D verwenden,um es wirklich dreidimensional aussehen zu lassen.Sondern sie verwenden ja 3D eigentlich, um Aufmerksamkeit auf bestimmte Szenen zu lenken.Also klar, das ist dann schon das, was im Vordergrund ist. Aber es ist halt ...Es wird einem das, was näher ist, viel zu sehr aufgedrängt, sodass wenn du dichauf etwas im Hintergrund mal konzentrieren möchtest, also deinen Blick schweifenlassen willst, du die ganze Zeit an diesen vorne, hinten Stufen lang polterst.Ich empfinde das einfach als unangenehm. Das mag anderen Leuten anders gehen,ich kann dem überhaupt nichts abgewinnen.Aber ich hab dann, Entschuldigung, ich hab dann, oder willst du darauf kurz?
roddi 2:10:48
Ja und zwar ist es ja so, dass die Physiognomie des Menschen so ist,dass die Augen ja nur einen geringen Abstand haben und eigentlich ist es so,dass du durch die echte Stereo-Sicht der beiden Augen einen 3D-Effekt nur so weit hast,wie du mit der Hand noch anfassen kannst.Alles was darüber hinaus ist, der 3D-Effekt ergibt sich nur noch durch Größenund weil das Hirn da so ein mentales Modell zusammenbaut, aber du siehst,was weiter weg ist in der echten Welt ja nicht mehr als echt 3D.Deswegen frage ich mich auch immer, was wollen denn die Filme von mir?Wollen die mir irgendwie, keine Ahnung, irgendwie Dinge direkt vor das Gesicht halten oder so?Das will ich ja nicht. Also ich habe irgendeinen Star Wars Film in 3D gesehen,da rennen die um das eine Raumschiff rum und plötzlich hast du irgendwie dadiese Ecke von dem Flügel irgendwie in der Fresse und denkst dir so,Leute, das hat jetzt nicht gebraucht.Irgendwie, weißt du so ich finde es so fürchterlich unsinnig, weil ne, also ein Spiel,was vor dir auf dem Tisch steht, was dann auch wirklich 3D wäre wie,weiß ich nicht eine Lego-Burg oder irgendwas das ergibt für mich viel mehr Sinn als so ein Film.
Tim Pritlove 2:12:09
Also ganz ehrlich Sehr guter Punkt und ich bin dann auf anderen Content umgestiegen,den konnte ich mir dann anschauen und wieso konnte ich mir den eigentlich anschauen und den anderen nicht?Jetzt weiß ich es gerade gar nicht mehr. Diese Dokus konnte ich mir anschauen.
Dominik Wagner 2:12:24
Welche Dokus?
Tim Pritlove 2:12:25
Na, Apple hat so zwei, drei, das muss bei Apple TV gewesen sein.
Dominik Wagner 2:12:30
Du hast dann eigentlich im Gastmodus die noch angeguckt oder so.
Tim Pritlove 2:12:34
Ach so, ja, richtig. Auf dem eigenen Ding wahrscheinlich. Genau,deswegen. Ich habe dann die Brille im Gastmodus noch mal betrieben.Da hatte ich dann sozusagen Zugriff, aber da war dann nicht mehr Zeit für großeepische Filme anschauen.Aber dann habe ich mir so ein paar kurze Dokus angeschaut, die Apple produzierthat, eben mit dieser stereoskopischen Kamera, mit der sie jetzt auch so Sportund so weiter aufnehmen, da müssen wir auf jeden Fall auch nochmal drüber reden.Und ich weiß nicht mehr ganz genau, also die eine, die mir jetzt auf jeden Fallsofort in Erinnerung ist, ist dieses Highline. Das hast du gesehen?
Dominik Wagner 2:13:11
Das habe ich gesehen.
Tim Pritlove 2:13:12
Also das ist sozusagen...
Dominik Wagner 2:13:13
Das muss man schon abkönnen.
Tim Pritlove 2:13:14
Ja, also das also erst mal, die Frau ist irre, also das ist so ein Mädel,die macht so Highlining, also die läuft über eine.Wie nennt man denn das? Einfach über ein Seil, über eine Schlucht.Und die Schlucht ist sozusagen zwei Vorsprünge, bildet sich durch zwei Vorsprüngean so einem norwegischen Fjord, wo es dann so einen Kilometer runter geht gefühlt.Und während sie also über dieses Seil balanciert, also nur einmal so gesichert,wenn sie runterfällt, dann hängt sie halt an so einem Seil, aber jetzt hat nichtsin der Hand oder irgendwie so, kein Ballonstängel oder sowas.Sondern macht das einfach so und das ist eine kurze Doku, 10 Minuten vielleicht,20 Minuten vielleicht auch, sehr intensiv, schön gedreht und da gelingt es,diese Tiefe, die unter ihr ist, diese Schlucht auf eine Art und Weise einzufangen,wo ich schon sagen musste, okay,now you have a point.Also das war wirklich anders, als es jetzt in so einer normalen zweidimensionalenDarreichung gewesen wäre.Das ist natürlich schon so speziell auch und man muss sehr großen Aufwand treiben, okay,aber dieses wirkliche, echte Welt dreidimensional aufnehmen und dann eben nichtso ein gefaktes Ding wie beim Film, sondern eben wie es eben wirklich ist.Das kommt wirklich geil rüber.Es gibt dann noch dieses andere Ding mit dieser Alicia Keys.Die in ihrem Studioraum mit anderen Musikern ist und da so eine Aufnahme macht.Das geht auch so zehn Minuten.Da haben sie tatsächlich drei oder vier Kameras im Raum platziert mit der Zeit,wann hast du mal von der einen Stelle zur anderen Stelle. Also nicht jetzt flüssigerÜbergang, sondern schneidet dann einfach auf eine andere Kamera um.Und dann kannst du dir halt dasGeschehen so anschauen, als wärst du halt dabei, könnte man jetzt sagen.Wobei ich irgendwie nie so richtig das Gefühl los gewesen,nie das Gefühl los geworden bin, dass für mich wirkte das alles so ein bisschenwie ein Aufenthalt im Wachsfigurenkabinett.
Dominik Wagner 2:15:35
Wo sich aber alle bewegen. bewegen. Das ist so ganz interessant.Bei dem Alicia Keys Ding hat man so ein bisschen so einen Effekt bei der SlackHighline nicht, fand ich, weil das war halt eine Doku, die so gemacht war dafür.Du bist jetzt einfach nur in der Situation, war es ein bisschen künstlicherund vor allem deswegen, weil du bist ja in der Perspektive gefangen.Du kannst dich ja zwar drehen, aber du kannst sie nicht bewegen und du willstja gerne mal nach vorne oder nach hinten und dann fährt die Kamera halt so ganz komisch mit.Das ist totaler Brainfuck, wenn man das macht. Also man muss relativ ruhig sitzenoder sich halt irgendwann darauf eingelassen haben, dass sich die Perspektivenicht ändert, wenn man sich seine Chips greift. Ähm,Das ist so ein bisschen schräg. Deswegen funktioniert für mich auch die Extra-Dokuviel besser als die Alicia Keys Nummer. Und es gibt noch eine dritte Tier-Doku.Die funktioniert für mich auch nicht so gut, weil sie ein bisschen es übertreibt.
Tim Pritlove 2:16:35
Mit diesen Rhino-Zurosten und so.
Dominik Wagner 2:16:36
Genau, die sind mir ein bisschen, da ist mir das 3D wieder zu stark.Also das Problem bei diesem gefilmten 3D, dem real gefilmten,ist so, passt dieses 3D zu meiner Vorstellung von 3D?Ist es so oder nicht? Und das ist bei dem Rhino-Zurosten immer nicht so sehr, bei der Slackline ja.Und da finde ich es auch wirklich cool. Und bei der Alicia Keys ist es,ich mag das Format, ich würde mir wahrscheinlich auch, wenn ich von Künstlern,die ich auch noch mag, würde ich mir das auch angucken, weil es halt ein Erlebnisist. aber es hat so seine Grenzen. Es ist schon ein Gimmick.Das ist für einen Zweck und das ist auch besser, wenn es nur eine Viertelstundeist als eine ganze Stunde. Also ich will das auch nicht abendfüllend.Ich will das in kleinen Happen.
Tim Pritlove 2:17:16
Genau, und da sieht man jetzt, das ist schon mal sehr interessant, diese,unterschiedlichen Darreichungsformen mal sehr genau zu unterscheiden.Also wir haben natürlich den 2D-Film, der ist wie immer.Dann haben wir diese Schein-3D-Filme, da sind wir uns einig,das ist es irgendwie nicht.Dann haben wir diese, Man nimmt reale Szenen auf,aber immer aus festen Perspektiven und das bedeutet, du kannst halt nur exaktgenau die Position nachvollziehen, die eben die Kamera in dem Moment gehabt hat.Klar, du kannst, willst aber irgendwie auch immer, weißt du,du stehst da und denkst dir so, ah, jetzt steht sie aber so ein bisschen verdeckt,jetzt gucke ich mal ein bisschen nach links und dann ändert sich da irgendwienichts und das ist irgendwie doof.Und das ist dann sozusagen eigentlich der nächste Schritt, also die vollständigedreidimensionale Immersion von so einem Content, der ja eigentlich dann nurin Echtzeit gerendert werden kann, wie das eben bei diesen Games ist,die aber dann sozusagen vielleicht,eine richtige Handlung haben. Also dass aus Computerspielen ein Film wird,der dir komplett gerendert wird und zwar immer aus der Perspektive,die du gerade einnehmen möchtest.
Dominik Wagner 2:18:28
Und das gibt es ja auch, aber halt nur stilisiert. Da gibt es zum Beispiel vonArte einen Comicfilm, der auch als App verfügbar ist, so wie früher beim iPadauch die Bücher als einzelne Apps verfügbar waren.Das ist so ein Ich-bin-für-den-immersive-space designter Film im Comicstil mehroder weniger Und ich finde da Stadt in groß, in klein und so weiter.Habe ich mir den ersten Teil nur angeguckt, weil ich finde es ein bisschen anstrengend.Das ist halt so eine Kunstform, die kann man so schon machen.Ja, und da kannst du auch wenigstens frei rumgucken.Aber du bist halt auch trotzdem den Künstlern ausgesetzt, was die damit machen.Also mir persönlich macht es am meisten Spaß, glaube ich, so ein kurzer,immersiver, so wie bei der Slackline, wo du noch zumindest nicht drehen kannst,aber du weißt, was du machen kannst oder nicht.Oder eben auch so Kino-3D-Filme, die dafür gedacht sind, was ich hier im Textauch gelesen habe, die Pina zum Beispiel, die Pina Bausch-Doku.Da sind es auch geile Perspektiven, die gewählt wurden, um diese Tanzauftrittezu filmen und da hilft 3D auch, weil du hast halt so eine Tanzbewegung, die halt einfach davon,die gewinnt dadurch, dass du ganz nah an der Bühne bist oder an dem Geschehen dran.Also wiederum Dokus über Kunst, wo du das mitbekommst, finde ich ganz gut.
roddi 2:19:46
Naja, sagen wir mal so, manche Spiele haben ja Cutscenes, die so lang sind undin denen man sich auch bewegen kann.Die kommen deiner Idee dann schon relativ nahe. Man müsste sie halt dann in 3D machen.
Tim Pritlove 2:20:02
Jetzt ist natürlich die Frage, was wird da noch, also was man noch dazu sagenmuss, diese Dokus sind mit 180 Grad Kameras gedreht.Also du hast halt auf der einen Seite, das muss man immer unterscheiden,also auf der einen Seite haben wir diesen stereoskopischen Effekt und den giltes für sich zu bewerten. und das andere ist die Tatsache, dass du auch 180 Grad Aufnahmewinkel hast.Das heißt, du schaust dir diese Doku an und kannst halt auch nach links und nach rechts schauen.Und oben und unten. Und oben und unten, also du kannst woanders hingucken in dieser Halbkugel.Du kannst nur deine Position nicht ändern, aber das ist schon mal ganz gut.Trotzdem frage ich mich halt, warum sind es nur 180 Grad,Weil man dreht dann schon so mal den Kopf ganz nach links und wenn du halt sonormal sitzend deinen Kopf drehst und schaust, dann hast du halt mehr als 180 Grad.Das heißt, du siehst dann eben auch the end of the video.Da ist dann halt irgendwie schwarz, diese Übergänge sind dann immer so blurred.Das ist generell eigentlich ganz gut gemacht. Das ist dann auch später,wenn man selber Filme aufnimmt und so weiter, die werden auch alle mit so einemgeblurrten Rand gemacht.Das hat nicht so klare Kanten, sondern es ist immer alles so reingeghostet.
roddi 2:21:17
Naja, willst du denn den Typen, der die Kamera hält, willst du den dann tatsächlichsehen, wenn du dich umdrehst?
Tim Pritlove 2:21:23
Naja, nee, aber 210 Grad wäre geiler so. Also so in dem Bereich ein bisschen mehr.Diese ganze Frage ist natürlich jetzt auch, was könnten jetzt sozusagen interessantevideografische Angebote werden?Und was natürlich auf dem Tisch liegt und was Apple ja auch schon macht,also wo man jetzt schon weiß, dass sie das tun, ist Sport.Sport interessiert die Leute. Sport findet auf großen Flächen statt.Sport hat geschehen an vielen Stellen.Wenn man nur mal schaut, was beim Fußball mittlerweile für einen Aufwand getrieben wird.Wird und im Falle von Apple ist es so, dass sie jetzt wohl auch bei BasketballEvents mitfilmen, auf diese Art und Weise,und sie haben auch jetzt diesen Ticketpass, den sie ja schon längere Zeit verkaufen für die amerikanische,Fußballliga, also die Soccer, nicht American Football, sondern die MLS, die,Major League Soccer heißt das, aber ich sage halt Soccer dazu.Und jetzt kann ich dann nur darüber spekulieren, was sie da tun.Aber sie werden vermutlich dort auch ein Videoangebot machen bei dieser Major League Soccer.Also sie werden das mit Sicherheit mit ihren stereoskopischen Kameras,so wie sie diese Dokus machen, werden sie jetzt auch diese Sportevents machen.Und das Ganze hat nochmal eine andere interessante Dimension,weil beim Fußball, also in Spanien ist es zum Beispiel so, da werden ja heuteschon die Spiele oder zumindest manche Spiele, die großen Vereine.In der ersten Liga, in der La Liga, werden ja mit sehr viel Kameras aufgenommenund damit meine ich nicht so acht oder zehn, sondern um das ganze Spielfeldherum eine ganze Batterie von Kameras oder zumindest um die Tore herum.Ich weiß nicht ganz genau, wie das an den Längsachsen aussieht.Und es gibt ja mittlerweile schon so Replay-Mechanismen, wo du dann quasi soeinen Matrix-Bullet-Time-Effekt hast.Das heißt, du hast eine Torszene, Flanke kommt rein, Stürmer steigt hoch,köpft den Ball ins Tor. Das wird aber dann aufgenommen von 20 oder 30 Kameras,die natürlich alle Zeit synchronisiert sind.Dann kannst du das in der Wiedergabe so machen, dass du halt erstmal die Personfokussierst, die halt diese Flanke gibt.Dann geht die Flanke rein und während sozusagen diese Flanke zu dem Stürmer fliegt,wechselst du deine Betrachtungsposition zu hinter dem Tor und siehst dann quasiden Stürmer in dem Moment schon den Ball direkt in deine Richtung köpfen.Und das sozusagen alles als flüssiger Übergang, weil dann eben die Softwaredann auch diese Zwischenbilder entsprechend noch gerendert bekommt aus diesemganzen Ding, was halt zu so einem kompletten 3D-Modell umgebaut wird.Keine Ahnung, wie viel Processing-Aufwand das hat. Was ich damit nur sagen will ist,der Aufwand, der für den Sport getrieben wird, ist heute schon sehr hoch,um solche scheinimmersiven Effekte zu erzeugen und wenn man das Ganze jetztauch noch mit stereoskopischen Kameras kombiniert, wird es natürlich noch irrer,weil du dann eben dieses ganze Geschehen auch wirklich dreidimensionaler wahrnehmen kannst.Und im Falle von Fußball würde ich fast sagen, könnte das sogar richtig wasbringen, weil dieses Problem.Dass man bei langen Bällen nicht genau sieht, fliegt der Ball jetzt gerade inder Kerze einmal nach oben oder nach unten oder fliegt der gerade 80 Meter inderselben Achse nach hinten. Du kriegst diese Tiefe irgendwie nicht hin.Ich weiß nicht, ob das dann mit einer Vision Pro auf einmal besser gelingt,aber das wird auf jeden Fall ein sehr interessanter Bereich sein,den es hier noch zu erforschen gibt, wie man das so bringen kann.Ja,fällt dir noch was ein zu Thema Video und Filme?Sonst könnten wir auch noch mal kurz über Fotos reden.
Dominik Wagner 2:25:56
Ja, Fotos und die eigenen Geschichten halt, finde ich interessant.
Tim Pritlove 2:25:59
Genau, aber erstmal hat man ja seine Fotobibliothek, die kann man sich natürlichanschauen, das ist jetzt nicht weiter spannend mit der Ausnahme von Panoramas. Findest du?
Dominik Wagner 2:26:08
Du findest es nicht weiter spannend Ich finde die Fotos so groß,so scharf sehen zu können, macht schon Spaß Ich hab selten mehr Spaß gehabtmeine Fotolibrary durchzugucken einfach nur so,Die sind halt lebensgroß, du stehst halt vor den Fotos und du hast halt relativgute Fotos von den Leuten, also sind die Auflösungen gut genug Und das ist schoneine andere Größenordnung,ob ein Porträt jetzt vor dir steht oder ob das klein auf dem Monitor ist Alsoich hab damit mehr Spaß gehabt und auch zum ersten Mal habe ich mir Memories dann auch angeguckt.Weil die Memories in groß finde ich schön.
Tim Pritlove 2:26:43
Okay, ja, guter Punkt. Na, ich war jetzt besonders von den Panoramabildern beeindruckt,weil die wiederum auf dem iPhone anzugucken ist halt so, ja,scroll, scroll, scroll, ganz nett irgendwie.Vielleicht gibt es irgendwann mal eine schönere Methode, sich das anzuschauenund das ist halt hier gegeben, Weil dann klickst du halt auf diesen Panorama-Buttonda oben und auf einmal wrappt sich sozusagen dieses Bild um dich herum und dukannst dann in der Mitte drin stehen.Und ich hatte jetzt gerade auch noch so ein paar Panorama-Bilder jüngst beimeinen letzten Reisen aufgenommen.So Italien, Blick aufs Wasser, Neapel irgendwie über die Stadt und so.Und das war dann schon sehr genau so, wie ich das dann in dem Moment auch abgespeichert hatte.
Dominik Wagner 2:27:33
Das fand ich auch. Also Panoramas waren schon mal so eine Größenordnung undich hatte auch, so bevor ich nach Amerika ausgewandert bin,Und damals nochmal eine Bekannte auf Teneriffa besucht, die ist da aufgewachsenund die hat mich da ein bisschen rumgeführt und da habe ich ein paar geile Panoramas gemacht.Und dadurch, dass es ein eigenes Panorama war auch noch, war es halt wirklichauch so diese Kombination von ich bin wieder dort.Und zwar wirklich so, ich stehe jetzt an diesem Aussichtspunkt von dem Vulkanauf Teneriffa und ich bin sofort da.Und dass es nicht 3D ist, war mir gänzlich wurscht, ehrlich gesagt.Also wenn ich eins machen werde in Zukunft dann von Positionen,aus denen sich Panoramas ergeben, optisch sinnvoll, werde ich welche aufnehmen,weil das ist wirklich toll.Und das hat damit zu tun, dass man selber auch an der Stelle war,weil ich habe auch wirklich geile, hochauflösende Panoramas von sonst irgendworuntergeladen, um sie mir anzugucken, weil ich die so gut fand.Das wirkt einfach nicht so sehr. Oder auch, was schön ist schon auch,meine Schwester war im Urlaub gerade und hat ein paar Panoramas geschossen und mir geschickt.Man hat schon einen Eindruck davon, aber die eigenen Erlebnisse so wahrzunehmen ist es schon nochmal.Und es ist also Panoramas angucken, also zum ersten Mal so, dass ich denke,Panoramas sind geil anzugucken auch, weil halt Panoramas ansonsten immer nurzu viele schwarze Balken oben und unten haben, egal mit was man es irgendwie anguckt.
Tim Pritlove 2:28:56
Jaja, man bereut sofort nicht schon sehr viel mehr Panoramas gemacht zu haben in seinem Leben.Also das macht wirklich einen riesigen Unterschied. Und das.
roddi 2:29:08
Ich habe hier 230 Panoramen auf dem Phone.
Tim Pritlove 2:29:12
Viel Spaß.
roddi 2:29:14
Allerdings sind da auch Fotos dabei, die halt einfach von der Aspect Ratio sosind, dass das Phone dann meint, das muss jetzt ein Panorama sein,obwohl es ganz offensichtlich nur Text ist. Ja.
Dominik Wagner 2:29:26
Ja, hat sein Für und Wider. ich finde es ganz gut, dass du praktisch nicht sobesondere Metadaten brauchst, damit es in der Kategorie landet,weil dann verpasst du auch keine und brauchst nicht Magic,weil zum Beispiel bei den Immersive-Fotos, da brauchst du wieder irgendwelcheMagic, dass du diese 3D machen kannst in irgendeiner Form.Zwei Fotos, die gleich heißen, kannst du nicht einfach reindonnern.Das wäre auch schön, dass man so, ich habe nämlich so 3D-Content und ich weißnoch nicht, wie ich den reinbringe, so dass ich ihn angucken könnte,weil da kommen wir nämlich zu anderen Geschichten so,sie kann ja jetzt 3D-Fotos, die Vision Pro, aufnehmen und anzeigen. Ähm,Und die Frage ist, ist es das wert bei den 3D-Fotos, weil es ist halt wie immerso, ich habe ja damals sogar mal eine App gemacht, die mit dem iPhone 3D-Fotosaufgenommen hat, mit so einer Apparatur, dass du an der iPhone-Kamera, Poppy hieß das Ding,zwei Prismen dran machst und dann praktisch ein bisschen das aufspiegelst,sondern in einem Bild so eine Stereoskope Bilder hast, gemacht hast,da war damals die Auflösung gerade so gut genug, dass das 3D-Bild,das da rauskam, Sinn machte.Habe ich hier auch noch die Prototypen davon und die App, die ich geschrieben habe.Aber die kriege ich jetzt da auch nicht rein. Aber es ist halt auch so ein bisschenso diese 3D-Bilder, wie die Panovision.Es hat schon was, aber es ist halt auch immer weniger aufgelöst und es ist so ein bisschen schräg.Ich weiß es nicht. Ich habe ein paar gemacht jetzt, aber...
Tim Pritlove 2:30:50
Meinst du jetzt die Fotos oder die Videos?
Dominik Wagner 2:30:52
Die Fotos. Die Fotos.
roddi 2:30:54
Kann die Vision Pro den Hochkant-Panoramen?
Dominik Wagner 2:30:58
Hochkant-Panoramen? glaube ich nicht, weiß ich nicht.
roddi 2:31:01
Weil ich habe so ein paar, wo ich halt das Panorama von unten nach oben gemacht habe.Wenn du vor so einem Turm stehst oder so und dann das Panorama aber von untennach oben machst, sodass du den ganzen Turm drauf hast.
Tim Pritlove 2:31:14
Keine Ahnung. Ich würde mal vermuten, nein, aber don't know.Ja, also das mit dem Aufnehmen, also die Videos hatten hatten keine wirklichbeeindruckende Qualität, glaube ich.Also ich bin mir da nicht so ganz so sicher, um ehrlich zu sein.Und die Wiedergabe war bloß so strange, weil du nimmst nicht so einen Kastenauf mit so einer klaren 16 zu 9 Kante oder sowas, sondern das ist irgendwie so...Wie soll man das beschreiben? Also du gibst das wieder und dann hat das alles so ein,Wolkenrand.
Dominik Wagner 2:31:58
Es hat so ein bisschen einen fassigen Rand. Es ist eigentlich ein quadratischerAusschnitt, sowohl bei den 3D-Fotos als auch bei den Videos, die man aufnimmt.Zumindest wenn man sie mit der Vision Pro aufnimmt, weil man kann ja auch mitdem aktuellsten iPhone Videos aufnehmen, die haben ein bisschen anderes Seitenverhältnis.Und die stellen es grundsätzlich in so einem Kasten da, wo du praktisch einbisschen, also im Verhältnis zu deinem Fenster im Raum.Du guckst da praktisch ein bisschen durch und kannst deshalb ein bisschen seitlichalso sie haben es ein bisschen so gemacht, dass es so ein bisschen wabert,wenn man seitlich rumguckt, damit es auch diesen Stereoskop Effekt ein bisschen mehr hat.Und du kannst auch da wieder reinzoomen, auf Immersive machen,dann ist es so ein auch ein bisschen seltsames Erlebnis, weil halt die Auflösungnicht so super dolle ist.Gleichzeitig ist es, wenn du es selber gemacht hast, also gerade das Video,ist es ist es schon das hat was ja.Ja, das stimmt ich habe auch heute nochmal versucht in Vorbereitung von derSendung eins zu nehmen, wo ich jetzt die Treppe runter laufe und dann mal rausgucke und dann mal Klavier spiele um das so ein bisschen um mal so eins zu haben,wo man ein bisschen was ausprobiert,es ist aber schon mehr ein Gag als wirklich cool, glaube ich also ich hätteglaube ich schon gerne so Aufnahmen von meinem Kleinen,aber gleichzeitig will ich nicht mit der Brille von meinem Kleinen so rumherfelnalso dem habe ich das jetzt auch noch vorenthalten weil der soll ja überhauptnicht so viel mitbekommen das ist mir zu creepy,Papa wieder mit seinem VHS Videokamera,also ich muss aber sagen da.
Tim Pritlove 2:33:37
Wären wir jetzt auch nochmal gleich zu kommen ist ja immer die Frage,Wozu kann man das eigentlich gebrauchen? Ist das jetzt nur so eine Technologiedemonstration,ist das so ein Gimmick oder ist das vielleicht für irgendwas gut oder gibt eszumindest Leute, für die das eine besondere Bedeutung haben kann?Und dieses dreidimensionale Fotografieren und dieses dreidimensionale Videoaufzeichnen, das mag zwar jetzt noch nicht perfekt sein,aber die Möglichkeit das überhaupt machen zu können ist natürlich für bestimmteAnwendungen unter Umständen wirklich geil.Also ich denke halt gerade so, wenn man so Veranstaltungen macht und so LocationScouting macht oder du bist so auf Wohnungssuche und schaust dir Wohnungen anund dann versuchst du irgendwie zu fotografieren und irgendwie dir zu merken, wie das ist,weil du nur sehr wenig Zeit hast, das zu begehen.Ja, so eine Wohnungsbegehung zum Beispiel.Da würde ich mir, also wie ich es jetzt sozusagen hätte, dann würde ich mirdieses Teil aufsetzen und da einfach 3D-Video-Capture-Button drücken und dannda einfach mal 10 Minuten lang durchlaufen und das komplett aufnehmen.Weil wenn du dir das dann auf der Brille wieder anschaust, dann kriegst du einfachso ein gutes Gefühl für die Weite und die Räume und was wo ist und was miteinander da ist und so.Es ist ein bisschen schwierig, sich zu sehr bewegte Rumlaufvideos auch anzuschauen.Da muss man aufpassen, dass man da nicht so ein bisschen wonky wird.Mir ist nie schlecht geworden jetzt bei der Brille, aber es ist schon so.Also da kann ich mir schon vorstellen, dass hier die Brille auch wirklich eineunmittelbare Anwendung hat für bestimmte Leute.Weil das halt einfach die optimale Quick-and-Dirty-Dokumentation von Situationen ist.
roddi 2:35:37
Was ist eigentlich mit 360-Grad-Kameras?Das, was die ausspucken, kann man die sich auch mit der Brille angucken?
Dominik Wagner 2:35:45
Ja, da gibt es auch Certify-Apps davon.Da kannst du so 360-Grad-Dinger kannst du ein paar dieser Formate dann angucken.Also Files funktioniert ganz ordentlich auf der Kamera und da kannst du in Filesentweder SMB oder was auch immer anbinden und dann hast du halt da den Inputfür deine Apps und es gibt zwei oder drei von diesen VR- und 3D-Apps.Also wenn du was hast in irgendwelchen Formaten, die es geht,klappt es auch. Ich habe diese Daten nicht.Und da YouTube noch keine eigene App hat, ging es da auch nicht.Und die Side-by-Side-Videos, die ich so hatte, die braucht nochmal Pre-Processing,ist auch nochmal nervig.Da bin ich noch nicht firm genug, auch in welchen Formaten man das direkt angucken kann.Weil man will schon, also den Content, den man herkaufen kann,der funktioniert sofort, als es ist.Und der macht dann schon in dem Sinne Spaß.Dass es sich selber zusammen gebastelt, ist halt so eine Sache.Also es gibt eine App, die ganz gut funktioniert.Die hat Star Trek alle Brücken oder so von allen Enterprises.Und da hast du halt so eine VR-Ansicht.Und auch das ist ganz nett. Das macht schon auch Spaß.Da drin zu stehen.
Tim Pritlove 2:37:02
Ja.So, was haben wir denn noch?Ich glaube, wir müssen über,FaceTime und diese Personas reden.
Dominik Wagner 2:37:19
Ja, über iSight haben wir auch noch gar nichts fallen lassen,aber das haben wir auch nicht so viel.
Tim Pritlove 2:37:23
Das stimmt.
Dominik Wagner 2:37:26
Das gehört da auch irgendwie ein bisschen dazu, also bei der Immersion.Aber ich habe den Anwendungsfall noch nicht so gehabt, weil ich habe die meistens so oft gehabt.
Tim Pritlove 2:37:33
Anwendungsfall für was jetzt?
Dominik Wagner 2:37:37
Diese Situation, wo du die Brille aufhast, aber mit Leuten interagieren willstoder kannst und dann dadurch, dass die sowohl die Leute durch die Immersiondurchgehen, also wenn du.Also vielleicht nochmal kurz erklärt, wenn wir es noch nicht oft genug gesagthaben an so einer Stelle, wenn man sich so ausblendet mit der Crown und dannso ganz einbettet in irgendeine Experience in der Apple Vision Pro,dann ist es so, wenn Menschen auf dich zukommen, mit dir reden wollen,dann machen die so ein Loch dadurch und man sieht die trotzdem.Also man wird nicht komplett aus seiner Immersion rausgeworfen,sondern es ist so, okay, die gucken dann aus der Wolke raus.Da wird einfach ein bisschen aufgemacht, wenn die einen angucken und reden.Und umgekehrt ist es so, dass die wiederum auf der Vision Pro Außen,auf der Stiebrille, so eine Andeutung von Augen sehen,die deine Augen sind. Das kommt dann gleich mit der Person nochmal raus.Aber die halt eigentlich so blurry sind und so ein bisschen,dass sie nur eine Andeutung sind.Aber dadurch sehen die halt, okay, du siehst die auch. Und dadurch kannst dudiese Interaktion machen.Ich habe es jetzt selber nie in so Kontexten verwendet, wo das relevant gewesenwäre. Ich habe mir die Augen mal im Spiegel angeguckt, weil da funktionieren die auch.Und die sind so, ja, sind schon okay. okay, also ich finde die weniger kontrovers,als die Leute meinen, dass das nichts...Es ist halt, es ist ein Indikator, es ist wichtig in irgendeiner Form für diesenAnwendungsfall und es wird immer wichtiger, je mehr es von diesen Vision Prosgibt und je mehr die normal eingesetzt werden.Also das werden wir in Zukunft noch sehen, glaube ich.Ja. Aber es ist halt so ein Feature, das sehr unik ist hier.Und sehr belacht wurde im Vorfeld, aber ich finde es okay.Also es ist so, das ist ein okayer Weg, weil es geht halt intuitiv, ist es klar.Wenn da Augen Rausgucken, auch wenn sie ein bisschen creepy sind Das ist haltdie Person Alles andere, was so indirekt wäre Mit einer Leuchte,sonst irgendwas Würde nicht funktionieren, weil da müsste man Jemandem was erklären erst an der Stelle.
Tim Pritlove 2:39:32
Interessant ist ja auch, wie das Setup Dafür funktioniert, da musst du ja dann die Brille Abnehmen.
Dominik Wagner 2:39:37
Also für die Persona jetzt.
Tim Pritlove 2:39:38
Ja Ja, ist ja nicht nur für die Persona Sondern es ist ja auch für diese Eyesight.
Dominik Wagner 2:39:47
Auch, genau, aber es ist ein Vorgang. Also du machst die ja nicht extra.
Tim Pritlove 2:39:51
Genau, aber damit sozusagen deine Augen überhaupt mal reproduziert werden können,muss es ja Fotomaterial geben sozusagen von dir,weil es gibt ja keine Kameras, die jetzt auf deine Augen gehen und sozusagendie wirklich jetzt filmen, sondern sie werden ja nur simuliert und.Dazu musst du halt vorher durch diesen Persona-Prozess gehen der dann eben auch für diese,ja Persona heißt ja, sind diese quasi diese Avatare, die angezeigt werden wenndu jetzt mit jemandem Facetime machst und du hast diese Vision Pro auf,dazu nimmst du die Kamera halt ab und dann musst du,da reingucken, den richtigen Abstand haben, du siehst dann so ein bisschen,siehst so ein bisschen aus wie so ein Teletubby,diese Sonnenbaby bei den Teletubbies.Die Sonne, wo so ein Baby in so Sonnenstrahlen drin ist, so sieht das so einbisschen aus, wenn du das Ding vor dich hältst und dann,siehst du erstmal quasi per Video so deinen Minikopf in der Mitte von dieserBrille und musst den dann sozusagen auch im richtigen Abstand halten und wenn das dann so weit ist,dann machst du deinen Kopf nach rechts und nach links und nach oben und nachunten und dann musst du einmal Einmal lächeln, einmal lächeln mit Zähne,Augenbrauen heben und dann Augen zumachen und das war's.Das sind sozusagen die Positionen, die dann erfasst werden und daraus berechnetsich halt auf der einen Seite das, was außen an der Brille zu sehen ist,wenn Leute dich anschauen und dadurch, dass sie ja dann auch noch so ein,wie heißt dieses Gitter, was sie da haben, dieses...Also das Glas ist ja dann nochmal so angeschliffen, dass du tatsächlich in jedeRichtung noch ein anderes Bild abgeben kannst, wie bei so Wackelbildern.Das heißt, wenn dich einer von links und von rechts anguckt und so weiter, dann.
Dominik Wagner 2:41:52
Lentikular, Lentikular.
Tim Pritlove 2:41:53
Genau, lentikulare Linse, irgendwie sowas.
Dominik Wagner 2:41:56
Also so eine Oberfläche halt, wie bei so einem Wackelbild.
Tim Pritlove 2:41:59
Genau.
Dominik Wagner 2:41:59
Genau das.
Tim Pritlove 2:42:00
Und das ist schon irgendwie auch alles wieder ziemlich beeindruckend, wie das eben so ist.Und ich kann dir auch mal so ein Foto teilen irgendwie von mir mit diesem Ding drauf hier.Es ist nicht besonders hell, aber in manchen Situationen ist es gut zu erkennen.
Dominik Wagner 2:42:32
Bei dir funktioniert es sogar erstaunlich gut. Also ich habe es oft so ein bisschenvon dem Blickwinkel her, dass es halt ein bisschen daneben ist.Also das war zu hoch oder zu niedrig oder so bei Leuten gehabt.Aber bei dem war es jetzt gut. Bei dem Foto.
Tim Pritlove 2:42:45
Ja, muss ich wieder Kapitelmarkenbild machen. Ja, unbedingt.Doch, das ist doch alles Arbeit. Genau, und dann kommen wir im Prinzip auch zu diesen Personas.Ich meine, klar, du hast halt so eine Brille auf dem Kopf, klar kannst du indem Moment kein richtiges Bild liefern und deswegen rendern sie das sozusagenund der Aufwand, den sie hier wieder getrieben haben,der ist bemerkenswert, weil es glaube ich etwas mehr Aufwand ist,als man vielleicht denkt,denn was machen sie jetzt, also ich rufe jemanden per FaceTime an,Und dann erscheint quasi mein vollständiges Gesicht animiert auf Basis diesesFotos oder dieses Recordings, was sie vorher gemacht haben, womit sie wahrscheinlichdann halt dreidimensional mein Bild abgetastet haben,mein Gesicht abgetastet haben und eben Fotos davon gemacht haben in verschiedenenZuständen, sodass sie dann eben auch Mundbewegungen simulieren können.Einfach nur aus, du hast mal gelächelt, zweimal, irgendwie das war's.Und während du halt dann jetzt mit jemandem redest, und da musst du mir jetztmal weiterhelfen, Dom, was du denkst, wie sie das machen.Also wie machen sie diese Mundbewegungen? Das sind ja schon die,das sind die richtigen Mundbewegungen, die man in dem Moment auch wirklich machtdurch die Kameras nach unten, oder?
Dominik Wagner 2:44:11
Genau, die nach unten Kamera ist sehr weitwinklig, die sieht den Mund.
Tim Pritlove 2:44:14
Und die Augen sind nachgebildet auf Basis des Eye-Trackings.
Dominik Wagner 2:44:19
Ja. Und die Augenbrauenbewegungen, weiß ich nicht, wie die die machen.Die finde ich eigentlich am interessantesten.
Tim Pritlove 2:44:26
Stimmt, die sind ja auch noch mit dabei.
Dominik Wagner 2:44:27
Die müssen ja irgendwie die Augenbrauen auch innen drin schon ein bisschen filmen,abgreifen irgendwo. Weil das ist ja nicht Eye-Tracking. Das ist ja dann irgendwieso die Augenbrauenpartie.
roddi 2:44:35
Welche Auflösung hat denn die Eye-Tracking-Kamera und vor allen Dingen welchen Blickwinkel?
Dominik Wagner 2:44:40
Weiß ich nicht.
Tim Pritlove 2:44:40
Keine Ahnung.
roddi 2:44:41
Also wahrscheinlich sind die Augenbrauen mit auf der Eye-Tracking-Kamera drauf.
Tim Pritlove 2:44:45
Nein, nein, nein. Die Augenbrauen sind ja komplett hinter der Brille verschwunden.Du machst doch deine Glubschis da in diese Höhlen rein, da bleibt doch von denAugenbrauen nichts übrig.Ich glaube, dass sie das einfach aus der Bewegung der Augen ableiten.Also das, also wie auch immer, es ist totale Magie. Das ist das, was ich sage.
Dominik Wagner 2:45:09
Es ist super, dass du dir das Augenbrauen...
Tim Pritlove 2:45:11
Es ist totale Magie und klar sieht es irgendwie erstmal creepy aus,gar keine Frage, aber wenn du dirmal vorstellst, was sie da alles zusammenbringen, um das überhaupt zu tun.
Dominik Wagner 2:45:24
Also mal ganz ehrlich, ich habe jetzt schon ganz lange und ganz viele von diesenVideospielen gespielt, wo man so seinen Charakter machen kann und wo alle versuchen,automatisch irgendwas zu machen.Also, dass Apple in der Lage ist, so eine Qualität abzuliefern auf dem erstenWurf, hätte ich denen nie zugetraut. Also auch von dem, wie es aussieht.Und es ist auch wirklich gefühlt State of the Art gerade, was so geht für soeinen Scan, den wir mal eben schnell aus der Hüfte schießen.Also, ich habe eher das Hutabgefühl.Insgesamt Uncanny Valley, ganz klar, da kann man noch viel machen,aber ich hätte nicht geglaubt, ich hätte mit Lächerlichkeit gerechnet und esist einfach eigentlich schon cool.Es ist ein bisschen uncanny, aber es ist schon cool. Und es hat halt wahnsinnigviel, also die Art und Weise, wie es dann eingesetzt wird in Facetime,da kommen wir auch gleich nochmal dazu, die macht es halt nochmal so viel runder.
roddi 2:46:19
Also ich finde, es sieht so ein bisschen so aus, wie ich mir das vorstelle,wie Evangelikale sich das vorstellen, wie sie im Himmel sind.Also dieses sehr Geblörte mit dem weißen Hintergrund und so.Es ist schon so, lebst du noch oder weiß ich nicht, facetimest du schon?
Dominik Wagner 2:46:43
So, aber interessant, also mehrere Sachen sind interessant an der Geschichte.Die eine Sache war, wir haben ja Videos aufgenommen mit der Vision Pro und,Aber nur mit dem eigenen Capture, mit dem Knopf. Ja, weil Apps sehen den Videostreamnicht, den du selber siehst. Die dürfen das nicht.Du kannst keine Bilder machen mit der Apple Vision Pro.That doesn't work for you as App Developer.Was du kriegst, ist der einzige Videostream, der als Rückwärtskamera gilt.Also ich habe ja auch diese Tageslicht-App, mit der man auf dem Apple TV wasstreamen kann, eine seiner Kameras.Und die kann man auch dafür verwenden. Und da kommt dann der Avatar.Also diese Persona kommt da praktisch, also auf der Selfie-Kamera ist immerder Avatar und das ist das einzige Video-Input, das die Apps haben können aktuell.Nur FaceTime selber kann auch Screensharing machen, aber das ist FaceTime selber,keine Third-Party-App da auf das.Und das heißt, da läuft halt dieser Avatar einfach und der funktioniert super cool im Raum.Also der ist so, je nachdem wo jetzt das Gegenüber beim Facetime steht,man hat also für Facetime, wenn man in der Apple Vision Pro Facetime macht,kriegt man ein Fenster, also ein Fenster, das dann aus mehreren.Unterfenstern besteht, mehr oder weniger, mehreren Untervierecken,aber das ist so eine Ebene, die man irgendwo im Raum platziert und dann hatman dadurch einen ganz klaren Punkt, wo man Leute angucken kann und wo man praktischauch sogar mit den Leuten interagieren kann.Also einerseits kommt deren Audio aus deren Richtung, das macht es nochmal räumlich und wirklich klar.Die Mikros von der Apple Vision Pro sind glasklar.Dadurch, dass sie irgendwie so viele weiß ich nicht, so viele Processing-Mikros haben wollen.Es ist ein FaceTime-Call, mit der klarste Gesprächs-Call mit der Apple VisionPro, den ich den ich je gehört habe. Also das ist wirklich super angenehm.Und dadurch, dass du die im Raum hast an der Stelle, kannst du halt auch mit denen interagieren.Das heißt, deine Hände, wenn du auf die Leute zeigst, werden eingeblendet beiFaceTime vor der Persona an der Stelle.Wenn du dich wegdrehst, drehst du dich halt auch weg von der einen oder anderen.
roddi 2:49:01
Also sehen die anderen, wen du anguckst?
Dominik Wagner 2:49:05
Die sehen, dass du halt wegguckst. Also dass du nicht sie anguckst,mehr oder weniger. Und du drehst dich immer in dieselbe Richtung weg.Also wenn du in einem Dreiercall bist und weißt, wer die andere Person ist,hast du schon ein Gefühl dafür, wenn die andere Person, also dass es jetzt dieandere Person ist, die angeguckt wird, ohne dass es Arbeiten ist oder Wegsein davon.Also alles, alles das macht FaceTime und das macht es schon auch erstaunlich gut.Dann mit diesen Mimiken und Abtastungen, die halt ein bisschen uncanny sind,aber doch sehr genau, passt es schon sehr gut.
Tim Pritlove 2:49:42
Ja, es ist schon wirklich Strangeland, aber cool.Es ist schon irgendwie cool.
roddi 2:49:50
Das Strangeland.
Dominik Wagner 2:49:51
Und wenn man jetzt nicht so drin ist in der Geschichte, finde ich auch spannend.Ich habe meine Eltern angerufen und die haben es erst mal nicht gemerkt.Also die hatten es halt irgendwie auf dem Laptop. Die haben eh selber die schlechteWebcam in die andere Richtung und hatten halt irgendwie schlechtes Licht.Die haben, also ich habe das denen gesagt, dass das jetzt, also die haben gesagt, neue Frisur.So. aber bis sie dann gecheckt haben, dass das wirklich eine Persona ist oderhalt ein bisschen creepier, hat es gedauert.Und ich glaube, das darf man auch nicht unterschätzen.Das ist, glaube ich, schon sehr adäquat und das wird auch noch viel besser.Selbst mit dem nächsten Update wird es wieder besser und da ist noch viel drin.Für mich ist, die Zukunftsfragen sind sehr spannend, was dieses Gerät angeht,weil ich weiß nicht, wann wir da hinwollen, noch nicht, wir sind noch nicht ganz durch.
Tim Pritlove 2:50:39
Ja, bei FaceTime gibt es ja noch so einen anderen Aspekt, weil du kannst jaaußerdem auch noch dein View,den du hast, sharen, quasi Screensharing und damit anderen Leuten einen Eindruckvermitteln, wie das vermutlich so gerade ist, was du so siehst.Also du kannst auch was weiß ich per Airplay auf dem Fernseher und dann kannstdu halt sich zumindest mit Leuten darüber unterhalten, was du da gerade tust,weil sonst kriegt ja keiner mit, was du siehst.Wobei dann halt so PIN-Eingaben und so weiter, die erscheinen dann da nicht.Also das ist halt auch wirklich interessant, da muss ich mich erstmal dran gewöhnen.Immer wenn man nach einem Passwort gefragt wird und man gibt sein Passwort an,dann steht das Passwort da im Klartext und da erschreckst du dann erstmal.So, oh, der Computer zeigt das Passwort ein, während ich das eingebe. Das geht doch nicht.Aber es sieht ja keiner. Es sieht ja auch keiner.Also irgendwie habe ich das komplett verstört, dass irgendwie Passwort,das sind immer diese runden Bubbles, die ich da eingebe.
roddi 2:51:47
Ja, man hat auch keine Vorstellung davon, wie ein Passwort ausgeschrieben aussieht.
Tim Pritlove 2:51:53
Das soll mein Passwort sein?
roddi 2:51:56
Guckt man das so an, so, hä? Hä?
Tim Pritlove 2:51:59
Das hab ich noch nie gesehen.
Dominik Wagner 2:52:03
Eine Sache, die wir noch gar nicht erwähnt haben, ist, irgendwie ist das Dingja auch gesichert und das macht einen Iris-Scan und hat Optik-ID,also nicht Face-ID und nicht Touch-ID, sondern deine Iris, deine Augen.Und an sich funktioniert das super, finde ich. Also das braucht ein bisschen,aber es klappt dann, also geht einfach automatisch und ist genauso wie die anderen IDs von Apple.Grundsätzlich ist ein bisschen das Problem, wie gesagt, wenn man das Telefonnicht unlocked hat und die Brille auf hat, dann kann man das jetzt nicht mitder Brille, mit deinem Optik-ID unlocken im Moment. Das ganze Ökosystem istnoch nicht komplett rund.Aber so grundsätzlich läuft es wie bei Face-ID.Das heißt, du musst noch ein, wenn du was kaufst oder so, musst du noch einenextra Input geben und das ist in dem Fall auf den Auslöser drücken. so.Also nicht auf die Crown interessanterweise, sondern auf den Auslöser, um es zu bestätigen.Und ansonsten ist es halt wie andere Biometrie-Geschichten bei Apple auch. Genau.
Tim Pritlove 2:53:05
Ja, interessant wird es natürlich jetzt,Ab wann wird es so eine Art 3D-Sharing geben? Weil du sharest ja nur eine 2D-Ansichtsozusagen von deinem View gerade.Und was man eigentlich möchte, ist natürlich gemeinsame dreidimensionale Räume teilen.Ich bin mir gar nicht so sicher, ob das so trivial ist.Wahrscheinlich nicht, weil wenn du jetzt sozusagen, also man könnte ja sagen,jemand anderes steigt per Immersion.Also ich könnte zum Beispiel deine Ansicht jetzt bei mir als Immersion reindrehen.Das wäre zum Beispiel eine Vorstellung so.
roddi 2:53:38
So Immersions-Sharing oder was?
Tim Pritlove 2:53:41
Naja klar, also ich wache.
roddi 2:53:42
Dom ruft mich an.
Tim Pritlove 2:53:44
Ist mit mir verbunden und sagt so, hier ist mein Raum, den die Kameras jetzterfassen und der ist dann bei dir aber quasi Immersion.Also ich kann den sozusagen Doms Raum, auf den er gerade schaut,kann ich mir so einblenden, als wäre das jetzt hier Mount Hood. Gut.
Dominik Wagner 2:54:04
Wäre an sich kein Thema. Müsste ich mich einmal im Kreis drehen,dann hätte er genug Informationen, um das rüber zu schicken.So fertig. Wird kommen, glaube ich, in irgendeiner Form.Es ist halt wahrscheinlich nicht hübsch genug, deshalb mag es Apple nicht.Aber grundsätzlich wird es gehen.
roddi 2:54:18
Aber das stelle ich mir cool vor. Du stehst vor dem Eiffelturm,dann drehst du dich einmal und rufst jemanden an. Hier, guck mal.
Dominik Wagner 2:54:27
Das ist die andere Geschichte, die ich gerne hätte. Ich würde gerne praktischin der 3D-Ansicht einfach von anderen Brille-Seiten fertig.Gib mir halt das, was du aufnehmen würdest in deinem Immersionsvideo direktals Stream. Das hätte ich gerne als Erlebnis.Was ja schon kurz davor ist, du hast es halt nur flach.
roddi 2:54:46
Ja und dann halt die Personas in 3D, aber da wird es wahrscheinlich gleich dreimalan, Kenny Oder sind die Personas schon an sich dreidimensional.
Dominik Wagner 2:55:00
Das ist ja schon so Du kannst nicht nach links und rechts gehen Ich hab malversucht meine Personheit zu verbessern und hab dann,ich hab gerade lange Haare und ich hab mal,weil die Frisur so komisch aussah, hab ich die nach hinten gehalten und dannwar meine Schulter praktisch so und da war diese Schulter als 3D-Geschichtein dieser Persona mit drin und mein Arm hing da immer so irgendwie ab,wenn ich meine Hände gezeigt habe, es sah ganz creepy aus.Also die haben so ein gefühltes 3D-Modell von deinem Oberkörper schon mit dem,was sie erfassen, weil die Finger und Hände haben sie ja dann auch, wenn sie anzeigen.Also es gibt schon von dem, was sie sehen, es könnte auch mehr sein und interpoliertwerden dann und da gibt es viel, aber was es halt überhaupt nicht gibt, ist,zusammen interagieren in irgendeiner Form, also sich gemeinsam einen Film angucken,geht angeblich mit Shareplay, habe ich noch nie ausprobiert,aber dann siehst du ja die andere Person nicht, dann schaust du nur denselben Film zur selben Zeit.So, du bist jetzt nicht in so einem gemeinsamen Erlebnis, so wie es bei Facebookund Quest schon länger geht, auch wenn es ein bisschen gimmicky ist,aber sowas gibt es halt im Moment gar nicht auf der Plattform.Und ich weiß auch nicht, ob da bald was kommt.
roddi 2:56:03
Naja, bei Apple haben dann wahrscheinlich die Leute aber von Anfang an auch Beine.
Tim Pritlove 2:56:10
Das wäre zu hoffen, ja.
Dominik Wagner 2:56:14
So, aber das FaceTime-Erlebnis war schön so per se und Audio,fandst du Audio nicht auch klasse?Also ich fand halt schon so die Audioqualität, die so die der so abgreift und Ich hab jetzt nicht.
Tim Pritlove 2:56:25
Glaube ich, nicht so viel FaceTime gemacht, um da wirklich mir eine Meinungbilden zu können, aber audiotechnisch habe ich sowieso überhaupt nichts auszusetzen an diesem Gerät.Also das war alles tippitoppi. Jetzt haben wir schon ganz lange über die Vision Pro geredet.Wir können jetzt vielleicht nochmal so Apps, also es gibt ja abgesehen von demStandardkram, gibt es ja auch noch ein paar Apps, die vielleicht schon mal soein bisschen zeigen, wo jetzt das frühe Interesse von Entwicklern liegt oderwo zumindest mit rumgespielt wird.Und die eigentliche Frage, die sich natürlich damit verbindet,ist, wofür kann man das Ding eigentlich gebrauchen und taugt es überhaupt irgendwasund warum sollte man sowas überhaupt haben wollen und will man sowas überhaupt haben?Also ich will sowas zum Beispiel gerade noch nicht haben.So beeindruckend ich das alles finde, aber das ist ja eben die Frage,was ist dann sozusagen auch der Nutzen?
roddi 2:57:23
Also nicht für 4K. Haben wollen würde ich es schon, aber nicht für 4K.
Tim Pritlove 2:57:28
Ich würde es haben wollen, wenn ich es benutzen will.Also das ist ja immer so diese Frage, du hast ein Mac, du hast ein iPad oderhast ein iPhone auf dem Tisch und deine Uhr, so, und jetzt willst du irgendwas tun. Was nimmst du?Welches Gerät nimmst du als erstes, um irgendwas zu tun?Oder was tust du, wenn du irgendein Gerät nimmst? Was tust du nicht,wenn du irgendein Gerät nimmst? Es gibt Dinge, die mache ich am liebsten auf dem iPad.Es gibt sehr viele Sachen, die mache ich auf dem Mac am liebsten.Es gibt Dinge, da ist nur das iPhone für gedacht und einen Timer stelle ichmir am liebsten auf der Uhr.Und genauso müsste es halt irgendwas geben für diese Vision Pro,wo ich so diesen Urge habe, so jetzt das Ding aufsetzen, weil dann, also vor allem wo man.Kein Problem damit hat, all diese ganzen Nachteile einzugehen mit der Entkopplungvon der Außenwelt, das Teil mit dem komischen Akku, den du da in der Hosentasche hast,den du erstmal irgendwie arrangieren musst und dieser komische Clip da und einschaltenund booten und okay, wenn das schon läuft, dann setzt du den auf, dann Optik-ID,dann bist du auch sofort eingeloggt, dann kann es auch sofort losgehen.Passt schon alles, aber es ist halt nicht so wie eine Uhr,die du immer am Arm hast und es ist auch nicht wie das iPhone,was du mal eben aus der Hosentasche ziehst oder ein Laptop, der dich einfachauf den Tisch die ganze Zeit anlächelt und sagt, benutze mich oder das iPad.Die Vision Pro muss immer erst in Betrieb genommen werden.Du hast immer erst so diesen Aufsetzen, Arrangieren, was mit meiner Frisurbrille,wie habe ich das richtige Setting.Okay, Und dann hast du sie auf und dann geht es eigentlich erst los.Es ist also nicht so dieser in einer Sekunde kann ich sofort anfangen mit irgendwas,sondern das ist auf jeden Fall erstmal eine Prozedur. Und da muss sich natürlich was rufen.Da muss irgendwas da sein, was du nur da so machen kannst und was es dir dannnatürlich auch wert ist.Sowohl jetzt die initiale Investition in Geld, als auch Wert in dem Moment diesenAufwand zu leisten und auch die potenziellen Nachteile einzugehen,die du natürlich zwangsläufig hast, wenn du so ein Ding aufhast.Und wenn man sich jetzt mal anschaut, was an Apps derzeit so da ist,meine Apple behauptet jetzt 600 Apps, keine Ahnung, die Hälfte davon sind wahrscheinlich Clocks.Also was sind sozusagen jetzt so die Anwendungen, die gerade da sind und dieandere Frage ist natürlich, was sind die Anwendungen, die einen sofort das kaufen lassen würden.
roddi 3:00:15
Also was ich mir vorstellen kann ist Anwendungen, die du gut verwenden kannst,wenn du die Hände nicht frei hast.Wo du dir was anzeigen lässt. Weiß ich nicht, wie es mit der Interaktion ist,aber im Prinzip Dinge, keine Ahnung.Kochbuch. Rezept.
Dominik Wagner 3:00:35
Kochbuch gibt es eins und diese Google Glass Reparaturanweisungen und sowas.
roddi 3:00:39
Sowas in der Art.
Dominik Wagner 3:00:41
Da hast du halt immer das Problem, das Ding ist zu balki auf deinem Kopf.Klar, du kannst damit kochen. Also die eine Technik hat du eh gemacht.
roddi 3:00:49
Vielleicht nicht die Generation, aber dann später. Also einfach Ich habe dieHände frei und kann aber trotzdem Informationen abrufen und mich auch gleichzeitigbewegen und irgendwo hingehen und so.Also das ist für mich ein Interaktionsmodell, was Sinn machen würde.Und das zweite ist auf jeden Fall halt auch,wenn ich irgendwas mit 3D-Druckern mache und vielleicht auch 3D-Modelle dannentwerfe, dann ist so eine Brille natürlich super.Super, machst das Modell, du kannst, wenn das entsprechend gut gemacht ist,sogar auf dem Druckerbad kannst du sehen, wie kommt das Teil da raus,wie sieht das dann aus, wie groß ist das und mit einem Tab kannst du dann denDrucker anwerfen, möglicherweise.
Tim Pritlove 3:01:42
Ja, also ich denke alles, was so mit 3D-Modellierung, 3D-Modellerstellung,also egal ob es jetzt gedruckt ist oder virtuell, das funktioniert.Selbstverständlich werden viele Leute, die so im Bereich Architektur,Wohnungsvisualisierung, Einrichtungen und so weiter, das sind glaube ich,Early Adopter potenzielle von dieser Kamera,weil ich vermute, dass dort im Application-Bereich sehr schnell was passierenwird, weil es halt teilweise auch Apps schon gibt, die eigentlich nur angepasstwerden müssen und die dann natürlich sofort davon profitieren.
Dominik Wagner 3:02:21
Also ich könnte mir auch vorstellen, so wenn du, weiß ich, so ein CAD-Programmwie Shaper oder so oder Onshape, wenn du das gut machst, dass du das in derBrille auch gerne lieber machst, weil das hat diesen 3D, du siehst es halt wirklich.Und wenn du eh parametrisch arbeitest, dann kannst du halt ein paar Zahlen eingebenund musst halt nur, das muss halt gut bedienbar sein.Aber Shaper3D, was Shaper3D auf iPad gemacht hat, das auch für Vision OS,dann hast du gewonnen eigentlich, weil das ist schon, das willst du haben, das macht schon Spaß.
Tim Pritlove 3:02:52
Was hat denn Shaper3D gemacht?
Dominik Wagner 3:02:55
Ein Interface, das man gut auf dem iPad mit dem Stift bedienen kann,das intuitiver ist ein bisschen als Autodesk und Shape.Es hat einfach wirklich eine iPad-spezifische Lösungen gemacht,mit einem Bedienmodell, das funktioniert.Und das kannst du halt mit eigentlich mit der,mit dem Eye-Tracking und den Gesten kannst du es genau genug machen, wenn du es gut machst.Was ich ein bisschen schade finde, ist, dass Onshape hat eine Vision Pro App,aber die macht halt gar nichts irgendwie.Also die ist halt so grottenschlecht, dass ich es nicht geschafft habe,meine Modelle, die ich mir so gebaut habe, in letzter der Zeit irgendwie inden Raum zu stellen, weil ich diese App nicht bedienen kann,weil da geht halt irgendwie nichts. So soll es nicht sein.Aber das ist schon auch eine.Schon auch eine Zielgruppe für sowas. Es ist aber alles noch Zukunftsmusik.Es ist wirklich, jetzt aktuell gibt es ganz wenig Apps, wo ich sagen würde,hey, dafür brauchst du das.Für mich ist es, glaube ich, eher so eine Geschichte, das ist jetzt eine Plattform,die Apple aufbaut und Apple wird den Atem haben, die zu halten.Und die wird jetzt noch eine Zeit lang vor sich hin verkümmern,weil was Geiles zu entwickeln, kostet auch geil viel Geld und so viele Leutehaben jetzt dieses Ding noch nicht, dass es sich lohnt.Und du kannst ja auch die App nicht für 150 oder noch mehr verkaufen.Das haben wir ja auch irgendwie den Leuten abgewohnt.Apps, die ich selber ganz gut finde schon, also wirklich, wo ich jetzt,ich habe gestern irgendwie einfach mal mindestens eine halbe Stunde auf dasHerz geguckt und habe dann erstmal verstanden, wie so der Flow durch das Blutins Herz so funktioniert und durch die Lunge und wieder zurück und so.Das ist halt eine freie App von diesen Herz-Apps und die Modelle in der Luftzu haben und anzugucken, ist einfach noch eine andere Qualität als nicht.Also sämtliche dieser teureren Apps, die jetzt einfach eine im Raum 3D-Visualisierungvon irgendwas, was du brauchst, also als Arzt, einem Menschen oder als Technikerirgendwie Bauteile oder sonst irgendwas.Also Chick ist zum Beispiel auch wirklich geil, da kannst du dir einfach soein 3D-Modell in den Raum stellen, in Originalgröße und dann auseinandernehmen,die Teile angucken und Texte dazu.Also das ist schon ein Anwendungsfall, wo so eine Mixed Reality-Brille wirklichSinn Sinn macht und das Erlebnis kriegst du nicht anders.Oder auch die Mars Rover App ist ziemlich schlecht leider, aber den Mars Roverso im eigenen Zimmer in Originalgröße zu haben, nochmal um zu sehen,ach, das ist ja doch ein Auto und nicht ein Matchbox Ding, ist einfach,schau doch mal, es ist eine Klasse von,einfach eine andere Qualität, dass du diese Original-Maßstab-Geschichten hast.Und für das, was Roddy gesagt hat, alles, was mit 3D-Druck zu tun hat,da ist Reality Kit und AR Kit so gut, wenn du dem die richtigen Maße gibst,dann kannst du das im Raum platzieren und es ist einfach genau das so supergeil. Finde ich auch schon cool.Aber brauche ich es konkret für irgendwas anders außer Spielen? Nee.Also ich schaue gern damit Filme und so und das wird auch so bleiben.Ich finde auch ganz gut, mich da zu bewegen dabei.Also dann praktisch so den Screen irgendwie zu haben und dabei aktiv irgendwie zu sein.Das ist okay, weil das Motion Blur beim Videogucken nicht so blöd ist.Also ich gucke viel im Stehen und Gehen.Interessanterweise nicht so viel auf der Couch. Auf der Couch nervt ein bisschen,dass dass die Klickerkennung und das Chips-Essen sich nicht so gut verträgt.Und da muss man sich praktisch erstmal die Bedienung ausschalten,bevor man da entspannt Fernsehen gucken kann.Also man kann ja auch die Bedienung auf nur linke oder nur rechte Hand stellen.Da kann man mit der einen Hand Chips essen. Das ist nicht schlecht,ohne dass da aus Versehen ein Klick erkannt wird.Oder man kann, und das sind auch ganz coole Features, so die Accessibility-Featureszum Pointer-Control heißt es dann.Da kann man umstellen, dass man halt nicht mit den Augen arbeitet,sondern entweder mit dem Handgelenk, das heißt ein Handgelenk zeigt irgendwie,das andere tippt und dann hast du mehr oder weniger so einen Pointer, so ähnlich wie bei iOS,also einen Kreis, den du irgendwo anzeigst, wenn du willst, kriegst du auchden 3D-Strahl gezeigt oder du kannst mit dem Finger zeigen irgendwo drauf oderdu kannst es so ganz hardcore machen, die Mitte des Bildschirms ist dein Zeigerund dann musst du halt den Kopf bewegen.Das ist für Accessibility gedacht, aber so kann man praktisch Situationen,die man nur temporär, indem man temporär nicht jetzt mit den Händen so vielauslösen will oder machen will, überbrücken. Das geht im Moment.
Tim Pritlove 3:07:25
Oder machen kann, ja.
roddi 3:07:28
Da hast du dann so ein Fadenkreuz wie bei einem Shooter oder wie ist das dann?
Dominik Wagner 3:07:32
Ne, das ist genauso wie der Mauszeiger bei iOS.
roddi 3:07:34
Also das mit dem Kopf?
Dominik Wagner 3:07:36
Mit dem Kopf ist halt in der Mitte, genau da ist nur der Mauszeiger,iOS Mauszeiger ist so in der Mitte vom Bildschirm und du musst halt den Kopfdann bewegen Das geht ganz.
Tim Pritlove 3:07:45
Gut tatsächlich also.
Dominik Wagner 3:07:46
Ich hab das mal eingeschaltet.
Tim Pritlove 3:07:47
Das ist okay also ich würde mit Augen ist schneller Mein Genick.
roddi 3:07:52
Tut mir da weh einfach nur bei der.
Tim Pritlove 3:07:55
Vorstellung Nee, ist nicht so schlimm weil du eine sehr gute Auflösung hastauch bei dem Kopfbewegung, du musst da nicht so hektisch hin und her gehen,das ist eine ganz Ganz einfache Kopfhörungen reichen da schon aus.Also ich würde es auch nochmal so zusammenfassen, was meiner Meinung nach derzeitAnwendungen sein könnten und die potenziell in der,in der Lifetime dieser Version 1.0 vielleicht noch eine Rolle spielen können.Also nochmal so im nächsten anderthalb Jahr bei Leuten einen Kaufanreiz auslösen könnten.Und das ist definitiv natürlich ganz klar, das haben wir jetzt schon mehrfachgesagt, Visualisierung, 3D-Visualisierung, wenn man da in irgendeiner Form einenBedarf hat, dann ist das halt einfach ein No-Brainer.Und Editing in gewisser Hinsicht auch.Das ist halt irgendwie Architektur, Wohnen, Kunst, also wenn ich das was weißich, für Blinkenlights,machst du eine Kunstinstallation im Raum, willst du irgendwo so was Großes irgendwoauf so einen Platz bauen, dann wäre es natürlich mega, wenn du eine Softwarehast, die sagen kann, so ja, hier zack, Alexanderplatz,dann das wäre natürlich der Knaller.
Dominik Wagner 3:09:06
Ist auch eine App, die es schon gibt, also für Designer und so weiter,klatscht dein Design an ein reales Objekt dran und dann musst du halt die Objektezahlen, also die hat auch ein Geschäftsmodell, das funktioniert so,also Also Milchkarton-Design.Da, fertig. Dann hast du Milchkarton in der Hand mit deinem Design.
Tim Pritlove 3:09:23
Ja, okay. Aber das sind ja immer so Objekte. Es geht mir jetzt richtig auchum diesen ganzen Immersions-Kram.
Dominik Wagner 3:09:29
Objekte und Gegenden auch sind es da. Also Litfaßsäulen und so Zeug auch.Okay, aber so in die Stadt rein.
Tim Pritlove 3:09:35
Also wirklich so large scale. Wie auch immer. Also es wird es in allen Variantengeben und ich glaube, dass das einfach das ist dann auch konkurrenzlos.Also dann ist das einfach auch die die beste Möglichkeit, sich sowas anzuschauenund ein Gefühl dafür zu bekommen, sind unsere Entscheidungen richtig.Da kommt es ja manchmal auf so gefühlte Sachen an. Wie groß bauen wir das? Ist das groß genug?Wirkt das zu wenig? Ist das zu groß? Solche Entscheidungen sind sehr schwermit Visualisierung im Zweidimensionalen zu machen, wenn du auch die Bezugsgrößedeiner Umgebung nicht wirklich dabei hast.Und das ist halt das Coole, dass du sozusagen das zusammenbringen kannst.Da kann ich mir das also schon vorstellen. Dann eben, was auch schon anklang, so Remote Assistance,also wenn jetzt irgendwie jemand repariert was und du brauchst aber Expertiseund dann könnte sich jemand sozusagen in deinen View einklinken,so Streaming, Facetime würde ja in dem Moment schon reichen und du kannst dannhalt auch wirklich auf Dinge vielleicht auch zeigen und markieren oder so,das ist ja jetzt noch nicht möglich,um Leuten irgendwas beizubringen.Ja, da kannst du irgendwie in der Ukraine den Piloten da irgendwie noch Assistancegeben oder den Leuten, die irgendwas reparieren, Assistance geben, so eine Sachen.Also mit Militär will ich jetzt gar nicht erst anfangen, aber generell die RemoteAssistance, ob das dann im medizinischen Bereich ist oder Reparaturbereich,Technik und im weiteren Sinne, was du ja auch schon erwähnt hast,so Training, Education.Lernen, 3D-Modelle, interaktive Sachen, Sachen, wo du halt Dinge auseinanderschälen kannst und dir wirklich dreidimensional anschauen kannst.Das ist ja bei dieser Jig-App auch so, dass du so Teile wegnehmen kannst,also wirklich vorstoßen kannst in Bereiche und das ist definitiv etwas, was damit geht.Und dann halt wie vorhin schon erwähnt, Sport denke ich mal,wird eine Rolle spielen.Mir ist noch nicht so ganz klar, was die beste Sache ist, aber du kannst natürlichjetzt auch so Stadionperspektiven einnehmen.Also wenn es möglich ist, sozusagen eine Live-Übertragung mit 180 Grad odermeinetwegen auch noch mehr.Zu machen und dann hast du eben so diese Stadionperspektive,was sozusagen den Vorteil hätte, dass du eben das ganze Spiel sehen kannst,während du heute immer nur so Kamera-Ausschnitt hast.Oder so eine mega totale, auf der du nichts erkennen kannst.Aber wenn du nah genug dran bist, um das Detail zu verfolgen,aber trotzdem jederzeit nach vorne und nach hinten gucken kannst und immer irgendwieso das Spielfeld beobachten kannst,ich glaube, das könnte ganz interessant werden und das ist auch definitiv einBereich, wo ich vorher eher skeptisch war und wo ich jetzt mir denke, okay,maybe there's something to it.Für mich persönlich wäre natürlich die Killer-App Google Earth.Beziehungsweise fände ich ja mal, jetzt wäre es ja mal Zeit für Apple da malButterbeigefische zu machen, weil die haben ja im Prinzip die gleichen Daten.
roddi 3:12:46
Apple Earth.
Tim Pritlove 3:12:48
Also das wäre,das Beste, wobei ich dann so meine Zweifel habe, dass die Eingabemethodiken ausreichen.
Dominik Wagner 3:13:00
Das ist eine gute Frage.
Tim Pritlove 3:13:03
Also da hätte ich schon doch lieber gerne meine Space-Maus.
Dominik Wagner 3:13:07
Was du ja auch machen kannst, also du kannst ja auch eine Maus und eine Tastatur,also ein Trackpad und Tastatur pairen, du ziehst ja auch durch,du kannst ja reale Dinge nutzen, das ist ja nicht ausgeschlossen.Ich meine, das ist auch eine andere Geschichte, die ich noch vergessen habe,die wir noch vergessen haben, wenn du den Mac pairst,dann hast du nicht nur auf dem, also wenn du den Mac-Bildschirm verbindest,dann hast du nicht nur auf dem Mac-Bildschirm deine Tastatur und Maus,sondern auf allen Apps, die du anguckst,kannst du auch mit dem Trackpad deine Maus bewegen und das ist halt die klassischeiOS-Maus-Bedienung, die du benutzen kannst und die Tastatur direkt verwenden.Du kannst praktisch ein Laptop auch als Eingabegerät benutzen für deine,Vision Pro Apps.
Tim Pritlove 3:13:54
Ja, ich habe so ein bisschen meine Zweifel, dass die Space-Maus noch zu hörenweinkommt bei Apple, aber tatsächlich wäre...
Dominik Wagner 3:14:03
Mir ist die letztens untergekommen, bei den 3D-Modeller-Geschichten ist dieauch ganz happy freund und wird auch unterstützt.
Tim Pritlove 3:14:11
Ja, natürlich, das ist ja die Zielgruppe.Wenn es möglich wäre, eine Space-Maus in dieses Produkt noch zu integrieren,also dass man sozusagen ein Ich-Kann-Mit-Meiner-Hand-in-Jede,in jede Richtung Beschleunigung bewirken.Das ist ja im Prinzip das, was die Space Mouse macht. Du kannst das Ding ziehen,drücken, in jede Richtung, Rotation und so weiter.Also allein als Model Interface, also eigentlich müssen sie das sogar irgendwieunterstützen, fällt mir dabei ein, weil diese ganzen 3D-Programme brauchen jagenau das Gleiche, weil da kannst du dann nicht die ganze Zeit irgendwie in der Luft,rumwirbeln und mit den den Fingern irgendwie rumziehen. Wie sieht denn das aus?Also, naja.
Dominik Wagner 3:15:08
Ja, mal sehen. Aber da ist noch eine andere Geschichte, die wir jetzt noch nicht erwähnt haben.Also jenseits der Bedienung, die wir jetzt beschrieben haben und der direktenInteraktion mit mal drauf tippen, gibt es schon auch noch Handtracking per sefür Apps, die in den Immersionsmodus gehen.Das heißt, Apps können auch das Handtracking komplett benutzen und eigene Erkennungmachen auf dem Handskelett über ARKit,aber nur, wenn sie als immersive App die einzige App sind, die gerade am Startsind. Das ist auch so eine Privacy-Einschränkung.Und ich muss sagen, dass diese Handerkennung jetzt nicht so berauschend wirkt.Also die ist schon okay, aber die ist ein bisschen laggy.Das kann natürlich daran liegen, dass das,die Art und Weise, wie ich das jetzt mal programmiert habe an der Stelle,aber ich habe es auch bei den Spielen und bei den Apps so gesehen, es geht so.Also das ist nicht so schick. Da ist jetzt die Quest jetzt auch nicht schlechter so per se, glaube ich.Und vielleicht sogar besser.Und es ist auf alle Fälle dieses direkte Interaktionsmodell mit dem Handskelettist so ein schwierigeres. Das ist ein bisschen schade. Also da hätte ich mir noch mehr erwartet.
roddi 3:16:19
Glaubst du, wir werden Controller sehen?
Dominik Wagner 3:16:22
Nee, man kann Controller verwenden, aber es gibt keine extra Controller,wird Apple nicht machen.Also du kannst ja Playstation-Controller und Game-Controller halt verwenden.
roddi 3:16:30
Nee, ich rede jetzt nicht von Game-Controllern in dem Sinne,sondern das, was bei der Quest mit dabei ist zum Beispiel.
Dominik Wagner 3:16:36
Ja, nee. Nee. Also von Apple und der Garantie. So wie sie bei Gamecontrolleram Anfang sich geweigert haben.Also von Apple. Selbst die Unterstützten. Also andersrum.Es ist technisch natürlich möglich, auch die zu unterstützen, die da sind.Und ich glaube, wenn sie irgendwas machen, dann, weil sie merken,der Spielemarkt bricht ihnen weg und wir machen so ein billiges Produkt,hätten gerne Spiele auch,dass sie den populären Game-Controller unterstützen, der halt diese Form hatvon Flag, also den man halt Third-Party-mäßig kaufen will, wenn es einen gibt.Aber sie werden nichts selber machen.Die sind da dagegen. Definitiv.
Tim Pritlove 3:17:14
Das glaube ich auch. auf.
Dominik Wagner 3:17:18
Insgesamt, diese Zukunftsgeschichten ist halt schon spannend und wenn wir schonan der Ecke sind, da würde ich darauf eingehen wollen, von dem,was du am Anfang gesagt hast, ja beim ersten iPhone und beim ersten iPad und so weiter.Das Problem ist, das erste iPhone und das erste iPad war im Verhältnis nichtso viel teurer als der Rest und die nächste Generation muss trotzdem besser werden.Also die Vision Pro hat ein bisschen das Problem, dass die nächste Generationtechnisch definitiv noch besser werden muss als die hier.Und sie muss irgendwann mal in einem Preissegment ankommen, wo es Kunden hat.Also das ist im Moment so, das ist ein Luxusgut hoch 10, dass es spannend genugist an der Stelle, aber das muss eingedampft werden auf unter 1000.
roddi 3:18:00
Ja, welches Feature lassen sie los?
Dominik Wagner 3:18:02
Es darf aber nichts losgelassen werden, wir brauchen alles.Die Sensoren dürfen nicht schlechter werden, das Audio darf nicht schlechterwerden, die Auflösung darf nicht schlechter werden, also nichts darf schlechterwerden. Insofern, nur die Zeit wird es retten.Apple hat den Atem, aber ich rechne schon mit zwei bis drei Jahren, bis da eine,bis dann mehr Massenmarkt kommt. Also das ist so ein bisschen die seltsame Geschichte,die ich damit finde, weil es ist jetzt schon ein geiles Produkt,aber kein, nicht geil genug und es hat nicht genug Nischen so an der Stelle.Also nur über den Atem kann Apple das, glaube ich, wirklich aufrollen,weil und ich weiß auch nicht, wie viele Entwickler dann bis dahin mitspielen.Also diese Investitionen zu machen, hier ein externes Produkt für zu machen,für so einen kleinen Markt, puh.
roddi 3:18:49
Ja, schau dir Apple TV an, gibt's ja auch nichts für im Wesentlichen.Also außer halt diese ganzen Television-Apps, die gibt es halt fürs Apple TV,aber dann so ein paar halbherzig portierte Spiele.Aber, ne?
Dominik Wagner 3:19:07
Jaja, bei Apple TV ist das ein anderer Grund irgendwie. Die Plattform hat haltden Zug da verpasst, im Sinne irgendwie spannend zu sein.Günstig genug wäre ein Apple TV schon, wenn es Spiele gäbe. Aber das Ding isthalt nicht günstig genug.Wenn das nicht weniger als 1000 kostet, dann haben das zu wenig Leute dafür,dass es sich lohnt, große Entwicklungen zu machen für kleines Geld oder in irgendeinerForm in diesem Apple-Modell. Also da habe ich schon ein bisschen Sorge.
roddi 3:19:32
Ich hätte es gerne.
Dominik Wagner 3:19:33
Weil ich finde das Ökosystem, das sie geschaffen haben und auch die,also nicht das Ökosystem, sondern das Interaktionsmodell, das sie geschaffenhaben, also das, was sie jetzt da hingelegt haben, ist eine Plattform.Ich würde die Plattform gerne mit Erfolg sehen, aber ich weiß nicht,bis wann es dauert, bis sie das hat. So, da bin ich nicht so optimistisch.
roddi 3:19:53
Naja, ich kann mir vorstellen, also sie haben die erste Vision ja ganz offensichtlichPro genannt, weil Pro heißt bei Apple ja nicht Professional, sondern nur teuer.Und dann kann ich mir vorstellen, dass sie in drei Jahren oder sagen wir zurdritten Generation dann die nicht Pro bringen,wo dann ältere Hardware verbaut ist, die halt in der dann dritten Generationirgendwie immer noch, wo sie immer noch rechtfertigen können,warum das dann pro Modell immer noch so viel kostet.
Dominik Wagner 3:20:29
Ja, aber was passiert denn bis dahin? Also, ich glaube nicht,dass es viele Apps geben wird, die da viel investieren. Die Sport, also,Sportübertragung und so weiter. Es gibt ein paar Nischenmärkte,die machen das wahrscheinlich. Apple selber macht natürlich so,aber so puh, also ich glaube, ich würde jetzt nicht sagen, hey,mach mal, also ich selber würde was dafür machen, weil ich es will, weil es Spaß macht, so.Also, ich empfinde immer so dieses, es gibt ja auch so eine Guitar Hero Style Piano App.Sowas hätte ich auch gerne gemacht und die ist recht schlecht, die es gibt.Die auf der Quest ist übrigens relativ gut sogar inzwischen.Die heißt irgendwie Piano Vision.Aber für den Consumer-Markt ist das halt nicht.Mal schauen. Es wird spannend. Ich glaube, Apple hat den,hat den Atem, das durchzuhalten und die werden es machen. Aber ich glaube, es dauert länger.Es dauert wirklich drei, vier, fünf Jahre, bis das in irgendeiner Form dem Produkteinfach mal vorhanden ist.
Tim Pritlove 3:21:34
Mit der Zeit ist es schwierig. Wir haben ja diese populären Vergleiche mit irgendwie,was ist denn sozusagen das Apple-Produkt, was als es rauskam,so vergleichbar ist mit seinem Stand im Markt.Und ich würde sagen, Die Lisa eben.
roddi 3:21:54
Das ist aber zu lange her, das kann man eigentlich nicht mehr vergleichen.
Tim Pritlove 3:21:57
Ja doch, ich hätte jetzt gesagt der Original Macintosh, weil da war es im Prinzipgenau dieselbe Situation.Sie haben einen unheimlichen Aufwand getrieben, sie haben ein System rausgebracht,was komplett anders war als alles, was bis dahin galt.Ja, ein Computer, den du nicht mit der Tastatur über Kommandos steuerst,der einen weiß-schwarzen Bildschirm hatte mit einer Maus und mit einer Floppy-Diskund also 3,5 Zoll. Ja, Lisa, also egal.
Dominik Wagner 3:22:27
Wegen dem Preis und der Größe die Lisa und dann der Macintosh ist dann die Vision. Genau. So in der.
Tim Pritlove 3:22:32
Ja genau, könnte man auch noch machen. Aber ich wollte ja darauf hinaus,was hat dann letzten Endes den Macintosh zum Erfolg werden lassen?Und das war halt Photoshop und später QuarkXPress.Desktop Publishing, das istdas Segment, das ist die Tür, die sie aufgestoßen haben, das war das Neue.Innerhalb kürzester Zeit hattest du in Werbeagenturen und Verlagen überall Macintoshesstehen während der Rest der Welt von dieser Maschine keine nennenswerte,Kenntnis genommen hat außer natürlich ein paar Die-Hard-Nerds,die sich irgendwie jeden Kram kaufen mussten aber das war das Segment,was sie sozusagen dadurch begründet haben und das haben sie in dem Sinne auchnicht geplant so wie für den Apple 2 und auch für DOS,Spreadsheets Visikal und Lotus 1, 2, 3 absolute Treiber waren und überhaupterstmal die Legitimation der Existenz ihrer Plattform überhaupt geliefert haben.Weil es da einfach einen Bedarf gab und weil Leute gesagt haben,mir ist das scheißegal, was ein Computer kostet, wenn der Zahlen ausrechnenkann in so einer XY-Spalten-Geschichte, dann kann ich irgendwie,dann kann ich meine ganze Firma komplett anders betreiben, als ich es bisherhergemacht habe, ist mir egal, was der Computer kostet.
roddi 3:23:54
Multiplan auf dem Apple II war glaube ich das erste.
Tim Pritlove 3:23:58
Multiplan, VisiCalc war glaube ich das erste.
roddi 3:24:00
Oder VisiCalc, ja kann auch sein.
Tim Pritlove 3:24:02
Und,Und genau so etwas braucht jetzt auch die Vision Pro, weil Apple hat es sozusagenplatziert als, wir sind zwar irgendwie so ein Headset, aber wir benutzen das Wort gar nicht.Wir definieren hier eine Computing-Plattform und nicht irgendwie ein Gaming-Device.Wir haben ein komplett eigenes Interaktionsmodell, wir haben ganz andere Artenund Weisen, wie das hier bedient wird und so wie wir die Maus erfunden habenund wie wir Multitouch auf den Markt gebracht haben,haben wir jetzt hier irgendwie Pinch und also Stimme, Stimme,Auge und Finger sind auf einmal der Controller für dein System.Und dann halt so alles in brauchbarer Qualität, genug Sensoren und jetzt istes eigentlich so die Wette, die auf dem Tisch liegt mit,so liebe Entwickler, jetzt lassteuch mal was einfallen, wir wissen auch nicht, was die Killer ab ist.Wir haben eine gewisse Idee und wir haben drei, vier, fünf Sachen wie bei derWatch auch schon rausgeguckt.Erinnere dich, bei dieser Watch, was da am Anfang alles probiert wurde,hier mit irgendwie Herzschlagteilen und diese ganzen Kommunikationssachen,die sich nie durchgesetzt haben.Aber am Ende waren halt Notifications allein schon mal ganz interessant undirgendwie Timer und dann vor allem halt Fitness-Tracking. ging.Das war halt der Grund, warum sich die Leute diese Uhr gekauft haben.Sport. Das war halt das Ding.Und das hat diese Watch in den Markt geholt und dann haben sie auch zugesehen,dass sie da das immer weiter verbessern und dafür ist die halt auch wirklich wirklich gut.Und genauso wird es jetzt bei der Vision Pro laufen. Es wird irgendwas rauskommen.Was diese Fähigkeiten dieser Plattform nutzt auf eine Art und Weise,um dabei was Neues zu produzieren oder irgendetwas auf eine bestimmte Art undWeise viel besser zu machen, als man das bisher mit was anderem machen konnte.Und dieser ganze 3D-Modellierungs- und Visualisierungsbereich ist ein heißer Kandidat dafür.Sicherlich auch irgendwelche Kommunikations-Interaktionsmodelle im Bereich Training,Education, Kommunikation. Kann ich mir sehr gut vorstellen, dass da irgendwas passiert.Und vielleicht ist es auch der Sport und vielleicht ist es auch am Ende Kinogucken. gucken. Vielleicht funktioniert das auch schon. Das ist, sagen wir mal,dieses Filmgucken ist so die, ich würde nicht sagen, die niedrig hängende Frucht,aber das ist so, dass das versteht jeder.Also du musst keinem mehr erklären, warum man Filme gucken sollte.
Dominik Wagner 3:26:39
Also die Geschichte dahingehend sei vielleicht nochmal gesagt,also der Screen für Filme gucken ist schon extrem gut auch.Also ich habe ja zumindest davor nochmal versucht mit der Quest 2 das mal zumachen, die war noch viel zu schlecht, aber die Quest 3 macht auch weniger Spaß.Also das Mehr an Pixel, das man in der Density hat, ist für Filme gucken schon auch nochmal cooler.Also es ist schon auch die erste Brille, mit der ich Filme gucken will,die ich aufgesetzt hatte, weil mit den anderen wollte ich immer nur eher Spielespielen, weil das halt ein Novum ist.Aber mit der will ich auch einen Film gucken, weil die Qualität gut ist, was ich da sehe.
roddi 3:27:19
Also ich sehe es ja eher in Interaktion mit 3D,ob das jetzt Spiele sind oder ob das tatsächlich ich baue CAD-Modelle, ich,bin in der Lage, die besser im Raum zu verorten und besser zu verstehen,was habe ich da eigentlich modelliert, wie sieht das aus, wenn es bei mir auf dem Tisch steht.Das ist für mich der heiße Kandidat.
Tim Pritlove 3:27:43
Aber es ist natürlich kein Massenmarkt.
roddi 3:27:45
Ja, aber passiv 2D mit so einer Brille, ja, Ja, das mag zwar ganz nett seindamit, aber da muss sie schon sehr viel billiger sein.
Tim Pritlove 3:27:56
Filme gucken meinst du?
roddi 3:27:57
Ja, Filme gucken. Dafür muss sie schon sehr viel billiger sein,dass das ein echter Treiber für Verkäufe wird.
Dominik Wagner 3:28:04
Und auch weniger personalisiert irgendwie. Du hast ja wieder dieses Modell,dass pro Person ein Gerät bitte, und das ist bei der Größenordnung vom Preishalt einfach nicht okay.
roddi 3:28:13
Das ist bei Kommunikation genau das Gleiche. Also ich meine,wenn sich zwei Leute mit Vision Pro unterhalten wollen und was zusammen machenwollen, dann legst du erstmal 8.000 Euro auf den Tisch.Das ist natürlich erstmal irgendwie, ja, muss man irgendwie.
Tim Pritlove 3:28:30
Weißt du auch, es gibt Leute, für die ist das keine nennenswerte Investition.
roddi 3:28:35
Ich weiß, solche Leute, aber dann reden wir aber auch nicht von Massenmarkt.
Tim Pritlove 3:28:39
Nee, es geht ja auch nicht erstmal um den…,Massenmarkt, sondern es geht darum, dass so ein neues, also das mit den Filmenist, sagen wir mal, nur so die Reizwäsche, die einen erstmal sozusagen für diesePlattform, die eine gute Ausrede liefert, sich diese Plattform zuzulegen.Du kaufst dir diese Brille und dann kannst du Filme gucken.Und wenn du irgendwie regelmäßig Business Class im Flugzeug fliegst und irgendwiedeine 4-5 Stunden Flüge hast, dann kostet dich das Ding so viel wie ein Ticket.New York, Paris und das geht sozusagen in deine Gesamtinvestitionen komplett unter.Das sind halt die Leute, die dann erstmal einfach mal kaufen und die sich daimmer schön einreden können, okay, das reicht mir jetzt allein zum Film gucken.Jetzt läuft die Zeit weiter und Entwickler kommen halt mit neuen Ideen und dannist halt eben die Frage, gibt es so einen Photoshop, VisiCalc, QuarkXPress Moment?Gibt es irgendwie so eine App, die da halt was definiert und dann kann das ebendiese Kamera in die nächste Generation bringen.
roddi 3:29:52
Aber von den Leuten, von denen du sprichst, die haben sich auch damals die Newtonsgekauft und da ist nie was bei rumgekommen.
Tim Pritlove 3:29:59
Ja gut, aber der Newton war auch nicht im Ansatz so gut gemacht wie das Teil.
Dominik Wagner 3:30:04
Also was ich mir wünschen würde an der Stelle wirklich, was diese Reise gewinnenwürde, wäre irgendwas, was praktisch mit diesem Interaktionsmodell im Raum einfachwirklich was Neues macht.So wie Spaghetti Computing für Shader, sowas für andere. Also es ist wirklichso, du arbeitest mit einem 3D-Objekt und erzeugst damit geiles Zeug, wie auch immer.Also so eine App, die es halt einfach noch nicht gibt.So eine VJ-App, die aber im Raum arbeitet und es mehr Sinn macht, im Raum zu sein.Ich finde, da hat die Vision Pro Potenzial, weil sie alle Sensoren hat und alleAuflösungen dafür, sowas zu machen.Aber das gibt es halt noch nicht. Es gibt halt das Programm noch nicht.Das Äquivalent zu Photoshop für den 3D-Raum gibt es halt noch nicht.Und das würde ich gerne sehen, das wäre mir am liebsten, weil da warte ich drauf.Ich warte schon so lange drauf auf so eine größere, das ist jetzt mal eine geileSache, die jetzt mit neuer Technologie, nur mit neuer Technologie funktioniert.
roddi 3:31:13
Aber das Beispiel Photoshop ist insofern recht schön, du hast ein Tool,was in der virtuellen Welt funktioniert.Und du produzierst aber etwas damit, was in der nicht virtuellen Welt verwendetwird, nämlich das Druckerzeugnis.Und ich glaube, dass die Vision, wenn sie sich beweisen soll,muss diesen Medienbruch zwischen virtueller und echter Welt hinkriegen.Deswegen sage ich halt, 3D-Modeling aller Art kombiniert mit Rapid Prototyping,3D-Drucker aller Art, ist glaube ich ein schöner Knackpunkt.Wenn Apple diesen Markt irgendwie auch nur halbwegs anknacken kann,dann haben sie einen Gewinner an der Stelle.
Dominik Wagner 3:32:01
Ich habe so ein bisschen das Gefühl, der ist nicht groß genug,aber es wäre natürlich auch, es wäre ganz schön.
roddi 3:32:09
Ja, aber wie viele Leute haben denn jetzt schon einen 3D-Drucker?Ich meine, das kommt doch auch immer mehr in den Massenmarkt.Und wenn die 3D-Drucker erstmal ordentlich im Massenmarkt sind,dann kommen auch die, wie komme ich denn zu dem Kram, den ich ausdrucke?Das muss doch auch dann irgendwie mit in den Massenmarkt tröpfeln.
Tim Pritlove 3:32:33
3D-Drucker im Massenmarkt?
roddi 3:32:35
Räumst du?
Tim Pritlove 3:32:37
Was, Marc? Du meinst, Saturn verkauft 3D-Drucker?
roddi 3:32:42
Würde ich mich jetzt nicht wundern, wenn du bei Saturn in einer Ecke auch 3D-Drucker findest.
Dominik Wagner 3:32:47
Also nur mal, um dich mal in meinen Relativ zu halten, mein Kleiner hat eineEinladung mit einem 3D-Druck bekommen, so zu einem Geburtstag.Und ich weiß nicht, wie nerdy die Familie wirklich ist. Ich muss mal nachfragen.Wirkt er nicht so nerdy? Also es ist erstaunlich, erstaunlich Massen.Und ich bin mit meinem Neukauf von meinem 3D-Drucker in eine Runde gekommenund dann war das, ach so, ja.
Tim Pritlove 3:33:13
Also das kommt vielleicht mal so Copyshop-mäßig, dass da die 3D-Drucker rumstehenund du dann mit deinem Modell da hinkommst und das machst, aber dass das jetzt irgendwie alle machen.
roddi 3:33:21
Also es ist mehr Massenmarkt als die Leute, die beim Business-Flug irgendwieeinen Film gucken wollen.
Tim Pritlove 3:33:27
Was?
Dominik Wagner 3:33:27
Also Leute wissen, es ist wie Copyshop früher. Ja, definitiv.Leute wissen das und nutzen das sowieso.Man macht es halt jetzt. Man druckt sich halt jetzt 3D-Zeug.
Tim Pritlove 3:33:37
Okay, gut. Da sind wir in der falschen Generation inzwischen.
Dominik Wagner 3:33:41
Wir sind alt.
roddi 3:33:42
Im Chat schreibt einer Aldi. Also wenn es 3D-Drucker bei Aldi gibt,dann ist es Massenmarkt.Es gibt kein anderes Kriterium für Massenmarkt als Aldi.
Tim Pritlove 3:33:55
Konrad verkauft 3D-Drucker. Natürlich Konrad. Konrad verkauft auch Widerständeund und komplizierte Geräte als so.
roddi 3:34:01
Ja, Konrad ist weniger ein Kriterium.
Tim Pritlove 3:34:03
Ja, nee, das muss schon was sein.
roddi 3:34:05
Aber wenn die Dinger bei Aldi stehen, dann ist es Massenmarkt.Also das kann man dann nicht mehr wegdiskutieren.
Tim Pritlove 3:34:12
So, haben wir denn noch irgendwas zu sagen eigentlich zu unserer Headset Experience?Ich glaube, wir sind so ein bisschen an dem Punkt angekommen,wo sich nicht mehr sehr viel sagen lässt.Oder es ließe sich noch viel sagen, aber nichts Neues.
Dominik Wagner 3:34:29
Ich weiß nicht, ob wir wirklich noch was haben, was wir loswerden wollen dazu,also ich find's nach wie vor, also ich find's,Ich finde es super spannend, vielleicht, es klingt jetzt so negativ,dass ich den Markt nicht so sehe und was auch immer, aber es ist so,seit längerem wieder so das erste Produkt,wo ich sehe, wie geil es noch werden kann, weil alle Aspekte noch viel besserwerden können, so an der Stelle und auch müssen und trotzdem so die Initialzündungschon so viel Spaß macht, dass es für mich, also es ist so ein,als Hobbyding ist es irgendwie cool.
Tim Pritlove 3:35:07
Okay, ich gebe auf. Der Chat hat gerade Aldi verkauft, 3D-Drucker.
Dominik Wagner 3:35:12
Du hast es nicht geglaubt, oder was?
Tim Pritlove 3:35:14
Nee.
Dominik Wagner 3:35:15
Das war kein Chat. Also gerade die Bamboo-Geschichten und so,die haben halt einfach, wenn die so ein Enclosure haben, dann muss man auch wenig können.
Tim Pritlove 3:35:24
Dann halt 3D-Druck, meinetwegen.
roddi 3:35:27
Also ich sage jetzt nicht, jeder muss das jetzt machen.Aber ich sehe das Phänomen schon in der Masse ankommen. Und warum auch nicht? Macht ja sicher Spaß.
Tim Pritlove 3:35:39
Ja, nee, ist in Ordnung.Also vielleicht mal so nochmal von oben herab.Ist das jetzt sozusagen ein bold Move, den Sie da gemacht haben? Ja.Ist es etwas, was ich kaufen würde gerade für mich, weil ich für mich da eine Anwendung sehe?Nee, derzeit noch nicht. Also nichts hat mich jetzt so gereizt und als ich dasDing, nachdem ich mich 24 Stunden damit beschäftigt habe,Gab es jetzt nichts, wo ich mir gedacht habe, so, oh, schade,dass ich die jetzt nicht im Zugriff habe, jetzt würde ich aber gerne nochmaldas, also abgesehen von, ich beschäftige mich damit, um zu verstehen,was es ist, so einfach so von der Anwendung her,gab es jetzt nichts, wo ich sagen würde, das brauche ich aber jetzt unbedingtirgendwie in meinem Leben.Hat auch ein bisschen was damit zu tun, dass ich jetzt nicht so ein extensiver Filmgucker wäre.Da wäre das schon vielleicht ein bisschen anders.Und natürlich hätte ich gerne etwas, was ist wie Google Earth.Also ich meine, wenn Apple mal Apple Maps einfach so wie Google Earth baut fürdie Vision Pro, dann kaufe ich mir aber eins für jeden Ort.
Dominik Wagner 3:36:55
Wo ich wohne.
Tim Pritlove 3:36:56
Also das ist, ja, verstehst du?
Dominik Wagner 3:36:59
Was machst du da eigentlich immer so drin? Du schaust dir die Erde an,anstatt sie abzufahren.
Tim Pritlove 3:37:06
Ich, also für mich, mir hilft es einfach sehr, die Welt zu verstehen.Also ich, wenn ich so News wahrnehme, irgendwas ist irgendwo passiert, dann fliege ich da hin.
Dominik Wagner 3:37:19
Also das fände ich insgesamt auch einen guten Content News mit,du bist an dem Ort dann ein bisschen, du hast ein bisschen den Kontext im Sinnevon, das sind die Leute da, das sind die Orte, das sind die Gebäude, das ist so die Stimmung,das ist die Farbe des Himmels oder wie auch immer so als Immersive Experience,nur damit du nicht nur diese komische Zahl hast oder so.Also das könnte ich mir auch noch gut vorstellen als, ist ja mehr Educationinsgesamt, aber so einfach so als, man will es dann nicht mehr nicht haben.Wenn man mal irgendwo vor Ort gewesen sein kann, um es zu sehen,anstatt so ein flaches Fernsehbild, vielleicht ist das was.
Tim Pritlove 3:37:59
Ja, aber ich meine, dass sie...Also das wäre ja geradezu eine Unterlassung, dass sie jetzt mit ihrem Maps-Produktnicht irgendwie diese Vision Pro erschließen.Also wenn sie das nicht kombiniert bekommen, dann können sie den Markt auchgleich wieder verlassen.
roddi 3:38:19
Naja, aber das Maps-Team von Apple sind doch Jagdhunde, die man zur Jagd tragen muss.Also die sind ja irgendwie immer drei Jahre hinter State of the Art gewesen.
Tim Pritlove 3:38:31
Das ist nicht ganz richtig. Also sie sind bei vielen Sachen vielleicht später.
roddi 3:38:35
Wie viele Jahre haben die gebraucht, um die Anzahl der Flughäfen in Berlin richtig hinzukriegen?Ich glaube zehn oder so?
Tim Pritlove 3:38:43
Ja, gut.Content-Problematik nochmal separat, aber rein von dem visuellen und vom dreidimensionalensind sie zum Beispiel deutlich besser als Google Earth. Also klassenbesser.
roddi 3:38:58
Ja, okay.
Tim Pritlove 3:39:28
Das mit der Vision Pro zu verbinden. Weil dann kannst du dich halt wirklich,dreidimensional irgendwo hinbewegen.
roddi 3:39:36
Für Vision OS 2 und für Vision OS 3 braucht Apple ja auch noch ein paar Features.Also jetzt sei mal nicht ungeduldig.
Tim Pritlove 3:39:43
Das wäre sozusagen das Produkt, was ich unbedingt haben will.Allerdings müssen sie sich wirklich, also ich glaube, der Tag,wo ich so richtig steil gehe, wäre es, wenn Apple irgendwie 3D-Connection kauft. Das wäre es.Werden sie aber nicht machen, leider.
roddi 3:40:00
Ich sag mal so, zum jetzigen Preis ist es halt immer noch indiskutabel.Also nicht, dass ich so ein Teil nicht haben wollen würde, aber halt nicht zu dem Preis.
Tim Pritlove 3:40:10
Mit Google-Ads kaufe ich das auch für 5.000.
roddi 3:40:17
Naja, ich weiß nicht genau, wo der Cut-Off ist und ich glaube,ich will da auch nicht genau drüber nachdenken.Aber es muss ja auch ein Apple-Gerät geben, was ich nicht, wo ich nicht EarlyAdopter bin und das gleich kaufe.
Tim Pritlove 3:40:33
Genau.
roddi 3:40:34
Also ich meine, ich hatte das erste iPhone, ich hatte das erste iPad und habe ich auch immer noch.Ich hatte die erste Apple Watch, die habe ich nicht mehr. Ich hatte den ersten iPod.Also irgendwie ähm.
Tim Pritlove 3:40:50
Gerade den ersten iPod hatte ich nicht. Ich glaube, nur die Watch habe ich als erstes gekauft.
roddi 3:40:57
Ich weiß noch, dass ich damals am Überlegen war, jetzt mal so einen MP3-Playermit Festplatte haben zu wollen.Und habe dann hin und her überlegt, die Geräte waren alle irgendwie nicht so richtig meh.Und dann kam Apple mit dem iPod.Und ich so, scheiße, den musst du jetzt haben. Und der war ja auch geil.
Tim Pritlove 3:41:20
Auf jeden Fall. So, dann lass uns doch mal den Vision Pro Teil beenden.
roddi 3:41:27
Ja.
Tim Pritlove 3:41:28
Wir haben jetzt,unsere tausend Stunden Freakshow auf jeden Fall zusammen.
roddi 3:41:35
Auf jeden Fall voll, ja.
Dominik Wagner 3:41:36
Und ich war dabei.
Tim Pritlove 3:41:37
Ein bisschen drüber, du warst dabei, genau. Wir haben uns gar nicht gemerkt,wie wir durch diese Schallmauer durchgebrochen sind.
Dominik Wagner 3:41:44
Nee, und das ganz ohne Outliner.
Tim Pritlove 3:41:47
So, aber Aber wer wollte denn von euch jetzt nochmal über 3D,jetzt haben wir schon so viel 3D-Drucker als die Verheißung der Zukunft gesprochen?
Dominik Wagner 3:41:58
Ich bin ein bisschen durch.
Tim Pritlove 3:41:59
War das dein Thema?
Dominik Wagner 3:42:01
Ich? Ja, ich habe mir den spontan irgendwie, ich habe von einem Bekannten maleinen alten 3D-Drucker ausgeliehen und habe so ein bisschen Lunte gerochen undhabe mir überlegt, ich will mal wissen, wie der aktuelle Stand der 3D-Drucktechnik so ist.Was kauft man denn da so und hab mir dann bei Aldi gibt es da gerade was genau,empfehlen lassen den Prusa MK4 der da noch mit,Warteliste war und dann kam der doch viel früher als gedacht und dann kam derpraktisch zwei Wochen vor der Vision Pro daher und dann hat mich der links hintenüberrascht und seitdem hat der rund um die Uhr durchgedruckt dann,also einen zum selber aufbauen sogar, also eher nicht so Massenmarkt mäßig Ja.
roddi 3:42:41
Aber mehr so Ikea oder?
Dominik Wagner 3:42:44
Nee, also was heißt Ikea? Ja schon, von der Anleitung, die Anleitung ist sehrgut, aber acht bis neun Stunden baut man den so zusammen.Okay, willst du das machen?Ich habe mir die genaue Dauer nicht so genau durchgelesen und ich dachte mir,das ist ja doch noch so ein manuelles Produkt, wenn man es dann selber zusammengebauthat, weiß man wenigstens, wo die Probleme sind, weil ich kenne 3D-Drucken ja nur mit Problemen.Also wir haben damals, Martin hatte damals mal von irgendeinem Kongress denersten Maker-Bot oder den zweiten so gefühlt mitgebracht und den haben wir dannin der Cave mal aufgebaut und dann haben wir ungefähr drei Drucke hinbekommen,bis der irgendwie eingeschmolzen ist, weil wir waren alle nicht so aktiv,den zu pflegen und bis der irgendwie auf dem Druckbett dann wirklich auch gehaftetist und so. es war dann ganz cool, aber hatte keinen Sinn.Und da habe ich mir gedacht, das ist doch jetzt anders, dann hatte ich den kleinenvom Bekannten und habe dann eben so ein bisschen ausprobiert und dann hatteich es auch schon ein altes Modell und das ist eigentlich inzwischen alles schonviel angenehmer, weil was der Prusa macht ist und die,moderneren 3D-Drucker ist, man muss die nicht mehr so fein fiddelig justieren,sondern man steckt einfach wasrein und dann startet man den Druck und man muss ein bisschen die Werte,in den Programmen einstellen, so dass sie passend zu dem Druckmaterial ist, was man benutzt.Aber man muss jetzt nicht mehr das Druckbett irgendwie anheben und dann dieTemperatur ausprobieren und den ganzen Scheiß machen.So, und dann druckt man halt Dinge. Und das macht erstaunlich viel Spaß.Und die Welt der CAD-Programme hat sich auch massiv verändert.Also wie ich vorher schon gemeint habe, Shaper.Onshape ist irgendwie sogar ein Web-Tool, mit dem man parametrisch...CAD machen kann und geiles Zeug sofort, wenn man weiß, was man macht,geht es in Nullkommanix. Die Programme sind alle besser geworden.Es ist ein Spaß. Es ist ein Rabbit Hole. Es ist wirklich so,zwei Wochen hat dieser Drucker durchgedruckt.Und jetzt ist er schon langsam so ein bisschen eine Bremse drin.Aber ich habe mir zum Beispiel so das hier gemacht für meine Vision Pro. Was ist das hier?Das ist so ein in die Vision Pro kommt in der Verpackung mit so einem Karton runden Dings.Damit die Vorderseite da wo dein Gesicht drauf ist, auch abgedeckt ist.Wenn du die Vision Pro rausnimmst kriegst du im Umfang, wenn du nicht die teureTasche gekauft hast, nichts um das irgendwie zu transportieren oder,zu schützen, außer so ein Verhüterli, der so vorne auf der,Glasscheibe sitzt, genau so ein Socken, aber die Innenseite mit den Linsen isteinfach, die ist einfach offen,also die kannst du irgendwie jetzt so nicht in die Tasche stecken oder so odereinfach nur rumlegen lassen und da habe ich mir so ein Inlay gedruckt,das man da drauf legt damit, wenn irgendwie Dreck runterfällt oder es nichteinstaubt oder man halt auch das Gefühl hat, es verkratzt nicht die Linse, die sauteuer war und,das konnte ich mir halt einfach zusammendrucken, indem ich das ein bisschenausgemessen habe und ein bisschen dann so,CAD gemacht habe das hat Spaß gemacht,und die meisten Drucke funktionieren einfach, wenn man es machen will und es hat halt diese.Nach wie vor den Nachteil, dass man halt mit der Art und Weise des Drucks arbeitenmuss, das heißt Das heißt, es gibt halt die Schichten, mit denen das Zeug läuftund man muss halt die Stärke des Materials in die richtige Richtung machen unddas verschiedene Plastik.Aber es ist halt alles jetzt ein gelöstes Problem geführt. Also wenn ich jetztirgendwas machen will, kann ich es machen.Zum Beispiel kleine Elektronikbauteile auch. Also ich habe auch noch Lust,da was schöne Enclosures für zu machen. Also die,Da wird viel passiert und das selber machen zu können hat für mich den Unterschiedgemacht, weil jetzt habe ich es halt einfach ausprobiert.Ich habe die zwei Wochen lang immer was gedruckt, dann habe ich es ausprobiert,ein bisschen was gemacht, ein bisschen was selber gemacht und jetzt habe ichso innerhalb dieser zwei Wochen schon genug Selbstvertrauen,dass ich jetzt irgendwie so Reparaturzeugs machen würde.Würde für, da ist man, da fehlt man ein Plastikteil von irgendwas,dass ich das schnell nachbaue und dann einfach mal schnell drucke.So. Und das ist einfach, ich kann das jetzt, ich hab das jetzt was,ich kann da jetzt Zeug hervorheben.
Tim Pritlove 3:46:45
Du hast da was Eigenes sozusagen.
Dominik Wagner 3:46:47
Genau, so ein Jodel-Diplom.
Tim Pritlove 3:46:49
Das ist jetzt.
Dominik Wagner 3:46:50
Das 3D-Jodel-Diplom. Also,keine Ahnung, ich weiß nicht, ob ihr so Spaß an dem Zeug noch habt oder nicht,also auf dem Kongresso und im Umfeld sieht man ja so Zeug immer rumhängen undrumlaufen, aber selber nochmal zu haben.
roddi 3:47:07
Ich habe mich jetzt sehr lange mit Händen und Füßen gewehrt,einen 3D-Drucker anzuschaffen, aber ich glaube, ich komme langsam nicht mehr dran vorbei.Weil das ist wieder so ein Rabbit Hole. Vor allen Dingen das Schlimme ist,es gibt ja inzwischen auch alles,was man damit macht, also so Lebensmittel echtes Filament zum Beispiel,wo man halt dann auch mal keine Ahnung, Sachen drucken kann,die man irgendwie, weiß ich nicht,beim Brauen brauchen könnte oder so.Es gibt kaum noch Argumente dagegen. Das ist echt ein Problem.
Tim Pritlove 3:47:50
Ich frage mich immer, wie viele Dinge ich eigentlich wirklich so zu ersetzen und zu reparieren habe.Aber klar, es gibt immer mal so Plastikteile, die brechen und dann ist es schwierig,die zu kleben und dann so, aber wie oft ich dann auch wirklich in dem Momentso einen Drucker zum Einsatz bringen könnte, erfolgreich,da habe ich doch echt meine Zweifel.
Dominik Wagner 3:48:13
Also ich hätte es halt auch nicht gemacht, wenn ich nicht Lust runtergeleckthätte, einfach so, okay, wie ist denn die aktuelle Situation mit 3D-Druckern?Um einfach diese Einschätzung, okay, gibt es die bei Aldi und macht das Sinnfür Leute, um die einfach haben zu können und ja, also du kannst mit so einem,relativ robusten Drucker und ein bisschen was aus dem Internet runterladen,dir sinnvolles Zeug drucken, das können die Leute jetzt, die Geräte sind gut genug und,das wollte ich alleine wissen Und jetzt habe ich mich genug informiert wiederund jetzt werde ich mit dem so lange glücklich, wie ich ihn verwenden werde.Keine Ahnung. Also die Recherche ist passiert. Die sinnvollen Dinge kommen jetztdann später in kleineren Dosen wieder.
Tim Pritlove 3:48:54
Aber du hast noch nicht gesagt, warum es jetzt genau der Drucker sein musste.
Dominik Wagner 3:48:59
Das war einfach nur so die grundsätzliche Recherche.
Tim Pritlove 3:49:03
Aber grundsätzliche Recherche heißt ja, du musst ja auf irgendwelche Punktegestoßen sein, die dann gesagt haben, das Modell muss es sein.
Dominik Wagner 3:49:10
Also, du hast einerseits die Ecke...Ist es jetzt eher so ein fertiges Produkt, das du dann nicht reparieren kannst,so wie ein Bamboo oder eher so, wie du halt so einen Drucker kaufst,den du dann wegwirfst, wenn er kaputt ist?Oder ist es eher noch in dieser Makerboard und so weiter Gedankengut,wo auch Teile selber noch 3D gedruckt sind und du es eben noch zusammenbaustund reparieren kannst und ersetzen kannst und wo es sich auch mit der Zeit verbessert?So, das ist so die eine Achse, an der man arbeiten kann und Prusa ist da einfachrelativ umtriebig, was das angeht.Prusa selber verwendet die massiv und hat die einfach im Einsatz,das heißt, die sind einfach, die gehen nicht so schnell kaputt und die sindauch wirklich gepflegt und das ist jetzt nicht ein Produkt für einen Consumerin irgendeiner Form, sondern von einer Ecke von Leuten, die auch wollen,dass die Dinger lange funktionieren.So, das war so, das ist ein Ding, das hält eigentlich oder kann man reparierenoder kann man sich dann Zeug nachkaufen.Es ist eher noch so, diese MakerBot-Tradition selber finde ich halt auch nochschön, weil ich halt so ein bisschen mehr aus dieser, ich will mehr verstehenum das Zeug drumherum Ecke komme und da gibt es da einiges.Und das war es dann eigentlich schon, weil es gibt noch einige andere, aber das war halt,die Ecke und die letzte, die mir noch wichtig war, war eben dieses,der kann einfach drauf losdrucken, nachdem er aufgebaut worden ist,also der hat der muss nicht mehr eingestellt werden auf seinem Bett und dasBett muss man gerade ausrichten so, damit irgendwie der erste Layer funktioniert,sondern der hat einen Mechanismus, wo er mit mit seiner Nase auf den Layer fährt und das misst.Und das macht er jedes Mal und dannklappt es auch. Du musst nur unten die Bildplatte putzen und das war's.Und es wurde bestätigt, dass das viel so ist. Und so eine Mischung aus Convenienceund noch im alten Spirit fand ich gut.Deshalb ist es der geworden, genau. Es gibt noch einige mehr,aber ich meine, das ist so ein Rabbit Hole. Ich habe mich nicht super tief reingegraben.Das war so an der Oberfläche.Aber ich bin sehr zufrieden mit meiner Entscheidung. Also der flutscht.Das Einzige, was ich nicht unbedingt empfehlen würde, das Ding selber aufzubauen,weil man halt sich schon beim Aufbauen ein bisschen was kaputt machen kann undhabe ich natürlich auch wieder, weil irgendwie die Kugellager von den Stangen,wenn man die da durchdrückt, da kann man schon aus Versehen mal Kugeln rausdrückenund das weiß man halt nachher, dass man das falsch gemacht hat, mehr oder weniger.Und auch wenn es vorher beschrieben wird, wenn man es zum ersten Mal macht,macht man es halt ein bisschen nicht so dolle.Es war gut genug, dass er sauber noch funktioniert, Aber so ein,zwei Kugellager sind jetzt weniger toll, als sie sein könnten,dadurch, dass ich es selber gemacht habe.
Tim Pritlove 3:51:57
Okay, verstehe ich. Wenn man, ja, machst du es ja eigentlich richtig.Ich bin so ein bisschen Weichei, was diese ganze Tinkerei betrifft.Da brauchst du immer einen sehr langen Anlauf für mich, bis ich mich da wirklichmal reingelehnt bekomme.
Dominik Wagner 3:52:15
Also ich hätte gerne, ich habe ein bisschen Lust, ein bisschen was mit Elektronikzu machen und die wird halt nur dann hübsch, wenn sie eine Enclosure bekommt.Da musst du dann selber drucken und designen. Also ich habe halt jetzt,das Letzte, was ich gemacht habe, war so ein ein E-Paper-Display in den Bilderrahmengesteckt und dann klebt es halt hinten mit,doppelseitigem Klebeband und Kabelbindern dran und das kann ich nicht,das kann ich nirgends woanders hinstellen als hier im Raum.Wenn ich da aber einen Enclosure drumrum mache, dann hat es einen USB-Steckerund dann sieht das aus wie ein schickes Ding. Also so, weißt du?Und da ist halt auch was, was ich gesehen habe, wenn du es mit genug Zeit druckst,dann ist halt auch das Plastik hübsch genug inzwischen.Also es ist nicht mehr so, dass du diese Schichten und Rillen und alles siehst,sondern wenn du das mit genug Zeit drucken lässt, dann ist die eine Seite aufdem Druckbett super glatt, die Oberseite kannst du super glatt bekommen undwenn du es ein bisschen mit Geschmack designst, hast du einfach ein schönes Teil.Das ist nicht mehr so, das hast du ja selbst gehäkelt.
Tim Pritlove 3:53:15
Ja, aber selbst häkeln ist ja auch schön.
Dominik Wagner 3:53:18
Mach ich ja auch, aber ist wieder was anderes.
Tim Pritlove 3:53:21
Nichts gegen Häkeln. Nee?Gut Leute, wollen wir es da enden lassen heute Jetzt haben wir schon wiederunser 4-Stunden-Programm so gut wie durch,Oder? Ja Wir haben.
roddi 3:53:42
Die 1000 Stunden.
Tim Pritlove 3:53:43
Geknackt Das muss jetzt reichen Genau,Also naja Also alle jetzt an die 3D-Drucker gibt es bei Aldi und demnächst mitder Vision Pro auf dem Kopf.
roddi 3:53:59
Ich weiß nicht, ob ich solche Produkte bei Aldi kaufen will,aber das muss ja jeder selber wissen.
Tim Pritlove 3:54:04
Da gebe ich auf jeden Fall sofort zu. Habe ich schon wieder einen Trend verpasst?Ist nicht gedacht, dass das da auf dem Regal liegt.
roddi 3:54:18
Bresser 3D.
Dominik Wagner 3:54:21
Keine Ahnung, ob der was taugt, aber Aldi ist meistens schon irgendwie okay.
Tim Pritlove 3:54:24
Ja, Aldi ist vor allem seiner Zeit auch immer irgendwie voraus.Das muss man ihm mal lassen.Ich kaufe da trotzdem nicht gerne ein, aber so ist das halt nun mal.So, also. Dann ist jetzt die Gelegenheit, sich artig zu verabschieden.Wir hören uns ein paar Wochen wieder.
Dominik Wagner 3:54:44
Bei mir dauert es ein bisschen länger, aber ich höre euch weiter zu dann.
Tim Pritlove 3:54:48
Okay, dann sagen wir Tschüss Tschüss. Bis bald.
Shownotes

41 Gedanken zu „FS275 Scheinriesenfenster

  1. Zu Podcast VJing: nicht die eierlegende Wollmilchsau, aber vielleicht ein Baustein: https://imimot.com/mitti/
    Cuebasierendes Playback von Dateien, Safari, Syphon, NDI oder capture via Blackmagic Decklinkvarianten. Und remote geht via OSC, MIDI und einem selbstgeklöppeltem Protokoll um zwei Programminstanzen zu syncen (selbst nicht genutzt). Videoplayback war damals (+3 Jahre) solide und remote control via OSC (TouchOSC + Streamdeck Companion) auch zuverlässig.

  2. Hmmm interessanter Teil über VJing für Podcasts.

    Ich war lange mal VJ und hab das Thema grade wiederbelebt und denke auch so auf Sachen rum, die in die Richtung gehen. Bei mir geht es um generativen Ambient, der auch ein ähnliches Visualisierungsproblem hat.

    Bei Video, gerade so interaktiv wie es Tim angesprochen hat, sind dann schon viele Sachen am Start, die dann Richtung komplettes Fernsehstudio und Produktionsprozess gehen.

    Meine erste ‚Forschungsarbeit‘ geht in Richtung Automation eines Videomischers von aussen, um mehrere Quellen sinnvoll zusammenzuführen und auch ‚out of the box‘ zu laufen. Wird ne ganz schöne Materialschlacht und sicher was das man dann mal auf dem Kongress in der Partyarea Zeigen kann.

  3. Hi Tim. Die Euphorie über VisionPro kann ich absolut nicht nachvollziehen. Für mindestens 3500$, sagt mir Apple aller Ernstes, dass ich ein Gerät von 600 Gram längere Zeit tragen soll, mit Armen in der Luft rumfuchteln, und infantile Dino-Geschichten anschauen. Ich wüsste nicht. was Physiologie mehr widerspricht. Ich sag mal so: Die haben sie bei Apple nicht alle. :)

    • Ich glaube Tim beißt da so ein bisschen in den ***, dass er die bisherigen VR Brillen anderer Hersteller immer ignoriert hat. Er berichtet ja meist begeistert von Dingen, die es teilweise bereits seit Jahren so gibt. Das einzige was Apple tatsächlich in meinen Augen besser gemacht hat ist das Thema Display und das geht in diesem Fall auf Kosten des Sichtfeldes.

  4. Vielen Dank für die Sendung!
    Dem Format wird eine regelmäßige Gegenspieler/in zu Tim mit jungem Mindset (!sic) gut tun. Auch Netzpolitisch war früher gefühlt mehr Lametta. Für mehr Meinungsbeitragsdiversität!

  5. Hi Tim,
    Zum Thema VJ Software: schau dir mal https://qlab.app/ an. Wir nutzen das in Live-Shows, um Audio, Video (live Cam oder von der Platte) oder Grafiken abzufeuern. Man kann Shows entweder komplett automatisieren oder über Trigger abfeuern. Alles kann während der Schow angepasst werden, auch Remote und man ist mit dem Routing der Audio und Video Ausgabe sehr flexibel.
    Vielleicht erfüllt das deine Anforderungen.

    • Servus Tim,
      Alls es um das Thema VJ Software ging hatte ich inneren Drang bei jeder von dir erwähnten Anforderung Qlab, Qlab, Qlab zu rufen. Darum wollte ich dir auch diese Software ans Herz legen.
      Die Basisversion is for free und deckt eigentlich alle relevanten Funktionen schon ab. Ich finde die Bedienung logisch und strukturiert aufgebaut. Give it a try.

  6. Könnte man zum VJen nicht auch einfach OBS benutzen? Man kann dann in Ruhe nach Bildern googeln und wenn man das richtige hat in eine Szene einbinden die man dann als Aktiv auswählt. Man würde halt einen livestream lokal zum Beamer machen.

    • Die reine Anzeige von Video ist nicht das Problem – dafür braucht es nicht mal irgendeine Software. Das Problem ist der getrennte Workflow: Redaktionsteam sucht aus und stellt bereit – Präsentationsteam übernimmt Material aus der Queue und erstellt on the fly eine halbwegs attraktive Darstellung mit Platzierung, Überblendungen etc.

      OBS deckt davon nichts ab.

      • Hi Freaks, hi Tim, OBS etc. bzw. Broadcastingsoftware ist der Ansatz. Dabei kannst du im Prinzip jegliche Quellen einbinden. Brauchst nur eine Person, die das live mischt und bedient. Ich finde Dein Problem ist trivial und gelöst. Ansonsten habe ich es nicht verstanden ;-)

  7. Dann schaue Dir OBS inklusive Erweiterungen aber mal genauer an. Auch das Fehlen von Kapitelbildern wenn s sinnvoll fände ich besser als irgend ein KI Episodenbild. Völlig überflüssig

      • Ich such das noch raus aber wir haben für Grüße während unserer Weihnachsshow auch die Möglichkeit gehabt, dass die über einn Owncloud an eine bestimmte Stelle gespeichert wurden und dann automatisch für die nächste Lower Third verwendet wurden. Das geht mit OBS alles, da ist eher die Frage der Einstellung um es schnell gut anzupassen.

  8. Ich habe den Roborock S5 und hatte auch einen der Vorgänger. Beide funktionieren auch ohne Cloud.
    Ich habe dem Guten den Internet Zugriff über die FritzBox gesperrt und kann in meinem lokalen Netz (oder per VPN) trotzdem die Xiaomi Home App nutzen. Aber von der App möchte man eigentlich auch nicht abhängig sein.

    Es ist aber auch möglich das Ding in HomeAssistant einzubinden und darüber zu steuern. Das Setup ist etwas unintuitiv und nervig, aber mit genug Geduld kann man am Ende dann den Saugroboter über ein HA Dashboard steuern (inkl. Ansicht der Karte). Mit etwas mehr Aufwand kann man auch die Räume auf spezifische Actions in HA Mappen und dann z.B. Siri sagen „Bitte Büro saugen“ ohne das die Xiaomi Cloud davon etwas mitbekommen muss.

  9. Kein Geld für son Ding, aber eine Frage: wenn ich das Teil trage und auf meinem 1qm-Klo einen Mars-Rover betrachte, verschwinden da Teile des Rovers in der Wand?
    Ich wünsche mir ein Bild (muss ja nicht mein Klo sein). ;)

    • Man realisiert das quasi mit einer Drag-und-Drop-Bewegung mit den Fingern. Man visiert einen Punkt unten im Bild an, schließt Daumen und Finger und zieht dann die Hand nach oben und lässt dann los. Also eigentlich genau so wie man es auf iPad und iPhone macht mit Touch. Das ganze ist intuitiv erfassbar und fühlt sich vollkommen selbstverständlich an.

    • Unbedingt! Meine Fragen wären:
      Arbeiten die VR/AR Headsets mit Fernsicht (entspannte Augen) oder muss das Auge akkomodieren können? Funktioniert das noch mit Alterssichtigkeit? Gibt es Basis-Funktionen (Scharfstellen wie beim Feldstecher)? Sollte man bei einer bevorstehenden Katarakt-OP (keine Akkomodation mehr) auf Fern- oder Nahsicht optimieren? Astigmatismus gleich mit korrigieren, um Zusatzlinsen zu vermeiden?

  10. Yo Cyber-Bros,

    imägine, du hörst into einen deiner oldestesn Podcasts und stellst tight, dass die Papaplatteisierung so forthgeschritten ist, dass sie in den Eärs harmtut.
    Just imägine Bro…
    Diese Approachen fittet dann auch zu Tim“ses Ambitons videozujocken. Hopefullynicht wird es dann so cringe, wenn er so yolo alle 5 minits, you know, die neusubscribten Zulisteners vorreadet, Bro.

  11. Lieber Tim, liebe alle,

    vielen Dank für die spannende Folge und die detaillierten Insights zur Vision Pro.

    Das Thema Audio habt ihr nicht weiter vertieft gehabt, obwohl Apple scheinbar auch hier den Stand der Wissenschaft überholt und akustische VR/AR nach allen Regeln der Kunst realisiert hat – jedenfalls bin ich als jemand, der im Feld Spatial Audio bzw. Akustische VR/AR 12 Jahre lang aktiv geforscht hat, bei euren Ausführungen ein paar mal hellhörig geworden…

    Leider findet man wenig im Netz, was Apple da genau treibt, deswegen kann ich nur anhand von Indizien und Buzzwords mutmaßen, aber wenn man akustische AR/VR technisch richtig machen wollen würde, dann würde man es grob so machen, wie Apple das hier mutmaßlich umgesetzt hat.

    Die Technologiebasis nennt sich in Fachkreisen Binaural-Technologie, Binaural-Synthese oder Binaural Audio. Das ist der qualitativ hochwertigste Ansatz, wie man akustische VR/AR über Kopfhörer macht. Dafür benötigt man
    1.) Personalisierte Audiofilter, d.h. auf Basis der individuellen Kopf- und Ohrform der Nutzerin.
    Diese Audiofilter heißen Kopfbezogene Übertragungsfunktionen (Head-related Transfer Functions HRTF) und sind ein richtungsabhängiges, akustisches Modell für den Übertragungsweg von einer Schallquelle zu beiden Ohren (beinhaltet also Kopf und beide Ohrmuscheln). Diese HRTFs sind essenziell um Richtungshören zu simulieren, ohne geht es nicht – und der Goldstandard sind die individualisierten HRTFs. Diese individualisieren HRTFs hat Apple wohl aus dem 3D-Modell des Kopfes zurückgerechnet, wenn man seinen Persona-Scan macht. (Man kann auch Kunstkopf-HRTFs nehmen, aber die gehen nicht so gut. Bzw. hängt es davon ab, wie sehr Deine Ohren von denen des Kunstkopfes abweichen, ob die akustische Immersion funktioniert oder nicht.)

    2.) Raumadaption.
    D.h. man bezieht die akustischen Eigenschaften des umgebenden Raumes in die Simulation mit ein und passt die HRTFs entsprechend an. Wenn die das hingekriegt haben, wäre das echt der Hammer, denn da beißen sich alle aktuell dran die Zähne aus – kommt aber auch echt drauf an, wie sie das ggf. realisiert haben. Weil Du brauchst da die Geometrie des Raumes und auch die Reflexions- und Absorptionseigenschaften der Flächen, um das ideal abzubilden. Aber gut, vielleicht braucht man da auch nicht die volle Genauigkeit. Laut Apple machen die dafür sogenanntes Audio Raytracing – was auch immer das ist, konnte ich jetzt leider nicht rausfinden.

    3.) Head-Tracking.
    Das kann die Vision Pro offensichtlich. Spannend wäre, ob die die Kopfbewegung auch auf das Audiosignal rechnen bzw. zwischen den verschiedenen HRTFs hin-und-her-überblenden.

    4.) Extraaurale Kopfhörer.
    Man weiß, dass In-Ear-Kopfhörer schlechter funktionieren als Over-Ear-Kopfhörer. Am besten funktioniert die Immersion, wenn man Extraaurale Kopfhörer verwendet, also bei denen der Lautsprecher vor dem Ohr „hängt“.

    Anscheinend hat Apple hier alles berücksichtigt, was man braucht. Die Details wären aber noch interessant zu wissen, also z.B. welche räumliche Auflösung haben die HRTFs? Die Vision Pro hat wohl 6 Mikrofone, also keine hohe Auflösung. Ich hatte damals mehrere hundert Mikrofone (und HRTFs) verwendet, und das auf einer Kugeloberfläche. Also macht Apple hier 2D-Binaural-Audio oder wirkliches 3D-(Binaural)-Audio? Oder simulieren die nur 6-Kanal-Audio, über das sie dann Dolby Atmos machen? Wie genau machen die die Raumadaption bzw. wie erkennen sie die akustischen Raumeigenschaften, auf Basis der Mikrofonsignale, oder auf Basis der Kamerasignale?

    Fragen über Fragen. Leider gibt es keine weiteren Infos dazu. Ein paar Dinge könnte ich durch gezieltes Hören auch rauskriegen, aber ich habe halt gerade mal keine Vision Pro zur Hand :-)

    Anyway – ich wollte nur klarstellen, dass die nicht nur im Visuellen tolle Ingenieurs-Arbeit gemacht haben, sondern auch beim Audio.

    Falls Du noch Rückfragen zu 3D-Audio bzw. Audio-VR/AR hast, melde Dich gerne!

    Herzliche Grüße
    Erich

    P.s: noch kurz eine Ordnung zur Frage, wie der Bass der Vision-Pro-Lautsprecher ist: der Bass ist schlecht. Um gut Bass zu machen, musst Du effizient viel Luft verschieben. Dafür brauchst Du eine möglichst große Membran, mit einem ordentlichen Hub (es gibt tatsächlich Subwoofer mit einem Membran-Motor!) und einen Verstärker mit ordentlich Leistung. So ein kleiner Lautsprecher kann keinen Bass – man nutzt vielmehr die Resonanzeigenschaften des Ohrkanals. Bzw. bei In-Ear-Kopfhörern hat man einen Druckkammereffekt, der dann die Basswahrnehmung erzeugt.

  12. Wow, ob sich 3D Drucker durchsetzten ? Da habt ihr aber den Zug 5 Jahre verpasst. Selbst bei uns im Max Mustermann Dorf findest du in jedem dritten Haushalten einen.

    3d Drucker zusammenbauen muss man schon seit den besagten 5 Jahren nicht mehr. Du kaufst dir einen für ~200€ stellst den auf und 15 Minuten später läuft der erste Druck.

    Ganz ehrlich, die Folge musste ich mehrfach unterbrechen weil es so unvorstellbar ist, wie weit ihr „alten“ von der Realität abgedriftet seid.

    Ob einem so oft was kaputt geht das sich der Drucker lohnt ? Ich habe (laut bestell Übersicht) mehr als 100kg durch meinen Drucker gejagt und noch kein einziges Mal im etwas zu reparieren. Sobald man mal irgendwas mit den Händen macht fallen einem hunderte Dinge auf die man drucken kann.

  13. Zu dem optischen Begleitprogramm für Podcasts:

    Wir lösen es bei mir in der Firma (bei Livestreams von Veranstaltungen) folgendermaßen:
    In unserem Setup hängt der (oder die) Beamer im Saal mit am gleichen Blackmagic ATEM Bildmischer, wie auch die Kameras oder sonstige Bildquellen. Den Beamer steuern wir im ATEM über einen eigenen Aux-Weg an und sind somit in der Ausgabe prinzipiell unabhängig vom ansonsten gestreamten Video, das dann beispielsweise zu unserem Streamingserver oder zu Youtube geht. In deinem Setup, Tim, kann man natürlich auch einfach den Main-Out (1 ME im Blackmagic-Sprech) für den Beamer nutzen.

    Die Ausgabe für den Beamer kann man dann unabhägig vom sonstigen Geraffel einfach steuern, indem man einen Elgato Streamdeck mit der kostenlosen Software „Companion“ von Bitfocus (https://bitfocus.io/companion) nutzt. Darüber kann man sich dann die Tasten des Streamdecks belegen und einprogrammieren, was welcher Knopf später machen soll. Diese Companion App würde man, in einem Fall wie neulich im Planetarium, einfach auf dem Laptop auf der Bühne laufen lassen und das Streamdeck per USB daran anschließen. Der Laptop muss dann nur im gleichen Netz wie der ATEM Mischer sein, dann kann Companion diesen über das Netzwerk steuern.

    Und dann kommt es drauf an, was man jetzt genau zeigen will.
    1) Wenn man einfach nur mal eben ein Bild, ein Foto, eine Grafik in Fullscreen auf dem Beamer anzeigen will, dann kann man die übers Netzwerk mit Hilfe der ATEM Software Control App direkt in den Bildmischer auf einen der freien Media-Player-Slots laden. Diesen Job kann eine beliebige, zweite Person übernehmen. In Companion (dessen Webinterface man auch ausm Netzwerk aus aufrufen kann), kann man dann die Knöpfe für die Person auf der Bühne mit passender Beschriftung (Zum Beispiel „Portrait Merbold“) schnell hinterlegen oder sogar automatisch aus dem Dateinamen ziehen lassen. Du auf der Bühne würdest dann einen neuen Knopf auf deinem Streamdeck aufleuchten sehen (mit der eben definierten Beschriftung) und wenn du den dann drückst, geht auf dem Beamer dieses Bild an. Da kannst du dann auch mit verschiedenen, entsprechend programmierten Knöpfen zwischen Standbildern, vielleicht dem Podcast-Logo oder sonstigen Einblendungen hin und her schalten.

    2) Wenn es etwas komplizierter wird, dann kommt tatsächlich eine Präsentations- oder VJ Software zum Einsatz. Wir benutzen je nach Szenario die Software ProPresenter (https://renewedvision.com/propresenter/) oder Resolume Arena (https://resolume.com/software/avenue_arena). Beide erlauben detaillierte Konfiguration des Screens, lassen Einbledungen, Text-Overlays und auch das Abspielen von Videos und Animationen zu. Beide können ebenfalls über das Companion-Tool angesteuert werden und somit ist es möglich, mehrere Clips, Animationen und so weiter innerhalb der Software vorzubereiten und diese dann per Knopfdruck auf dem Streamdeck zu starten, sowie dann auch direkt auf dem Beamer auszugeben.

    So ein Atem Mini Pro wäre wahrscheinlich auch ne gute Investition für den Studio, Tim, denn du könntest damit relativ flexibel deinen Beamer aus verschiedenen Quellen speisen und auch da wieder per Streamdeck die Ausgabe steuern.

    Kannst auch gern mal in Berlin Mitte bei uns vorbei schauen und dir das Setup ansehen.

  14. Eine offensichtliche Idee für die VisionPro: Sport&Spiele

    AR-Games – wo jemand (ggfs. gar passend zum Gelände) einen Hindernis-Parcours baut, durch den man dann lkaufen kann. Angefangen vonvirtuellem PokemonGo über Hindernislauf (mit Punkte-Einsammeln), Ingress in viel deutlicher AR.
    Bis hin zu „echten“ Superhelden-Kämpfen.
    Deko für Häuser, virtuell überlagerte Werbeplakate.

  15. Danke für die interessante Folge.

    Aus dem Podcast höre ich heraus, dass das sogenannte „spatial Computing,“ mit dem Apple jetzt wirbt, anscheinend nichts anderes ist, als die Fähigkeit, die bekannten flachen zweidimensionalen Fenster, die man schon vom iPad oder MacOS kennt, jetzt frei im Raum platzieren zu können, anstatt sie auf einem Bildschirm zu sehen.

    Und was soll daran jetzt so toll neu und produktiver sein? Es scheint mir egal, ob die Fenster vor mir im Raum schweben, oder ob sie auf meinem Bildschirm sind. Die Fenster selber sind genau so zweidimensional wie zuvor.

    Ich entnehme der Diskussion, dass das Ding hauptsächlich zum Konsumieren von immersiven Unterhaltungsinhalten wie Filmen oder 3D Panorama Inhalten gut zu sein scheint.

    Wie man damit besser arbeiten können soll, wird mir aus Eurer Diskussion nicht klar.

    • Das Fenstermangament ist schon bei den herkömmlichen Geräten von Apple eine ziemliche Katastrophe und ohne Zusatzsoftware wie BetterSnapTool kaum zu ertragen. Warum soll ich mir das antun, meine Fenster jetzt auch noch im 3D Raum irgendwie halbwegs bequem anzuordnen zu müssen?

    • Die Fenster selber sind genau so zweidimensional wie zuvor.

      Das hängt vom Programm ab. Wenn du nur auf ein macOS Fenster schaust oder das von einer ummodifizierten iPad-App, dann ist das so. Aber jede native visionOS App kann die Inhalte auch dreidimensional machen. Dafür hat man ja die zwei Bildschirme.

  16. Hallo,

    zum Thema VisionPro und Accessibility: Ich habe eine Einschränkung der Augenmuskeln, so dass meine Augen häufig nicht in die gleiche Richtung gucken (i.e. schielen). D.h. 3D-Filme als Anwendung fallen bei mir schonmal per se raus.

    Find VR trotzdem sehr spannend und hab in Vergangenheit auch schon die Quest 2 genutzt. Allerdings frag ich mich bei der Eye-Tracking Steuerung, ob und wie sowas bei mir funktionieren kann.

    Gibts da schon irgendwelche Erfahrungswerte, ob Personen, die aus gesundheitlichen Gründen schielen die VisionPro überhaupt sinnvoll nutzen können? Oder ist das ein KO Kriterium?

    • Ich kenne mich zugegebenermaßen mit dem Phänomen nicht aus, aber zumindest in meiner einfachen Vorstellung davon ließe sich mit einer korrekt konfigurierten 3D Brille sogar ein besser korrigiertes Bild herstellen, da ich das Zentrum des Bildes ja theoretisch (soweit ich weiß unterstützt das aber kein Hersteller) pro Auge individuell verschieben kann (in einem gewissen Rahmen).

  17. zuzugeben sich nicht super tief in die Materie (3D-Drucker) eingegraben zu haben dann aber zu behaupten, dass Geräte mit einem Enclosure nicht viel können müssen oder nicht reparabel sind sodass man sie wegwerfen muss wenn etwas kaputt geht… ist schon sehr gewagt…. da hat man sich wohl sehr einseitig informiert IMHO.

  18. //FS275 OFFTOPIC
    Über viele Jahre und Podcast Folgen hinweg hört man immer mal wieder das einzige wahre und sichere Storage Dateisystem sei ZFS, doch bis auf das hat man das nie tiefer begründet oder disktutiert (oder ich habe es tatsächlich verpasst). Stattdessen bekommt man mit, dass Tims Synology abraucht und hofft dann insgeheim, dass mal eine ausführlichere ZFS Folge kommt. Vertraut man insgeheim doch nicht auf ZFS, vll auch aufgrund der kürzlich bekannt gewordenen silent corruption bugs in OpenZFS oder der Fehler bei Verwendung der nativen Verschlüsselung und zfs send/receive beim replizieren der Daten auf einen Backup Host? Oder ist es einfach nur ein Zeit-/Komfort Problem sich mal notwendig intensiv damit auseinander zu setzen?

  19. Late to the party, aber mein Gedanke, was die Analogie zu DTP für die Vision Pro sein könnte, ist Architekturvisualisierung. Da ist doch immer noch das limitierende, dass man es nur verkleinert darstellen kann und nie die wirkliche Relation zum Körper und der damit verbundenen Raumwahrnehmung hat. So könnte man vieles schon besser abschätzen oder auch digital vor Ort platzieren und Entscheidungen treffen. Gerade für Dinge die man im Plan manchmal nur schwer abschätzen kann.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.