Tim Pritlove 0:10:50
Ja, das ist auch gut so, dass man das nicht gesehen hat. Das ist ja auch nichtso wichtig. Aber am Ende war es halt ein Mehrwert. Und jetzt werde ich aber nicht,Immer in Planetarien gehen, sondern halt auch mal einfach einen Ort suchen,wo nur so eine normale 2D-Leinwand ist. Das reicht auch aus.Das hatte ich damals, als ich das in Darmstadt gemacht habe, auch.Jetzt die Frage, wie bespielst du das?Und das Besondere daran ist ja, das ist ja jetzt kein fertig geschnittenes Video,das findet ja live statt.Und du weißt zwar in etwa, auf welche Themen du eingehst, aber der Witz istja, dass man mit der visuellen Begleitung dem Inhalt dynamisch folgt.Das heißt, man macht ein neues Themenfeld auf, so bla bla bla und jetzt redenwir mal über Science Fiction und dann, weißt du, kommt Douglas Adams ins Spielund das stand vorher auf keiner Liste und jetzt möchte ich halt in der Lage sein,dem schnell zu folgen, ohne dass jetzt Leute einem dabei zuschauen,wie man auf dem Webbrowser bei Google irgendwelche Suchbegriffe eingibt undirgendwelche Bilder erklickt.Das ist das, was ich auf keinen Fall möchte.Was ich also suche, ist eine Software, die eigentlich so ein bisschen funktioniert,wie so VJ-Software funktioniert. funktioniert.Weil VJ-Software ist ja im Prinzip genau das.Du hast dein Material, aus dem du so auswählst, Still Images,Moving Images und dann fügst du die mehr oder weniger live in so eine Playlist ein.Also entweder du hast es schon vorher so gebaut, wie das so abläuft oder duziehst da halt irgendwas rein.Ich muss zugeben, ich habe nicht viel Erfahrung mit VJ-Software.Im Wesentlichen habe ich eigentlich nur anderen Leuten dabei zugeschaut, wie sie die benutzen.Und natürlich Natürlich ist jetzt der Funktionsumfang von klassischer VJing-Softwarefür meine Zwecke auch völlig over the top, weil ich brauche jetzt nicht 30 MillionenFilter und Rotationen und so weiter,aber sagen wir mal so eine Software, die folgendes macht, die im Wesentlichen,in irgendeiner Form so eine Input-Queue hat, wo man so Sachen reinwerfen kann,sodass man zum Beispiel in einem Team mit zwei Leuten arbeiten kann.Die eine Person reagiert quasi auf den Inhalt, folgt dem Inhalt,merkt so, ah, okay, Douglas Adams, wir müssen jetzt was mit Douglas Adams,ich muss mal ein Foto von Douglas Adams und dann habe ich ein Foto von DouglasAdams und dann schmeiße ich das quasi für die VJ-ende Person in so eine Art Inbox.Shared Folder, was auch immer, API, keine Ahnung, Irgendwas,Webseite, Programm, Command Line, mir egal.Also irgendwie werfe ich das da rein, sodass die Person die Visuals steuert,der das sozusagen dann so als Input-Element aufpoppt und weiß, aha.Das muss ich jetzt in irgendeiner Form verwenden.Aber ich kann dann in dem Moment auch schnell durch ein paar Tastenkontrollenso Sachen machen wie, was weiß ich, dass man das irgendwie kurz maskiert,dass man da irgendwie eine Transition hat, wie das reinkommt.So, ja, das ist nicht so plopp jetzt dieses Bild, next slide,sondern dass man, was auch immer jetzt gerade angezeigt wird, sagt, okay,jetzt kommt hier ein Foto und dass die Software es einem irgendwie einfach macht,mit so Aspektratios dann kreativ umzugehen, damit das nicht alles zu beklopptaussieht oder dass man da was weiß ich, einen Ken Burns Effekt macht oder dasreinrauscht oder was auch immer.Also in irgendeiner Form eine gute Kontrolle über die visuelle Präsentation,aber halt als Output immer nur ein Screen, wo jetzt keinerlei User Interface auftaucht.Also du arbeitest quasi an dem Rechner mit einem Hauptbildschirm,da hast du sozusagen die Kontrolle und dein Output ist halt dann letzten Endesder Beamer dieser Veranstaltung, wo das dann eben für alle Teilnehmer zu sehen ist.Aber du kannst, du musst dann, du kannst also das trennen, dieses Recherchierenund den Zugriff auf diese Fotowelten, Datenbanken, was auch immer vorbereitetesZeug oder so oder das Web und dann.Also elegant und klar das dann sozusagen in diese Input-Queue geben,sodass die Software dann auch so eingestellt werden kann, dass, was weiß ich,wenn jetzt gerade die Playlist oder die Queue so weit abgearbeitet ist,man zeigt halt sozusagen jetzt gerade das Letzte an, auch wenn man sich vielleichtnoch fünf Bilder mal vorbereitet hat und wenn man dann die durch ist und kommtwas rein, dann schaltet es auch automatisch darauf um, also irgendwie sowas.Das ist eine Software, die ich suche und ich habe so ein bisschen die Vermutung,es könnte etwas geben im VJ-Bereich, was sich vielleicht anpassen lässt,also indem man im Wesentlichen seine Features, ganz viele Features erstmal ausschaltet,damit es irgendwie einfach zu benutzen ist, um dann sowas zu machen.Und wenn es sowas gäbe, dann wäre schon, das wäre schon die halbe Miete,weil dann könnte man sich sozusagen so ein Content-Jockey-Podcast-VJ-Team aufbauen,was das dann auf solchen Veranstaltungen machen kann.
Zu Podcast VJing: nicht die eierlegende Wollmilchsau, aber vielleicht ein Baustein: https://imimot.com/mitti/
Cuebasierendes Playback von Dateien, Safari, Syphon, NDI oder capture via Blackmagic Decklinkvarianten. Und remote geht via OSC, MIDI und einem selbstgeklöppeltem Protokoll um zwei Programminstanzen zu syncen (selbst nicht genutzt). Videoplayback war damals (+3 Jahre) solide und remote control via OSC (TouchOSC + Streamdeck Companion) auch zuverlässig.
Hmmm interessanter Teil über VJing für Podcasts.
Ich war lange mal VJ und hab das Thema grade wiederbelebt und denke auch so auf Sachen rum, die in die Richtung gehen. Bei mir geht es um generativen Ambient, der auch ein ähnliches Visualisierungsproblem hat.
Bei Video, gerade so interaktiv wie es Tim angesprochen hat, sind dann schon viele Sachen am Start, die dann Richtung komplettes Fernsehstudio und Produktionsprozess gehen.
Meine erste ‚Forschungsarbeit‘ geht in Richtung Automation eines Videomischers von aussen, um mehrere Quellen sinnvoll zusammenzuführen und auch ‚out of the box‘ zu laufen. Wird ne ganz schöne Materialschlacht und sicher was das man dann mal auf dem Kongress in der Partyarea Zeigen kann.
Mir wurde neulich https://h2r.graphics/ für so einen ähnlichen Usecase gezeigt – ansonsten geht sowas in Software also z.B. mit OBS mit mehreren Screencapture Quellen im Studio-Modus auch ohne große Hardwareschlacht alles auf nem aktuellen Laptop.
genau, OBS wollte ich auch empfehlen
Hi Tim. Die Euphorie über VisionPro kann ich absolut nicht nachvollziehen. Für mindestens 3500$, sagt mir Apple aller Ernstes, dass ich ein Gerät von 600 Gram längere Zeit tragen soll, mit Armen in der Luft rumfuchteln, und infantile Dino-Geschichten anschauen. Ich wüsste nicht. was Physiologie mehr widerspricht. Ich sag mal so: Die haben sie bei Apple nicht alle. :)
Ich glaube Tim beißt da so ein bisschen in den ***, dass er die bisherigen VR Brillen anderer Hersteller immer ignoriert hat. Er berichtet ja meist begeistert von Dingen, die es teilweise bereits seit Jahren so gibt. Das einzige was Apple tatsächlich in meinen Augen besser gemacht hat ist das Thema Display und das geht in diesem Fall auf Kosten des Sichtfeldes.
Vielen Dank für die Sendung!
Dem Format wird eine regelmäßige Gegenspieler/in zu Tim mit jungem Mindset (!sic) gut tun. Auch Netzpolitisch war früher gefühlt mehr Lametta. Für mehr Meinungsbeitragsdiversität!
Hi Tim,
Zum Thema VJ Software: schau dir mal https://qlab.app/ an. Wir nutzen das in Live-Shows, um Audio, Video (live Cam oder von der Platte) oder Grafiken abzufeuern. Man kann Shows entweder komplett automatisieren oder über Trigger abfeuern. Alles kann während der Schow angepasst werden, auch Remote und man ist mit dem Routing der Audio und Video Ausgabe sehr flexibel.
Vielleicht erfüllt das deine Anforderungen.
Servus Tim,
Alls es um das Thema VJ Software ging hatte ich inneren Drang bei jeder von dir erwähnten Anforderung Qlab, Qlab, Qlab zu rufen. Darum wollte ich dir auch diese Software ans Herz legen.
Die Basisversion is for free und deckt eigentlich alle relevanten Funktionen schon ab. Ich finde die Bedienung logisch und strukturiert aufgebaut. Give it a try.
Könnte man zum VJen nicht auch einfach OBS benutzen? Man kann dann in Ruhe nach Bildern googeln und wenn man das richtige hat in eine Szene einbinden die man dann als Aktiv auswählt. Man würde halt einen livestream lokal zum Beamer machen.
Die reine Anzeige von Video ist nicht das Problem – dafür braucht es nicht mal irgendeine Software. Das Problem ist der getrennte Workflow: Redaktionsteam sucht aus und stellt bereit – Präsentationsteam übernimmt Material aus der Queue und erstellt on the fly eine halbwegs attraktive Darstellung mit Platzierung, Überblendungen etc.
OBS deckt davon nichts ab.
Hi Freaks, hi Tim, OBS etc. bzw. Broadcastingsoftware ist der Ansatz. Dabei kannst du im Prinzip jegliche Quellen einbinden. Brauchst nur eine Person, die das live mischt und bedient. Ich finde Dein Problem ist trivial und gelöst. Ansonsten habe ich es nicht verstanden ;-)
Dann schaue Dir OBS inklusive Erweiterungen aber mal genauer an. Auch das Fehlen von Kapitelbildern wenn s sinnvoll fände ich besser als irgend ein KI Episodenbild. Völlig überflüssig
Was für Erweiterungen sind das, die das Quellenproblem lösen könnten?
Ich such das noch raus aber wir haben für Grüße während unserer Weihnachsshow auch die Möglichkeit gehabt, dass die über einn Owncloud an eine bestimmte Stelle gespeichert wurden und dann automatisch für die nächste Lower Third verwendet wurden. Das geht mit OBS alles, da ist eher die Frage der Einstellung um es schnell gut anzupassen.
Ein Congress-Vortrag, der mit Vision relevant werden könnte: Hacking how we see https://media.ccc.de/v/35c3-9370-hacking_how_we_see aus dem habe ich gelernt, dass Schielen eine Reaktion auf völlig unterschiedliche Bilder beider Augen ist. Seitdem kann ich Kinder mit abgeklebtem Auge nicht mehr gut finden.
Ich habe den Roborock S5 und hatte auch einen der Vorgänger. Beide funktionieren auch ohne Cloud.
Ich habe dem Guten den Internet Zugriff über die FritzBox gesperrt und kann in meinem lokalen Netz (oder per VPN) trotzdem die Xiaomi Home App nutzen. Aber von der App möchte man eigentlich auch nicht abhängig sein.
Es ist aber auch möglich das Ding in HomeAssistant einzubinden und darüber zu steuern. Das Setup ist etwas unintuitiv und nervig, aber mit genug Geduld kann man am Ende dann den Saugroboter über ein HA Dashboard steuern (inkl. Ansicht der Karte). Mit etwas mehr Aufwand kann man auch die Räume auf spezifische Actions in HA Mappen und dann z.B. Siri sagen „Bitte Büro saugen“ ohne das die Xiaomi Cloud davon etwas mitbekommen muss.
Man kann auf den Saugroboter auch eine andere Software aufspielen, dann benötigt er die App nicht mehr und man kann über den Browser direkt auf den Saugroboter zugreifen.
https://github.com/rand256/valetudo
bzw. https://github.com/Hypfer/Valetudo
Kein Geld für son Ding, aber eine Frage: wenn ich das Teil trage und auf meinem 1qm-Klo einen Mars-Rover betrachte, verschwinden da Teile des Rovers in der Wand?
Ich wünsche mir ein Bild (muss ja nicht mein Klo sein). ;)
Kann gut sein, dass ich es überhört habe – wurde gesagt, wie man in der Vision Pro scrollt – zb in Safari?
Man realisiert das quasi mit einer Drag-und-Drop-Bewegung mit den Fingern. Man visiert einen Punkt unten im Bild an, schließt Daumen und Finger und zieht dann die Hand nach oben und lässt dann los. Also eigentlich genau so wie man es auf iPad und iPhone macht mit Touch. Das ganze ist intuitiv erfassbar und fühlt sich vollkommen selbstverständlich an.
~45min:
Tim, mach doch mal einen Podcast mit einem Optiker/Augenarzt. Interessantes Thema.
Unbedingt! Meine Fragen wären:
Arbeiten die VR/AR Headsets mit Fernsicht (entspannte Augen) oder muss das Auge akkomodieren können? Funktioniert das noch mit Alterssichtigkeit? Gibt es Basis-Funktionen (Scharfstellen wie beim Feldstecher)? Sollte man bei einer bevorstehenden Katarakt-OP (keine Akkomodation mehr) auf Fern- oder Nahsicht optimieren? Astigmatismus gleich mit korrigieren, um Zusatzlinsen zu vermeiden?
Yo Cyber-Bros,
imägine, du hörst into einen deiner oldestesn Podcasts und stellst tight, dass die Papaplatteisierung so forthgeschritten ist, dass sie in den Eärs harmtut.
Just imägine Bro…
Diese Approachen fittet dann auch zu Tim“ses Ambitons videozujocken. Hopefullynicht wird es dann so cringe, wenn er so yolo alle 5 minits, you know, die neusubscribten Zulisteners vorreadet, Bro.
Haha… und nicht vergessen, die Aspekt Razios und den spazialen Sound korrekt zu konfigurieren.
War das schon immer so schlimm?
Lieber Tim, liebe alle,
vielen Dank für die spannende Folge und die detaillierten Insights zur Vision Pro.
Das Thema Audio habt ihr nicht weiter vertieft gehabt, obwohl Apple scheinbar auch hier den Stand der Wissenschaft überholt und akustische VR/AR nach allen Regeln der Kunst realisiert hat – jedenfalls bin ich als jemand, der im Feld Spatial Audio bzw. Akustische VR/AR 12 Jahre lang aktiv geforscht hat, bei euren Ausführungen ein paar mal hellhörig geworden…
Leider findet man wenig im Netz, was Apple da genau treibt, deswegen kann ich nur anhand von Indizien und Buzzwords mutmaßen, aber wenn man akustische AR/VR technisch richtig machen wollen würde, dann würde man es grob so machen, wie Apple das hier mutmaßlich umgesetzt hat.
Die Technologiebasis nennt sich in Fachkreisen Binaural-Technologie, Binaural-Synthese oder Binaural Audio. Das ist der qualitativ hochwertigste Ansatz, wie man akustische VR/AR über Kopfhörer macht. Dafür benötigt man
1.) Personalisierte Audiofilter, d.h. auf Basis der individuellen Kopf- und Ohrform der Nutzerin.
Diese Audiofilter heißen Kopfbezogene Übertragungsfunktionen (Head-related Transfer Functions HRTF) und sind ein richtungsabhängiges, akustisches Modell für den Übertragungsweg von einer Schallquelle zu beiden Ohren (beinhaltet also Kopf und beide Ohrmuscheln). Diese HRTFs sind essenziell um Richtungshören zu simulieren, ohne geht es nicht – und der Goldstandard sind die individualisierten HRTFs. Diese individualisieren HRTFs hat Apple wohl aus dem 3D-Modell des Kopfes zurückgerechnet, wenn man seinen Persona-Scan macht. (Man kann auch Kunstkopf-HRTFs nehmen, aber die gehen nicht so gut. Bzw. hängt es davon ab, wie sehr Deine Ohren von denen des Kunstkopfes abweichen, ob die akustische Immersion funktioniert oder nicht.)
2.) Raumadaption.
D.h. man bezieht die akustischen Eigenschaften des umgebenden Raumes in die Simulation mit ein und passt die HRTFs entsprechend an. Wenn die das hingekriegt haben, wäre das echt der Hammer, denn da beißen sich alle aktuell dran die Zähne aus – kommt aber auch echt drauf an, wie sie das ggf. realisiert haben. Weil Du brauchst da die Geometrie des Raumes und auch die Reflexions- und Absorptionseigenschaften der Flächen, um das ideal abzubilden. Aber gut, vielleicht braucht man da auch nicht die volle Genauigkeit. Laut Apple machen die dafür sogenanntes Audio Raytracing – was auch immer das ist, konnte ich jetzt leider nicht rausfinden.
3.) Head-Tracking.
Das kann die Vision Pro offensichtlich. Spannend wäre, ob die die Kopfbewegung auch auf das Audiosignal rechnen bzw. zwischen den verschiedenen HRTFs hin-und-her-überblenden.
4.) Extraaurale Kopfhörer.
Man weiß, dass In-Ear-Kopfhörer schlechter funktionieren als Over-Ear-Kopfhörer. Am besten funktioniert die Immersion, wenn man Extraaurale Kopfhörer verwendet, also bei denen der Lautsprecher vor dem Ohr „hängt“.
Anscheinend hat Apple hier alles berücksichtigt, was man braucht. Die Details wären aber noch interessant zu wissen, also z.B. welche räumliche Auflösung haben die HRTFs? Die Vision Pro hat wohl 6 Mikrofone, also keine hohe Auflösung. Ich hatte damals mehrere hundert Mikrofone (und HRTFs) verwendet, und das auf einer Kugeloberfläche. Also macht Apple hier 2D-Binaural-Audio oder wirkliches 3D-(Binaural)-Audio? Oder simulieren die nur 6-Kanal-Audio, über das sie dann Dolby Atmos machen? Wie genau machen die die Raumadaption bzw. wie erkennen sie die akustischen Raumeigenschaften, auf Basis der Mikrofonsignale, oder auf Basis der Kamerasignale?
Fragen über Fragen. Leider gibt es keine weiteren Infos dazu. Ein paar Dinge könnte ich durch gezieltes Hören auch rauskriegen, aber ich habe halt gerade mal keine Vision Pro zur Hand :-)
Anyway – ich wollte nur klarstellen, dass die nicht nur im Visuellen tolle Ingenieurs-Arbeit gemacht haben, sondern auch beim Audio.
Falls Du noch Rückfragen zu 3D-Audio bzw. Audio-VR/AR hast, melde Dich gerne!
Herzliche Grüße
Erich
P.s: noch kurz eine Ordnung zur Frage, wie der Bass der Vision-Pro-Lautsprecher ist: der Bass ist schlecht. Um gut Bass zu machen, musst Du effizient viel Luft verschieben. Dafür brauchst Du eine möglichst große Membran, mit einem ordentlichen Hub (es gibt tatsächlich Subwoofer mit einem Membran-Motor!) und einen Verstärker mit ordentlich Leistung. So ein kleiner Lautsprecher kann keinen Bass – man nutzt vielmehr die Resonanzeigenschaften des Ohrkanals. Bzw. bei In-Ear-Kopfhörern hat man einen Druckkammereffekt, der dann die Basswahrnehmung erzeugt.
Wow, ob sich 3D Drucker durchsetzten ? Da habt ihr aber den Zug 5 Jahre verpasst. Selbst bei uns im Max Mustermann Dorf findest du in jedem dritten Haushalten einen.
3d Drucker zusammenbauen muss man schon seit den besagten 5 Jahren nicht mehr. Du kaufst dir einen für ~200€ stellst den auf und 15 Minuten später läuft der erste Druck.
Ganz ehrlich, die Folge musste ich mehrfach unterbrechen weil es so unvorstellbar ist, wie weit ihr „alten“ von der Realität abgedriftet seid.
Ob einem so oft was kaputt geht das sich der Drucker lohnt ? Ich habe (laut bestell Übersicht) mehr als 100kg durch meinen Drucker gejagt und noch kein einziges Mal im etwas zu reparieren. Sobald man mal irgendwas mit den Händen macht fallen einem hunderte Dinge auf die man drucken kann.
Ich glaube eher du bist etwas abgedriftet. Das mag bei dir so sein.
Zu dem optischen Begleitprogramm für Podcasts:
Wir lösen es bei mir in der Firma (bei Livestreams von Veranstaltungen) folgendermaßen:
In unserem Setup hängt der (oder die) Beamer im Saal mit am gleichen Blackmagic ATEM Bildmischer, wie auch die Kameras oder sonstige Bildquellen. Den Beamer steuern wir im ATEM über einen eigenen Aux-Weg an und sind somit in der Ausgabe prinzipiell unabhängig vom ansonsten gestreamten Video, das dann beispielsweise zu unserem Streamingserver oder zu Youtube geht. In deinem Setup, Tim, kann man natürlich auch einfach den Main-Out (1 ME im Blackmagic-Sprech) für den Beamer nutzen.
Die Ausgabe für den Beamer kann man dann unabhägig vom sonstigen Geraffel einfach steuern, indem man einen Elgato Streamdeck mit der kostenlosen Software „Companion“ von Bitfocus (https://bitfocus.io/companion) nutzt. Darüber kann man sich dann die Tasten des Streamdecks belegen und einprogrammieren, was welcher Knopf später machen soll. Diese Companion App würde man, in einem Fall wie neulich im Planetarium, einfach auf dem Laptop auf der Bühne laufen lassen und das Streamdeck per USB daran anschließen. Der Laptop muss dann nur im gleichen Netz wie der ATEM Mischer sein, dann kann Companion diesen über das Netzwerk steuern.
Und dann kommt es drauf an, was man jetzt genau zeigen will.
1) Wenn man einfach nur mal eben ein Bild, ein Foto, eine Grafik in Fullscreen auf dem Beamer anzeigen will, dann kann man die übers Netzwerk mit Hilfe der ATEM Software Control App direkt in den Bildmischer auf einen der freien Media-Player-Slots laden. Diesen Job kann eine beliebige, zweite Person übernehmen. In Companion (dessen Webinterface man auch ausm Netzwerk aus aufrufen kann), kann man dann die Knöpfe für die Person auf der Bühne mit passender Beschriftung (Zum Beispiel „Portrait Merbold“) schnell hinterlegen oder sogar automatisch aus dem Dateinamen ziehen lassen. Du auf der Bühne würdest dann einen neuen Knopf auf deinem Streamdeck aufleuchten sehen (mit der eben definierten Beschriftung) und wenn du den dann drückst, geht auf dem Beamer dieses Bild an. Da kannst du dann auch mit verschiedenen, entsprechend programmierten Knöpfen zwischen Standbildern, vielleicht dem Podcast-Logo oder sonstigen Einblendungen hin und her schalten.
2) Wenn es etwas komplizierter wird, dann kommt tatsächlich eine Präsentations- oder VJ Software zum Einsatz. Wir benutzen je nach Szenario die Software ProPresenter (https://renewedvision.com/propresenter/) oder Resolume Arena (https://resolume.com/software/avenue_arena). Beide erlauben detaillierte Konfiguration des Screens, lassen Einbledungen, Text-Overlays und auch das Abspielen von Videos und Animationen zu. Beide können ebenfalls über das Companion-Tool angesteuert werden und somit ist es möglich, mehrere Clips, Animationen und so weiter innerhalb der Software vorzubereiten und diese dann per Knopfdruck auf dem Streamdeck zu starten, sowie dann auch direkt auf dem Beamer auszugeben.
So ein Atem Mini Pro wäre wahrscheinlich auch ne gute Investition für den Studio, Tim, denn du könntest damit relativ flexibel deinen Beamer aus verschiedenen Quellen speisen und auch da wieder per Streamdeck die Ausgabe steuern.
Kannst auch gern mal in Berlin Mitte bei uns vorbei schauen und dir das Setup ansehen.
Eine Ergänzung im Zusammenhang mit ATEMs: https://mixeffect.app & https://www.atemosc.com sind gute Problemlöser. Grad letzteres im Zusammenspiel mit QLab.
MixEffect ist großartig. Alleine schon für die Konfiguration der SuperSourcen (Picture in Picture) ist die App seine 60€ wert.
Eine offensichtliche Idee für die VisionPro: Sport&Spiele
AR-Games – wo jemand (ggfs. gar passend zum Gelände) einen Hindernis-Parcours baut, durch den man dann lkaufen kann. Angefangen vonvirtuellem PokemonGo über Hindernislauf (mit Punkte-Einsammeln), Ingress in viel deutlicher AR.
Bis hin zu „echten“ Superhelden-Kämpfen.
Deko für Häuser, virtuell überlagerte Werbeplakate.
Danke für die interessante Folge.
Aus dem Podcast höre ich heraus, dass das sogenannte „spatial Computing,“ mit dem Apple jetzt wirbt, anscheinend nichts anderes ist, als die Fähigkeit, die bekannten flachen zweidimensionalen Fenster, die man schon vom iPad oder MacOS kennt, jetzt frei im Raum platzieren zu können, anstatt sie auf einem Bildschirm zu sehen.
Und was soll daran jetzt so toll neu und produktiver sein? Es scheint mir egal, ob die Fenster vor mir im Raum schweben, oder ob sie auf meinem Bildschirm sind. Die Fenster selber sind genau so zweidimensional wie zuvor.
Ich entnehme der Diskussion, dass das Ding hauptsächlich zum Konsumieren von immersiven Unterhaltungsinhalten wie Filmen oder 3D Panorama Inhalten gut zu sein scheint.
Wie man damit besser arbeiten können soll, wird mir aus Eurer Diskussion nicht klar.
Das Fenstermangament ist schon bei den herkömmlichen Geräten von Apple eine ziemliche Katastrophe und ohne Zusatzsoftware wie BetterSnapTool kaum zu ertragen. Warum soll ich mir das antun, meine Fenster jetzt auch noch im 3D Raum irgendwie halbwegs bequem anzuordnen zu müssen?
Das hängt vom Programm ab. Wenn du nur auf ein macOS Fenster schaust oder das von einer ummodifizierten iPad-App, dann ist das so. Aber jede native visionOS App kann die Inhalte auch dreidimensional machen. Dafür hat man ja die zwei Bildschirme.
Hallo,
zum Thema VisionPro und Accessibility: Ich habe eine Einschränkung der Augenmuskeln, so dass meine Augen häufig nicht in die gleiche Richtung gucken (i.e. schielen). D.h. 3D-Filme als Anwendung fallen bei mir schonmal per se raus.
Find VR trotzdem sehr spannend und hab in Vergangenheit auch schon die Quest 2 genutzt. Allerdings frag ich mich bei der Eye-Tracking Steuerung, ob und wie sowas bei mir funktionieren kann.
Gibts da schon irgendwelche Erfahrungswerte, ob Personen, die aus gesundheitlichen Gründen schielen die VisionPro überhaupt sinnvoll nutzen können? Oder ist das ein KO Kriterium?
Ich kenne mich zugegebenermaßen mit dem Phänomen nicht aus, aber zumindest in meiner einfachen Vorstellung davon ließe sich mit einer korrekt konfigurierten 3D Brille sogar ein besser korrigiertes Bild herstellen, da ich das Zentrum des Bildes ja theoretisch (soweit ich weiß unterstützt das aber kein Hersteller) pro Auge individuell verschieben kann (in einem gewissen Rahmen).
zuzugeben sich nicht super tief in die Materie (3D-Drucker) eingegraben zu haben dann aber zu behaupten, dass Geräte mit einem Enclosure nicht viel können müssen oder nicht reparabel sind sodass man sie wegwerfen muss wenn etwas kaputt geht… ist schon sehr gewagt…. da hat man sich wohl sehr einseitig informiert IMHO.
//FS275 OFFTOPIC
Über viele Jahre und Podcast Folgen hinweg hört man immer mal wieder das einzige wahre und sichere Storage Dateisystem sei ZFS, doch bis auf das hat man das nie tiefer begründet oder disktutiert (oder ich habe es tatsächlich verpasst). Stattdessen bekommt man mit, dass Tims Synology abraucht und hofft dann insgeheim, dass mal eine ausführlichere ZFS Folge kommt. Vertraut man insgeheim doch nicht auf ZFS, vll auch aufgrund der kürzlich bekannt gewordenen silent corruption bugs in OpenZFS oder der Fehler bei Verwendung der nativen Verschlüsselung und zfs send/receive beim replizieren der Daten auf einen Backup Host? Oder ist es einfach nur ein Zeit-/Komfort Problem sich mal notwendig intensiv damit auseinander zu setzen?
Auch eine Software, mit der man ein „Audiopodcast-Begleitprogramm“ gut Umsetzen könnte wäre https://streamyard.com/
Late to the party, aber mein Gedanke, was die Analogie zu DTP für die Vision Pro sein könnte, ist Architekturvisualisierung. Da ist doch immer noch das limitierende, dass man es nur verkleinert darstellen kann und nie die wirkliche Relation zum Körper und der damit verbundenen Raumwahrnehmung hat. So könnte man vieles schon besser abschätzen oder auch digital vor Ort platzieren und Entscheidungen treffen. Gerade für Dinge die man im Plan manchmal nur schwer abschätzen kann.