Menschen! Technik! Sensationen!
https://freakshow.fm
50 Jahre Ethernet – Neues von der WWDC – Vision Pro
Ereignis- und krankheitsbedingt kommt diese Sendung etwas später als geplant, aber dafür hatten wir genug Zeit, den Fallout der WWDC 2023 zu absorbieren und uns so unsere Gedanken über die angekündigten Neuerungen und vor allem natürlich das von Apple vorgestellte Spatial Computing der Vision Pro / visionOS zu machen. Entsprechend viel Raum nehmen diese Themen heute ein. Wir wünschen Euch viel Spaß bei unserem Versuch, uns künftige Ausgaben schönzureden.
https://freakshow.fm/fs267-gesichtsmuffe
Veröffentlicht am: 5. Juli 2023
Dauer: 4:34:16
Naja, er meinte, es gibt halt so die vier Annons, also der Hintergrund erst mal Irakkrieg und es ging um die Beweislage, ob denn nun Irak Massenvernichtungswaffen welcher Art wo auch immer hat und dann hat Donald Rumsfeld dieses klassische Vier-Quadranten-Modell aufgemacht. Es gibt die Dinge, die wir wissen und von denen wir wissen, dass wir sie wissen und es gibt Dinge, die wir nicht wissen, von denen wir aber wissen, dass es sie gibt, aber wir wissen sie halt nicht. Das sind dann die known unknowns und der spannende Quadrant ist aber dann die unknown unknowns, wo also Dinge da draußen sind, von denen wir keine Ahnung haben und wo wir auch noch niemals ahnen, dass es sie nicht gibt. Genau und das ist, also ich finde nicht, dass er gescholten worden ist. Also von allen Leuten, die irgendwie so ein bisschen intellektueller, philosophischer angehaucht haben, die haben das sehr gefeiert, dass so eine Birne in einem in der Tat verwerflichen Kontext dann aber doch endlich mal was brauchbares rausgegeben hat, weil dieses Vier-Quadranten-Modell benutze ich in der Tat erstaunlich häufig. Also es funktioniert.
Das mit dem Missile ist auf jeden Fall aus so einem Air Force Dokument und ist total ernst gemeint, allerdings extrem komplizierte Beschreibung des Algorithmuses, wie diese ganze Missile, wie weiß ich, wo ich bin und kriege ich das unter Umständen dadurch raus, dass ich vor allem erstmal weiß, wo ich nicht bin. So im Prinzip funktioniert aber es ist halt so ein dermaßer Gedankendreher, dass man da nicht so richtig mitkommt. Aber so ist das, wie bei Podcasts. Ich sag erstmal hallo hier ist die Freakshow, wir sind's, es ist die Ausgabe 267 und wir senden am 14 Juli 2023 mal locker 10 Tage später als wir das ursprünglich vorhatten, aber mir ist da etwas dazwischen gekommen und es war unmöglich den Termin zu halten. Und es wäre fast auch dieser Termin noch geplatzt, wenn ich nicht gestern wie durch ein Wunder wieder von den Toten auferstanden wäre, aber die letzten zwei Wochen waren echt wirklich der totale Terror und ich wäre zu nix zu gebrauchen gewesen. Genau, so und begrüßen wir erstmal die Runde und ich fange mal zu meiner rechten Hand, da ist nämlich der Beamer und da begrüße ich Dom.
Wunderbar. Ihr seht mich super. In irgendeiner Form ist einfach kein Videosignal mehr da. Aber ich bin da heute als Remote-Gast und eigentlich haben wir hier ein tolles Setup, wo ich auf dem Video den Tisch so sehe, als würde ich da sitzen. Das haben wir sehr gut vorbereitet. Guck mal Tim, da unten links Video starten.
Und das geile ist, die Beleuchtung ist halt auch, ihr müsst euch das so vorstellen, die Beleuchtung ist so ausgelegt, dass die gut beleuchtet sind, aber für die GoPro und jetzt das Laptop Video schaut direkt in so eine mehr oder weniger eine fette Lampe rein und jetzt habe ich eher so einen Eindruck von so einem FBI Interview.
Also aus irgendwelchen blöden Gründen kennt Zoom diese Webcam gerade nicht, obwohl sie läuft und die Software meint sie läuft, ich kann sie mal starten, also die Kamera selber sagt jetzt USB verbinden, siehst du? Ja, ja, weil ich jetzt gerade die Software hier neu starte, um erstmal zu gucken, ob es daran liegt. Ist ja immer so mit diesen ganzen dynamischen Dingern, aber Zoom sieht das nicht.
Es gehört ja auch zum Trademarkt der Sendung, latent chaotisch zu sein, wenn wir jetzt so viel Struktur haben ist ja auch nicht gut, ne? Beschweren sich dann auch wieder alle. Ja, was ist passiert? Also wir hatten unsere letzte Sendung veröffentlicht am um, wann war das? Schon eine Weile her, 26. Mai. Oh Gott, das tut mir so leid. Aber genau und wir hatten uns ja auch ganz bewusst so ein bisschen mit dieser drohenden Veröffentlichung von Vision Pro beschäftigt, wer das noch nicht gehört hat kann jetzt hier auch mal Pause machen und sich anhören wie wir uns da um den Kopf um den Kragen reden, also ich zumindest.
Ich kenn dieses Gespräch ja, ich hab ja in jeder Sendung, in der ich Gast war versucht dieses Thema irgendwie anzuschneiden und du hast es so abgesäbelt jedes Mal, dass es überhaupt keinen Spaß gemacht hat, darüber nachzudenken, was denn cooles dabei passieren könnte und du hast das letzte Mal wieder so gemacht gefühlt, also ich hab das vorher auch nochmal gehört.
So, wollen wir gleich loslegen mit WWDC oder wollen wir erstmal irgendwelche anderen Sachen reinschmeißen? Vielleicht haben wir da noch ein paar Kleinigkeiten, die wir vorwegwerfen können. Ja ich weiß was, 50 Jahre Ethernet. Ich muss mal ein Loblied auf Ethernet anstimmen. Oh Ethernet, du schöne. Ich finde Ethernet ist einfach der geilste Standard, den die Computerindustrie wahrscheinlich je hervorgebracht hat.
Da muss ich gleich mal rein grätschen. Sprichst du jetzt von dem was man heutzutage kennt, diese RJ irgendwas Stecker die man so klick irgendwo reinsteckt oder sprichst du auch von Fick Ethernet mit seinen Anschlüssen die man da so reinschrauben musste oder Fin Ethernet wo einem immer die Terminatoren abhanden gekommen sind.
Internet war zu jedem Zeitpunkt immer die beste Lösung. Und was echt bemerkenswert ist, dieser Standard ist 50 Jahre alt, 50 Jahre alt, aber so wie er gespeckt ist und wie er gedacht wurde, funktioniert der immer noch tadellos und man würde heute nichts anderes machen. Also ich finde die Vision von Isarnet, die war einfach so scharfkantig genial, richtig. Dass es einfach gepasst hat, ich meine sogar das mit den MAC-Adressen reicht noch, also man war vor 50 Jahren da sozusagen, also ich weiß nicht ganz genau wann jetzt die MAC-Adressen konkret in der Form dazu kamen, aber im Prinzip war das ja von Anfang an so mitgedacht, aber es reicht immer noch um irgendwie Millionen an Mini-Routern, IOT-Devices, Pipapo und noch Bluetooth und so weiter, alles funktioniert nach diesem selben Schema, die Namensräume funktionieren noch, es mag da irgendwann noch mal Probleme geben, aber Es ist nicht so wie IPv4 was nach 20 Jahren schon gefühlt so ein bisschen sein Leben ausgehaucht hatte und jetzt so die ganze Zeit auf Live-Support noch irgendwie gehalten wird, weil viele Leute immer noch nicht bereit sind irgendwie mal Administratoren einzustellen, die irgendwie ihre Sache auch gelernt haben. Und Ethernet funktioniert super. Und dass natürlich damals die Hardware limitiert war ist klar, aber die Idee war großartig. Man macht einen Bus und alle schreien da drauf rum. Und auch Finn Ethernet war gut, also wer vielleicht nicht weiß wovon wir reden, weil ihr ja alle natürlich wieder, wie so spät geboren seid, also ich war ja auch nicht dabei, doch warte mal halt.
Also Thin Ethernet ist das BNC Kabel, wo man diese komischen T-Stecker hatte und dann hat man ein langes Kabel mithilfe von diesen T-Steckern an Netzwerkkarten hinten an PCs irgendwie rangeklemmt und dann hat man an beiden Enden einen sogenannten Terminator Widerstand gemacht, damit das Signal am Ende nicht reflektiert. Ohne jetzt weiter auf die Elektrotechnik einzugehen. Das war Thin Ethernet, aber es gab, bevor es Thin Ethernet gab, gab es noch Thick Ethernet. Das war im Prinzip auch ein Koaxalkabel, das war nur deutlich dicker. Ich kann jetzt nicht genau sagen wie dick, aber ich glaube es war mindestens zwei Zentimeter dick. Wenn nicht noch dicker. Und dort hat man also gleiches Prinzip, ein Kabel, alle senden auf das Kabel.
So und da hat man, um etwas anzuschließen, gab es dann so eine Klammer mit so einem Dorn. Man hat also irgendwie die Klammer um das Kabel drum gemacht und den Dorn reingeschraubt, sodass der Dorn innen in den inneren Leiter des Koaxaldingens hatte und außen die Schelle irgendwie an den äußeren umwickelten Leiter ging. Und das nannte sich Fick Ethernet. Aber wie gesagt, das hab ich, genau, Vampirklemme, da steht's.
Ja, die hab ich nochmal gesehen, auch in so alten Pfunden von alten Geräten. BNC selber hab ich noch, so hab ich mit Netzwerk begonnen und interessanterweise auf meinem Akkorn, und da war es glaub ich auch schon gleich Ethernet, wir hatten nix eigenes. Hat jemand von euch irgendwie mit Apple Talk und den Alternativen, die es denn gab damals wirklich zu tun gehabt? Und warum waren die doof? Also was war da schlecht? Apple Talk war da auch cool oder?
Also erstmal, Apple Talk ist ja das Protokoll. Die Hardware war Local Talk, das war langsam. Es gab auch Ether Talk, das ist dann Apple Talk über Ethernet, das war auch okay, nicht so performant wie IP, aber anderes Ding. Vielleicht nochmal kurz zu diesen Kabeln, also mit diesem Vampirklemmen. Ich kannte diesen Begriff noch nicht. 50 Jahre Internet, aber ich habe den Begriff Vampirklemmen. Nein, wie geil ist das denn bitte? Ich sauge hier die Daten raus.
Für alle diese Art von Anschlüssen, wo du halt das Ding einfach reinhämmerst. Selbst die Dinger, wenn man jetzt so ein Ding krimmt an so einer Box, nennt man das noch teilweise so. Deswegen also wenn man einfach das einfach so rein tischt und dann hat es halt einmal zusammen quetschen und dann geht's, wenn du es richtig getroffen hast, so Krimpen ist der Soft Porno Begriff für die Vampirklemme.
Das interessante an Thin Ethernet das mit dem mit dem üblichen Koaxalkabel was man wahrscheinlich so kennt, ist dass die Kabel, die Thin Ethernet Kabel hatten 50 Ohm Wellenwiderstand, während normale, Fernseh- oder Radioanschlusskabel 75, ohm Wellenwiderstand und wenn man das andere Kabel benutzt hat, dann ging's nicht. Das war auch eine sehr beliebte Fehlerquelle von Leuten, die nicht wussten, was sie tun.
Lass uns das mal kurz, wenn wir schon diese 50 Jahre ESA und jetzt aktuell diese Stecker haben. Diese Stecker sind ja so, dass man die nicht einfach rausziehen kann und man kann die oben so drücken, damit man diesen Umkehrschutz drücken kann, um die rauszuziehen und was ich bis vor kurzem echt nicht gewusst habe, man muss die ein bisschen reinschieben dabei, weil die haben nochmal einen kleinen Widerhaken da oben, der davor bewahrt, dass man den aus Versehen runterdrückt. Das heißt man muss die ein bisschen reinschubsen, dann zusammendrücken und dann rausziehen und dann geht es ganz easy, da muss man sich nicht die Finger brechen dabei und ich bin so froh, dass ich es gelernt habe inzwischen.
Er beißt in zig Ethernet. Er möchte seine Glasfasersplasie. Clemens ist die Vampirklemme des Podcasts. Ja, also nochmal zum Sinn. Ethernet, also 10BASE2 heißt das ja offiziell. Ich weiß noch, 1992, ich erzähl jetzt wieder vom Krieg, gab's, Entschuldigung, 93, gab's ja das erste Hackercamp. Also das erste richtige Hackercamp und zwar jetzt nicht das Chaos Communication Camp, das kam dann erst später, sondern das wurde ja in Holland erfunden. Und das war At the End of the Universe und was willst du mir gerade sagen, Rudi?
Okay, alles klar. Das scheint ja gut zu funktionieren hier mit der GoPro. Naja, ich erzähl mal kurz noch zu Ende, wie ich das fixe. Und 1993 gab es natürlich noch nicht so viel Internet. Und das CAMP hatte aber tatsächlich eine Verbindung zum Internet in Form von zwei 19.200, Bit pro Sekunde US Robotics Modems, die irgendwie zusammengeschaltet waren.
Also in Holland haben die drauf geschissen, verboten war immer alles nur in Deutschland, in Holland sind die ja irgendwie mit der Zukunft immer schon ein bisschen näher dran gewesen. Auf jeden Fall hatten sie da quasi Internetverbindung und dann gab es da eben so dieses Campinggelände wo so ungefähr so 50 Zelte rumstanden und der Hauptsport auf dieser Veranstaltung stand da drin ein Thin Ethernet Kabel auf dem Campingacker von Zelt zu Zelt rennen zu lassen, also einen großen Ring herzustellen, Atmen ist schon schwer ne, Um dann irgendwie da ein Tröpfchen Bit aus dieser Modemverbindung zu entnehmen. Und es ist auch ab und zu mal gelungen und war dann immer ein großes Hallo. Ja, soviel nochmal zu Zen Internet. Aber heutzutage ist es schon besser geworden. Mittlerweile gibt es ja auch Internet über alles. Man kann das ja auch über Thunderbolt Stecker, USB-C rüberjagen, dann wird es auch richtig fix und dann hat man auch bessere Stecker. Also ich könnte mir durchaus vorstellen, dass wir so in Zukunft vielleicht auch mal das RJ45 Gedöns loswerden und durch andere Sachen machen, aber dann müssen diese USB-C Kabel echt nochmal viel billiger werden.
Im Chat schreibt noch jemand Token Ring, muss man vielleicht an der Stelle auch nochmal erwähnen. Token Ring hatte natürlich immer das Problem, wenn der Ring unterbrochen war, ging gar nichts mehr. Und das ist wohl auch relativ häufig passiert, während Thin Ethernet zwar zu der damaligen Zeit jetzt auch nicht viel robuster war, aber, wie du bereits sagtest, robuster als alles andere. Insofern hat sich Token Ring glaube ich auch nicht so richtig durchgesetzt. Vor allen Dingen, das war auch so ein Rechenzentrum-Ding, glaube ich. Das wurde in der freien Wildbahn eher nicht verwendet.
Es tut mir total leid aber diese GoPro Webcam Software stellt irgendwie, ich weiß nicht ob die ihren Dienst einstellt, also eigentlich meint sie sie funktioniert noch aber der Zoom schüttelt diese Kamera ab, dann ist es irgendwie nach einer Weile wieder weg und zeigt mir das nicht an und jetzt müsste ich jedes mal wieder irgendwie das neu starten, das ist wirklich zum kotzen ey. Kann nicht einfach mal irgendwas einfach mal funktionieren ich meine alles was ich gebraucht habe ist eine webcam mit 120 grad die einen nicht arm macht und sowas scheint der mark kaum herzugeben dachte ich mir nimmst du so eine gopro was kann schon schief gehen wenn die ein webcam modus hat ist doch alles super naja.
Ich kann dir auch weniger geben aber das bringt er jetzt nicht. Du kannst mal versuchen das parallel im Quicktime-Player aufzumachen oder so. So ein Mist, dass es irgendeinen zweiten Klienten gibt von dem selben Videostream, vielleicht ist es dann stabiler oder ist es schlimmer, man weiß es nicht so genau. Du bist ja gerade auf Ventura gegangen oder? Vor Ventura wäre das natürlich nicht passiert.
Also USB feier ich erst, wenn die tatsächlich es hinkriegen, dem Standard beizubringen, dass Tastaturen auch eine Marke dafür haben, welche Belegung draufliegt. Das ist eine Tastatur an Klemme, die relativ viel Intelligenz hat, aber nicht weiß, wie sie belegt ist. Das geht halt einfach nicht. Ich weiß nicht, wer da nicht auf die richtige Idee gekommen ist, aber ne. Gut, ich mach mal einen kleinen Teaser, würde ich gerne mal loswerden und zwar, ich weiß nicht, hat sich vielleicht ein bisschen herumgesprochen, dass ich in dem Ladefuchs... Team, Projekt, Mitarbeiter. Und zwar Ladefuchs ist eine App für Elektro-Auto-Fahrer, die auch gerne mal unterwegs laden.
Genau, das wollte Malik so haben. Gibt viele Grüße von Malik an alle. Ich nehme an, das betrifft auch die Hörer. So, und wir sind jetzt kurz davor, die Version 2.0 rauszubringen. Die Version 2.0. Und zwar muss man vielleicht noch mal kurz erklären, was der Ladefuchs macht. Und zwar, es gibt Ladesäulenbetreiber, auch CPO oder Chargepoint Operator genannt. Und es gibt dann die Leute, die einem den Strom tatsächlich verkaufen. Die werden, glaube ich, Charging Service Provider genannt oder so. Keine Ahnung. Ist ja auch nicht so wichtig. Aber es ergibt sich dann eine Matrix aus den Leuten, die einem den Strom verkaufen und den Leuten, die die Säulen aufgestellt haben. Und an dieser Matrix steht gerne an jeder Stelle dieser Matrix ein anderer Preis. Und um das so ein bisschen, um es möglich zu machen, dass man schnell nachgucken kann, welchen Preis hat man denn zu erwarten, haben ein paar Wahnsinnige vor einiger Zeit eben diese Ladefuchs-App angefangen. Und der Markt an Chargepoint Operators und den eigentlichen Service Providern ist so dermaßen volatil, dass wir da nochmal ein paar Sachen hinzugefügt haben, unter anderem eine Detailansicht. Man kann also jetzt in der Liste 11 auf eine Karte tippen und bekommt eine Detailansicht, wo dann auch so Dinge drinstehen wie eine Blockiergebühr oder ob es monatliche Gebühren zu einer Karte gibt oder sonstige Notizen. Diese Version 2.0 wird in den nächsten zwei Wochen rauskommen. Also eigentlich ist sie schon fertig, aber das große Press-Release-Big-Bang-Ding, sie dauert noch ein bisschen, aber für den Sommerurlaub sollte es dann noch reichen. In diesem Fall, ja, was letzte Preis, ändert sich halt ständig. Deswegen gibt es diese App. Es wäre schön, wenn es diese App nicht bräuchte und einfach alle Anbieter einen ordentlichen Preis machen würden, aber es gab ja auch mal diese komischen Vorwähler, diese Internetprovider, Wahlprogramme und ähnliche Dinge.
Ich habe ja eine Zeit in Amerika verbracht, das ist jetzt nicht so, nicht so tragisch im Verhältnis. Es ist nicht so viel besser da drüben, es ist nur alles anders und ein paar Leute sind ein bisschen privilegiert, die haben ein paar ein bisschen gute Infrastruktur, aber ansonsten ist das alles recht anstrengend.
Weiß ich nicht. Ich habe so einen Webcam-Haufen. Ich habe so eine Opal C1 gekauft, weil ich gedacht habe, für Remote-Arbeiten ist das ja noch cooler. Aber das ist auch eine Hipster-Cam, die ist echt zu teuer, wird zu heiß. Aber ist halt wenigstens nicht die Connectivity-Camera. Das kannst du noch ausprobieren. Dein iPhone. Mach doch dein iPhone dahin. Du brauchst jetzt während der Sendung dein iPhone nicht, oder? Dann kannst du doch mit der Connectivity-Kamera, wenn du die anschließt über USB, kannst du das machen.
Das sollte eigentlich ganz gut funktionieren aber du kannst dein Handy währenddessen nicht benutzen also ich fand diesen Einwand den du in der letzten Freakshow hattest, der ist nicht nur der der war bei mir gefühlt auch so deshalb habe ich die teure Webcam gekauft obendrauf weil ich habe zwar erstmal so Stative für über den Monitor mit zusammen gebastelt und die Kamera geht ganz gut. Also wirklich sieht auch echt gut aus weil ist ja eine geile iPhone Kamera aber du hast halt das Telefon nicht und das Telefon nicht haben ist so ein No-Go irgendwie, Weil man so viele Reflexe hat da was nachzugucken und was zu machen.
Audio-Stack auf dem Mac dann auch. Das ist auch nicht so dolle. Also er ist die Kamera auch weg, aber so FaceTime macht immer irgendwas mit dem Audio-Stack, dass auch dann die Aufnahme nicht so gut funktioniert. Das heißt, wenn man das nach dem Selberrecht macht, ist das ein bisschen gefährlich. Ja, bei mir, bei mir.
Kann ich dir das jetzt so nicht beantworten, ich finde nur, dass Twelve Tone üblicherweise eine sehr schöne Herangehensweise an das Thema hat, zu ergründen, warum Musik funktioniert, wie sie funktioniert und er beschreibt sehr schön, wie dieser Break als Musikstück funktioniert, warum der so erfolgreich ist und so weiter und wie es dazu kommt, dass der so einen besonderen Groove hat.
Das ist interessant, weil... Was du gerade gesagt hast ist ja so, wenn man selber ein bisschen was mit Musik irgendwie zu tun hat, ich glaub man bleibt irgendwie bei einem YouTube Musikerklärbär hängend und sagt sich so warum soll ich noch zu Thema XY noch 50 andere angucken, wenn ich weiß irgendwie hier we've got you covered. Bei mir ist das in der Tat Rick Beato.
Also dessen Hauptgeschäft ist es halt irgendwo, was auch immer für Songs, Rock, Pop, Elektronik, was auch immer, halt live durch zu analysieren und er kann halt alles spielen und sitzt im Tonstudio und produziert auch selber Musik und spielt den ganzen Kram dann einfach mal live nach und erzählt wie da gerade so die Akkordfolge ist und was da gerade speziell dran ist und der macht auch so relativ tagesaktuelle Sachen als beispielsweise jetzt bei der dritten Season von Stranger Things hier. Kate Bush mit Running up the hill so so gechartet ist und die ganze Jugend gar nicht wusste was es eigentlich für ein Song ist, hat er sich dann gleich hingesetzt und gesagt okay lass ich erzähl euch mal was warum dieser Song hier so great ist. Den Kanal kann ich also auch sehr empfehlen, der kommt jetzt nach Berlin und ich werde wahrscheinlich leider nicht nicht hinkommen, den hätte ich mir echt mal gerne live angeguckt.
Das Schöne an Twelve Tone ist, dass er erzählt nur was und spielt so ein paar Dinge ein, aber er zeichnet immer quasi live dazu. Also er zeichnet ein bisschen das langsame, als es dann hinterher abgespielt ist, aber er zeichnet erstens unheimlich schöne Elefanten und er zeichnet auch einfach sehr schöne, Auch die Assoziationen zu dem, was er sagt, was er dann zeichnet, ist auch immer großartig. Also allein sich das Video anzugucken, um seine Zeichnungen zu sehen, glaube ich, lohnt sich schon. Aber ja, hab jetzt genug Werbung dafür gemacht. Schaut's euch an, findet's gut oder schlecht. Also, ja.
Im Bibliotheksbereich versuche ich ja immer die Leute ein bisschen zu schocken, weil die meistens nicht so medienaffin sind. Und so eine meiner Klassik-Slides, die ich dann drin habe, ist, was ist eigentlich in den jeweiligen Jahrzehnten so der Hauptkristallisationspunkt des Menschheit-Wissens gewesen? Wie ist dann halt irgendwie von den alten Bibliotheken, der Kloster, die ganzen Iterationsschritte und irgendwann hast du dann halt den Brockhaus und dann ist es aber irgendwann die Wikipedia geworden und der derzeitige Status quo ist einfach YouTube. Es gibt also als die zentrale Wissensquelle und da gibt es eben nicht nur Bibis Schmicken Videos, sondern da gibt es also unendlich viel Wissensressourcen. Man muss sie halt einfach nur suchen, aber es ist nicht so, dass sie sich da besonders gut verstecken. Zu jedem Thema, wo man sich aufschlauen will, findet man da einfach was.
Ja manchmal ist es schlimm, weil du suchst dann irgendwas, wie mach ich denn das und das und dann findest du nur ein YouTube-Video und dann denkst du so, ich will jetzt aber kein YouTube-Video finden, ich will jetzt hier schnell einen Text überfliegen, Um zu sehen, ob es das ist, was mich weiterhilft, was mich weiterbringt und dann kann ich den auch nochmal ordentlich lesen, aber nicht jetzt irgendwie 20 Minuten YouTube gucken.
Dafür nehme ich dann in der Tat mittlerweile Chat-Gipel-T4. Nicht unbedingt in Bezug darauf, danach weiß ich es, aber dann habe ich zumindest schon mal genug weitere Schlagworte, nach denen ich vernünftig weitersuchen kann. Wenn ich also den Eindruck habe, okay, grundsätzlich scheint mir das hier in die richtige Richtung zu gehen, aber ich will es nochmal genauer wissen, dann weiß ich zumindest schon mal, wonach ich dann noch besser auf anderen Kanälen suche.
Du darfst währenddessen Fingerswipe machen, aber es geht auf Standby, das musst du im Quicktime Player einstellen oder so ein Scheiß, das ist so ein bisschen bescheuert. Also du musst praktisch die Kamera konfigurieren, weil das Gerät selber ist gefühlt danach einfach im Standby und nur im Standby funktioniert es, wenn du es wieder benutzt, machst du Pause. Das ist so ein bisschen… Auserlaube Apple.
Für unsere Hörerinnen und Hörer, wir filmen jetzt wirklich gerade schon mit der iPhone Kamera, das funktioniert. Streamen sozusagen. Und ich dachte, Tim ist jetzt schon so grau und senil, dass er nicht mehr weiß, wie man auf einer iPhone Kamera irgendwie den Weitwinkel aktiviert, aber das, während jetzt hier gefilmt wird und das iPhone angeschlossen ist, in der Tat der Screen schwarzt. Das heißt also es gibt ja überhaupt nichts, wo man jetzt swipen könnte oder pinchen.
Genau, bei einem Quicktime-Player solltest du dir in der Lage sein, praktisch die Einstellung auszusuchen oder so von der Kamera, indem du Maximum Quality machst oder irgendwie sowas und das sollte dann für alles gelten. Irgendwie so. Ist ein bisschen kompliziert, aber sollte schon gehen. Ja, jetzt passiert was anderes. Kurze Pause. Irgendwas hast du umgestellt? Weniger Auflösung?
Nicht im Telefon, sondern auf deinem Laptop. Gehst du ins Control Center rechts oben. Genau, du kannst ja meine Kamera darauf zeigen, dann geht es auch. Und dann solltest du bei der Kamera, glaube ich, was einstellen können, weil du kannst ja da auch diesen Modus, dass du den Projektor-Modus hast. Folgemodus, was?
Ja genau, ich weiß es gibt da irgendwelche super teuren Konferenzdinger, vielleicht gibt's ja noch eine gute Alternative und ihr habt da irgendeine, die sind dann auch also voll integriert und dann versuchen die wieder so viel zu intelligent zu sein. Vielleicht ist tatsächlich so eine normale Kamera die beste Option, wo man dann einfach ein Objektiv drauf schraubt.
Kann man auch machen, wenn die einen Live-Modus hat. Ich habe ja dummerweise so eine Sony Alpha, die es genau nicht hat oder nur einen ganz bescheidenen HDMI-Output gibt. Aber es gibt durchaus die Möglichkeit, wenn du so eine Kamera hast, muss man sich halt auch informieren, welche, weil nicht alle das geile Signal draushauen.
Ne, das hatte andere Gründe. Naja gut. Alright. Fine. Dann würde ich sagen gehen wir nochmal in Richtung WWDC. Worldwide Developers Conference. Warum nennen die überhaupt diesen Buchstaben W, wenn das so kompliziert ist auszusprechen und dann müssen sie die ganze Zeit Abkürzungen, das ist ja so als würden wir die ganze Zeit Yps Yps sagen.
Ich meine wenn Webseiten mit Y Y Y anfangen würden, würden wir wahrscheinlich auch Yps Yps Yps sagen. üps üps üps.freakshow.fm. Okay, wann geht die live? Mal gucken, ob das Händler noch passiert. Naja so ist das halt. Na gut. Also auf jeden Fall fand statt, fand wieder statt auf diese Art und Weise wie sie es die ganzen letzten Jahre, oder schon gar nicht, wie sie es letztes Jahr gemacht haben. Nämlich einerseits live gestreamt zu was weiß ich wie vielen Leuten, haben wir da irgendwelche Zahlen genannt bekommen, wie viele Leute dazu gehört haben?
Naja, in gewisser Hinsicht finde ich ist es, also mir geht ja diese ganze, alles ist prerecorded Nummer ein bisschen auf den Senkel. Ja, okay, es ist alles gut produziert meinetwegen, aber das war es früher auch und es ist halt überhaupt nicht mehr... Wie soll ich sagen, es ist nichts besonderes mehr, es ist nur noch so eine Hochglanz-Produktshow, wo man so durchblättert und ich weiß, ich müsste noch nicht mal live dabei sein, weil ich kann mir das in zwei Stunden genauso anschauen.
Ja ich würde auch nicht widersprechen. Also ich finde man hatte am Anfang von Corona, also bei der bei den ersten sagen wir mal ein bis zwei Keynotes hat man so den Eindruck, okay dafür dass es nicht live ist machen sie das jetzt aber doch ganz manierlich, weil es war dann ja zu dem Zeitpunkt schon noch ein bisschen was frisches und neues und hatte vom Production Value her war es natürlich deutlich besser als alles was die anderen so hatten. Aber das hat sich jetzt wirklich halt ziemlich schnell abgenutzt und ich verstehe auch nicht ganz, warum sie jetzt die letzte nicht wieder live gemacht haben, weil coronatechnisch hätten sie es ja eigentlich können.
Sie können halt viel Content, der jetzt für eine Keynote für sie inzwischen wichtig geworden ist, der damals immer so dieser Übergang war zu den Einspielern und den Werbevideos eigentlich, der jetzt aber mehr integriert ist, die können da das Rad nicht mehr so richtig zurückdrehen glaube ich, weil das Verhältnis zu ich bin jemand der was Ding auf der Bühne präsentiert zu da kommt irgend so diese ganzen Effekthascherei und der ganze Kram drum rum, das passt halt einfach nicht mehr zusammen vom Stil her, ich glaube die wollen da auch nicht mehr hin. Ich vermisse es schon ein bisschen und ich muss es sogar sagen, dass ich es auch ein bisschen in den Engineering Sessions vermisse. Ich finde zwar, es ist viel angenehmer jetzt, wenn du was nachhören willst und was lernen willst und so kriegen kannst, weil es eben nur so lange ist, wie es sein soll und mehr polished und gleich mit Subtitles und allem. Aber es war schon irgendwas anderes. Also für mich auch. Ich habe mehr Content konsumiert auch. Nicht nur deswegen, weil ich jetzt nicht mehr so swifty bin, sondern es ist halt wirklich auch so, das ist halt so ein steriles Videoformat. Ja, kannst du schon durchgucken, kannst aber auch irgendwie querlesen, kannst versuchen eine Doku zu finden, aber so dieses Gefühl, dass du das anguckst und dann Leuten, also wirklich, dass du dabei bist, so ähnlich wie bei einer Konferenz. Wenn ich bei einer Konferenz bin, dann gehe ich in Sessions und dann erlebe ich die Sessions. Ich gucke mir die Videos aber im Nachhinein nicht so sehr an und so ähnlich geht es mir jetzt mit diesen Videos noch viel mehr als mit den Videos davor. So, die habe ich gerne auch nochmal nachgeguckt und jetzt ist es echt so, boah, die gucke ich jetzt nur, wenn ich das Wissen wirklich brauche.
Also mir geht durch diese Hektik der Abfolge was verloren, also ich fand das eigentlich viel sinnvoller, dass man sich noch mehr aufs wesentliche konzentriert und natürlich fand ich den Entertainment Value einfach auch extrem hoch. Also ich meine gerade die Steve Jobs Ära war einfach super unterhaltsam, fand ich. Und gut, dass Tim Cook da nicht liefern kann, aber ich meine er hat ja irgendwie genug alberne Vögel um sich herum, das kann ja auch funktionieren.
Der wird wahrscheinlich nie Apple Chef werden, aber wenn er es wäre, dann wäre wieder was da. Ich meine das ist jetzt für Apple vielleicht nicht das allerwichtigste mich zu unterhalten so und am Ende werden sie natürlich an verkauften Geräten gemessen, aber das ist natürlich so ein Ding. Ganz ehrlich, wie lange habe ich jetzt Macs seit, also ich habe meinen ersten Mac 84 mal angefasst und ich glaube 99 oder 91 habe ich irgendwie meinen ersten gekauft und wenn man damals ein Auto sah, wo hinten ein Apple Aufkleber drauf war, dann war das so, boah was, es gibt auch noch andere. Und gestern fuhr nämlich irgend so ein Porsche mit so einem Apple-Aufkleber vor mir her. Und ich dachte mir nur so...
Oh Gott, ich muss in den Underground so, also klar da können sie jetzt nichts hören, das ist vorbei, das ist schon länger vorbei, aber wir sind ganz interessant, wir haben ja jetzt wieder so eine Keynote wirklich in der es um eine Produkteinführung geht, das heißt das ist ja ganz selten diese Dinge wie sie passieren, Und ich finde auch, die ist leider viel zu steril gewesen im Verhältnis. Wir kommen ja nachher gleich dazu. Aber die war so, wenn du das iPad, selbst die Watch, die Watch war ja so ein Event, so ein Live-Event, der auch keinen Sinn gemacht hat mit dem ganzen Gold. Und wenn ihr das nochmal vor Augen führen könnt, dieses Watch-Video, das dann auch im Stream übrigens abgekackt ist, irgendwie mit Interlaced-Streifen und so gelaufen ist, so richtig ein schöner Fail gewesen damals. Aber wenn man den Switch hat von iPad oder vom Telefon noch, oder vom iPod, oder auch von Mac OS X, wo hat diese Produkteinführungen, diese größeren, diese geileren, dann ist die jetzt schon irgendwie zu polished rund und gar nicht so weit weg von so einem Google-Video gewesen. So gefühlt. Und das finde ich auch ein bisschen schade, weil das hat irgendwie mehr Spaß gemacht früher, weil begeistert hat es mich schon.
Die anderen haben halt auch einfach nachgezogen, finde ich. Also Microsoft-Geschichten, Google-Geschichten, so ist es auch nicht so, dass die jetzt halt auch irgendwie erst vor zwei Jahren auf den Trichter gekommen sind. Oh, okay, vielleicht gehört das auch zu unserem Imageaufbau mit dazu. Da ist auch einfach mal die gesamte Welt hat sich da verschoben. Und ich glaube, vor zig Freakshows, als ich auch irgendwann mal Gast war, habe ich schon gesagt, eigentlich müsste Apple mal wieder ein neues Grundformat irgendwie erfinden. Also wo man wieder mal so ein Paradigmenwechsel hat und irgendwie mal wieder eine ganz andere Art von Showkonzept in Anführungszeichen mal irgendwie ausprobiert. Aber ich hatte damals keine Ahnung wie das aussehen könnte und hab's heute immer noch nicht.
Die haben ja ihre Store-Infrastruktur. Warum dafür nicht Tickets verkaufen und überall auf der ganzen Welt kannst du dann im Vorfeld das gemeinsam angucken. Dann hast du schon mal ein bisschen mehr Live-Feeling als sonst und danach hast du eine Hands-on-Area, als ob du da eben... Wenn du in San Francisco bist, fände ich nicht so abwegig.
Sowas in der Art habe ich damals zur Einführung von dem Powermac G5 mitgemacht, da hatten die tatsächlich so einen größeren Saal gemietet, dann gab es eine Übertragung und hinterher konnte man dann in einen anderen Raum laufen und da waren dann da die Kisten aufgestellt und man konnte da drauf rumklicken.
Also klar du hast mehr Chaos, du hast mehr irgendwie Leute die viel zu früh anfangen irgendwo sonst was für Details dann irgendwie abzufotografieren, jetzt müssen sie halt nur einen Raum unter Kontrolle halten, ja das ist natürlich mit tausend Räumen, du musst die Sachen durch die Welt schicken, da gehen natürlich dann Kisten verloren und werden sonst wo schon irgendwie geleaked. Klar ist es nicht einfach, aber ich bleib dabei sich irgendwas in der Richtung neu einfallen zu lassen wäre glaube ich keine schlechte Idee.
Also ganz ehrlich, die Notch guckt sich so schnell weg, wie beim iPhone, das ist… Dieser riesen Menubar, da krieg ich ja schon… Also gerade wegen dem Menubar geht es noch viel schneller weg als bei allen anderen Geräten, weil es ist ja auch gerade beim 15 Zoller echt wurscht. Beim 12er, 13 und 14 so von der Größenordnung merkt man es so ein bisschen, weil eben halt einfach der Statusbarplatz ausgeht und das ein bisschen peinlich ist. Aber ansonsten, Heike, du sagst es, der Platz geht weg.
Außerdem bin ich ein großer Freund von dem Wedge Shape, also ich finde einfach das M1, Macbook Air, das ist einfach Hall of Fame, ganz weit oben, das ist einfach einer der geilsten Computer die Apple je produziert hat und ich werde die noch so lange kaufen wie sie da sind, bis sie was liefern wo ich sage, okay, dann geh ich jetzt wieder mit.
Für andere Leute, für mich ist das nix, weil ich sowieso, der ist mir zu groß, also ich will einen kompakten Computer haben und ich bin früher mit einem 11 Zoll rumgelaufen und war sehr glücklich, Da hätte ich auch kein Problem damit gehabt, wenn das Format beibehalten worden wäre. Der 13, das ist halt der kleinste, den es gibt. Der passt in meine Tasche rein. 15 Zoll ist mir schon too much. Also weil die paar Streifen Pixel da drum herum extra, die bringen es für mich nicht. Für mich ist kleiner Laptop, kompakt, möglichst leicht plus größtmöglicher Bildschirm, Desktop, Rechner ist mittlerweile my way.
Und was ich dazu sagen muss, was wirklich geil wäre, wäre, wenn das damals total underpowerte mit dem Atom, das 12er, das M1 Adorable, das wäre das Ideale eigentlich. Das hätte ich gerne mit der M1 Ausstattung drin. Das wäre so mein kleines Gerät und dann ein großes Desktopgerät, was für mich im Moment trotzdem ein Laptop ist, weil ich ihn ab und zu mal mitnehmen können will und es eh wurscht, das Gefühl, weil so viel sind die Mac Studios auch nicht viel besser für meine Anwendungsfälle. Aber so für dieses transportable Gerät zählt jedes Gramm und jeder Millimeter links und rechts und oben dran. Und das Display ist mir eh ab einer gewissen Größe zu klein, damit es sich groß anfühlt. Und das 11 Zoll fand ich auch super. Das würde ich auch wieder nehmen sogar, mit den geilen Innereien.
Also wo ich mitgehen würde, ist die Abkehr von der Wedge-Form, dass das keine gute Idee ist, weil ich finde, das ist auch so ein Distinktionsmerkmal des Air immer gewesen. Du hast sofort ein Air erkannt. Jetzt hast du eigentlich keine echte Chance mehr, ein 13 Zoll Air von einem 13 Zoll MacBook Pro zu unterscheiden, es sei denn, du hältst sie direkt nebeneinander, welches jetzt irgendwie ein bisschen dünner oder dicker ist. Und das finde ich eigentlich schade, weil das so ein Designmerkmal einfach war.
Auch in der Benutzung. Also es fühlt sich ja auch gut an, diese Wedge, so wenn man das Ding so durch die Gegend trägt, so ein bisschen an der schmalen Seite, das ist einfach netter, als wenn es so ein gerades Ding ist. Das gefühlte Gewicht ist weniger, selbst wenn es nicht so ist, das ist ganz komisch. Also ich finde auch so, ich werde mein M1 MacBook auch, glaube ich, bis zum Ende benutzen, bis Apple das nicht mehr supportet in irgendeiner Form, weil das ist ein tolles Gerät, das ist schnell genug für alles, was ich machen will mit diesen Geräten. Ich habe mir die 2TB-Bike gegönnt damals, das wird einfach mal langen, ich bin gespannt. Das wird wahrscheinlich das erste Gerät, das mich dann wirklich beißen wird, im Sinne von, das ist ein unreparierbares All-in-One-Gerät.
Was mich gewundert hat, ist, dass sie wirklich einen neuen internen Aufbau gebaut haben für das 15er. Da hätte man ja davon ausgehen können, sie nehmen einfach die Platine und die Innereien vom 13er und packen in den zusätzlichen Platz einfach mehr Akku rein. Aber die haben ja wirklich ein komplett neues Motherboard halt dafür kreiert. Warum sie den Aufwand jetzt betrieben haben? Keine Ahnung. Was ich noch interessant oder zu beachten finde und was für mich mittlerweile ein Kauf-Ausschluss-Kriterium ist, es hat halt wirklich den schlechteren Screen, den schlechteren Bildschirm, der eben nicht diese MacBook Pro HDR-Funktion und Brillanz hat. Müssen wir vielleicht irgendwann mal ein Sonderthema in der Freak Show zu machen, HDR. Schönes Thema finde ich. Wenn man das einmal gesehen hat, einmal das Licht gesehen hat, im wahrsten Sinne des Wortes, will man nie wieder zurück.
Also ich glaube für Apple ist es total überfällig gewesen so ein Format rauszubringen, weil manche brauchen halt einfach einen größeren Bildschirm oder wollen den einfach haben und das ist ja auch super und ich ja ich wenn ich mir was wünschen könnte wäre das ein ein MacBook Air M2 im Wedge Design mit vier USB C Ports das wäre wirklich also der einzige Grund für diese Pro Rechner ist vier USB C Ports weil es nervt.
Es gibt mittlerweile auch USB-C-Extender, also es gibt so irgendwie Dongles, wo dann drei USB-C-Dinger dran sind. Da werde ich mir glaube ich noch ein paar mehr von zulegen müssen, weil sonst wird man diese ganze Kabellage nie los. Also ich meine diese ganzen Standard-Adapter, mit denen man so rumläuft, wo dann so ganz viel USB-A dran ist, Das war's für heute. Bis zum nächsten Mal. Hilft mir nicht, weil dann kann ich nicht noch mehr USB-C Kabel für alles mitnehmen, ich brauche nur mehr USB-C Konnektivität und es muss ja nicht immer Thunderbolt sein, es reicht ja wenn da mal nur USB drauf ist so, es geht ja um den Stecker erstmal, dass man einfach wegkommt von A und.
Das ist ja dein Dock. Also du schließt ein Kabel an und fertig. Also wie man es dreht und wendet, jeder Bauer braucht irgendwie wann anders Regen. Aber so ist es halt nun mal. Ich denke MacBook Air 15 Zoll können wir abschließen. Wir sind uns einig, das ist ein korrektes Produkt, auch für einen korrekten Preis für Apple und können es machen. Demnächst dann ohne Notch und dann kaufe ich sowas auch noch.
Genau, den Lüfter haben sie korrigiert, was super wichtig ist, weil das fand ich peinlich, dass wirklich das Vorgängermodell zu viel Lüfter hatte für ein Apple M-Produkt. Das darf nicht sein, finde ich. Also ich finde gerade auch so noch ein Vorteil von dem wedge-shaped MacBook, das ist lüfterlos, weil die Airs haben auch Lüfter, glaube ich. Nee. Nee? Die MacBook Airs haben, ich glaube schon.
Bei mir ist es immer noch FFmpeg. Da kannst du das Ding einfach auslasten ordentlich, wenn du mit FFmpeg H.265 codierst. Was ich immer noch mache, weil es die kleineren Files macht, als alles eingebaute mit irgendwelcher Hardwarebeschleunigung. Und da hast du einfach volle Auslastung und dann bist du innerhalb von 0,0x auf das, was denn hier lüftet.
Also ich würde dir insofern recht geben als dass das auch hoch kann. Ich hab hier jetzt mal diese Ansicht wo man wirklich genau von vorne drauf guckt, das ist halt so eine Asymmetrie, es wirkt halt wie oben so ein bisschen abgeschnitten beim Metzger so die Fleischwurst halt, als ob da vielleicht von oben irgend ein bisschen was fehlt.
Ja also ich finde ihn nicht hässlich, aber ich finde ihn auch nicht schön. Also ich bin da wirklich so genau in der Mitte angelangt und denke mir die ganze Zeit so hmmm. Und am Ende zählen natürlich die inneren Werte, die sind so nicht so schlecht glaube ich, allerdings ist der Preis auch sportlich ne. Der ist holler die Waldfee. Ja vor allem wenn man das so mit, wo sie ja immer so richtig zuschlagen ist ja so SSD, also gerade da wo man sich so denkt so einmal rechts unten bitte und was kostet irgendwie so ein rechts unten Mixstudio? Gucken wir mal, weil großes Metathema hier in der Meta-Ebene, mich kotzt mein Studio Setup an, ich hab das jetzt seit 14 Jahren und mittlerweile komm ich selber nicht mehr klar damit, alles muss neu sein und ich denke schon sehr sehr sehr lange darüber nach, was der Nachfolger meint ist, Aufgepasst! Pro von 2009 sein könnte, den ich hier immer noch betreibe und der funktioniert super und der jetzt in diesem Moment diese Sendung aufzeichnet.
Für ein paar Anwendungen ja also so rausrendern und so wenn ich jetzt hier den Cut gehe dann starte ich so eine Silence Detection das dauert bei so einer Freakshow 4 Tracks 4 Stunden da sitze ich dann erstmal so 10 Minuten und dann weißt du und dann bin ich an den Parametern rumfummeln und dann breche ich das nochmal ab und dann mache ich das nochmal und dann dauert das, dann gehe ich auf einen anderen Rechner. Also dann ziehe ich dann doch auf mein Mac Mini um.
Naja also wir können ja mal diesen Mac Mini hier auch mit rein nehmen, der ist, wann ist der angekündigt worden? Vor ein paar Monaten, den haben wir aber hier nie so richtig besprochen. Oder? Glaube nicht. Und den finde ich ja auch sehr interessant, also Mac Mini bin ich sowieso ein großer Freund davon und gerade wenn man das jetzt mal so preislich vergleicht, da kriegt man dann die Dinge dann doch auch noch sehr viel billiger also das ist bei Mac Studios dann der ganze extra Kram auch nochmal teurer. 10 Core CPU, naja 10 Core CPU, sogar 12 hier der Mini.
Aber nicht beim Mac Mini erstaunlicherweise, ich bin jetzt hier gerade auf der Apple Mac Mini Seite und da steht der M2 Pro mit 12 Core CPU, live klicken mit der deutschen, es gibt dann noch ein Update, es gibt den M2 Pro auch noch in einer 12 Core Variante, da legst du dann nochmal 345 Euro extra drauf. Genau, also man kann die schon irgendwie ähnlich konfigurieren. Ich kann ja mal folgendes Experiment machen. Ich nehme mal den größten Mac Mini den es gibt mit 12-Core, also den Pro, den M2 Pro, genau, mit 32 GB RAM und sagen wir mal 2 TB SSD, das ist so das was ich haben will, 10 Gigabit Ethernet, kostet mich 3.160, Euro laut Apple. Dann gehe ich mal auf ein Mac Studio mit dem M2 Max, der auch nur eine 12-Core CPU hat aber halt noch sehr viel mehr GPU, hier steht auch noch 16-Core Neural Engine, was ist eigentlich bei dem M2 Pro, der hat doch auch eine Neural Engine, ja genau.
Das Problem ist jetzt, wenn ich den natürlich so konfiguriere wie den mic mini ich maximal konfigurieren kann, dann konfiguriere ich ja ein System, wo überhaupt nichts auf maximal ist und dann sitze ich so vor dieser Bestellung und denke mir so, das ist aber jetzt nicht das Rechtsundmodell. Und dann denkt man sich so, ach ja, hier, da könnte man ja nochmal ein bisschen, ach, den gibt's auch mit 24 Chor, so ultra.
Genau, die sind so Scheckkarten groß nur noch, da musst du halt nur einen Thunderbolt-Port hergeben, mehr oder weniger, aber ich hab das damals eigentlich auch bei dem Mac Pro so gemacht, weil das Interne ist, also wenn du das Gerät eh da liegen hast, dann ist es auch wurscht. Und diese Dinger sind super stabil gelaufen bei mir, also die haben überhaupt keinen Ärger gemacht. Die werden ein bisschen heiß, da musst du ein bisschen aufpassen, aber so, die sind halt echt… In der PC-Welt gibt es inzwischen Lüfter für SSDs. Die sind ja gigantisch viel günstiger. Da kannst du ja 2TB für einen Furz kaufen.
Naja, so eine ganz schnelle, die gehen ja über PCI-Express, die schnellen SSDs, und dann willst du sie schon per Thunderbolt anschließen, aber dann würde ich eher gucken, Dann würde ich eher gucken, ob du ein entsprechendes Gehäuse findest und dir dann entsprechend die dazugehörige Karte kaufen oder die SSD kaufen, die du dann haben willst, weil der SSD Markt ist extrem volatil. Das was heute eine gute ist, ist in vier Wochen halt nicht mehr eine gute.
Du musst trotzdem wieder viel Recherche machen und das Richtige machen und so weiter. Wenn du die maximale Geschwindigkeit haben willst, dann bekauf dir den internen Scheiß von Apple, weil dann befährst du besser mit. Wenn du aber damit leben kannst, dass du nicht die maximale Geschwindigkeit hast, dann hast du halt wirklich mit diesen externen USB-C-Dingern halt echt einfach ein unglaublich großes Budget für viel Platz und die Dinger nimmst du halt einfach auch. Also ich habe da einfach vier von, fertig. Und wenn ich irgendwo Daten hin und her transportieren muss oder mal was brauche, dann sind die halt da dabei und fertig. Und die sind nicht die interne eingebaute Geschichte, das heißt, es hängt nicht an dem Rechner, dass der mal kaputt geht oder nicht und man zahlt halt die Apple-Steuer nicht. Dann kannst du nämlich wirklich interne Größe relativ klein nehmen.
Also es gibt für verhältnismäßig wenig Geld so 150, ne stimmt gar nicht, doch das Gehäuse ab 150 Euro gibt es ein Thunderbolt von OWC Envoy Express wo zwei Slots reingehen und wenn man sich da irgendwie 2x8TB reinballert dann ist irgendwie alles super und das kann man halt zur Not auch mitnehmen und in den Laptop stecken und so weiter das ist natürlich auch ganz geil. Wobei ich gerade so ein bisschen gebranntes Kind bin, weil mir meine Synology abgeraucht ist nach dem Softwareupdate und sich auch mit dem Hardreset und Factoryreset bisher nicht wieder in die lebendige Zone holen lässt.
Ich hab keine Ahnung, was kaputt ist, weil ich kann ja nicht darauf zugreifen und das geile ist, ich hab versucht das Ding, also Hard Reset ist mir dann auch gelungen, dann kommt irgendwie diese komische Software, dieser Synology Assistant mit dem schlechten User Interface hoch und sagt so, ja hier würde ich gerne neu einrichten und so. Ja, okay, dann muss ich selber mir das richtige Disk-Image mit dem Betriebssystem aussuchen, was ich da gerne installieren möchte, das sie das für mich tun könnten oder sowas. Und dann mache ich das und dann fängt er so an und dann ist er so bei 56 Prozent. Und dann meinte er so, ja ich kann dieses Ding nicht lesen, da ist ein Fehler irgendwie passiert, Klammern 22. Also so eine richtige Apple Fehlermeldung. Und natürlich keine Hilfe, ja könnte das Motherboard sein. Sagt mir die Datei ist irgendwie nicht lesbar, aber es könnte das Motherboard sein. Also Synology muss ich sagen ist ja hier hochgelobt worden und ich hab mir richtig mich da rein investiert und muss sagen bisher ist meine Erfahrung eher schlecht.
Naja es gibt halt auch keine Lösung mit ZFS. Egal. Auf jeden Fall, wir waren ja gerade bei MacStudio und bei Expansion und ich könnte mir durchaus vorstellen, dass ich mir so ein MacStudio kaufe. Ich bezweifle nur, dass ich den dann in der maximalen Konfiguration kaufe, wie ich ein MacMini kaufen könnte. Sondern Leute da gehen 192 Gigabyte RAM rein.
Also ich habe jetzt in meinem Rechner 32 drin, das reicht bis jetzt ganz ordentlich. Die Firma hat mir einen Rechner mit 64 Gigabyte hingestellt, was ich ein bisschen übertrieben finde und wahrscheinlich bis zum Lebensende oder dem projektierten Ende des Rechners auch wahrscheinlich nicht ausnutze. Aber your mileage may vary.
Also die 16 merkt man auf alle Fälle. So die 16 sind ein bisschen zu wenig. 32 finde ich ist für meine Anwendungsfälle immer ganz gut gewesen. Da ist auch immer noch gut Luft für auch mal Experimente zu machen mit irgendwelchen komischen virtuellen Machines und so weiter. Da ist aber ein bisschen Platz und dann ist gut. Ich meine die SSD ist eh so schnell, dass im Zweifel, wenn was passiert, kann man gut ausgleichen. Ich denke mehr als 32 solltest du wirklich nur nehmen, wenn du weißt, du brauchst es, wenn ich ehrlich bin.
Also als ich mein M2 mir jetzt geholt habe, habe ich mir relativ genau vorher angeguckt wie war meine Nutzung als ich noch den Classic M1 hatte, den allerersten und da hatte ich schon 16 Speicher. Und ich hab hier ja hier iStats Pro und da kriegst du ja wirklich so eine History über ein paar Tage, Wochen, Monate, wenn du ständig drauf guckst und ich hab's nie geschafft den über 50 Prozent Speicherauslastung zu kriegen. Und ich hab sicherlich 20 Programme gleichzeitig plus noch Machine Learning Geschichten, die parallel laufen. Also von daher mehr als 32 ist echt nicht realistisch. Also nimm 32, wenn du Seelenheil haben willst, aber alles mehr ist Quatsch.
Prinzipiell ist es erstmal keine schlechte Maschine würde ich sagen. Die Frage wozu das ganze müssen sie aber doch irgendwie nochmal verargumentiert bekommen. Also ich meine es ist ja jetzt nicht so als wie viel kann man wie viel PCI Karten kann man da reinstecken fünf oder sechs oder so fünf sind. Ich glaube, das ist dann auch schon der gesamte Markt für PCI-Karten, die mit dem Mac funktionieren und einen Armtreiber haben. Also das ist halt das eigentliche Problem an der Kiste. Also wenn ich da jetzt sagen würde, ja ich könnte da jetzt vier AMD, nicht AMD, vier professionelle Nvidia-Karten für, weiß ich nicht, Machine Learning reintun. Und das würde out of the box funktionieren und und alles ist schick, okay, aber ich glaube, ich glaube, wenn ich mir angucke, was was was Nvidia, aber auch AMD Grafikkarten, die größeren allein an Strom ziehen, da sehe ich ja noch nicht mal die Kabel dafür, um da den Strom in diese Karten zu kriegen. Also das ist so das Ding wo ich mich frage okay wozu?
Also es hätte halt funktioniert, wenn sie halt diesen Quad M2 rausgebracht hätten, also eben nochmal eine Doppelung von dem Ultra, dass du eben alles mal zwei nochmal oben drauf hast, dann wärst du irgendwo bei 48 Kern gewesen und bei irgendwie 140 GPUs, damit hätte man dann schon wieder irgendwie ein Alleinstellungsmerkmal gehabt und da hättest du auch argumentieren können so, da brauchen wir jetzt Gehäuse und da brauchen wir nochmal ordentlich Lüfter und das kriegen wir in den Studio so nicht rein.
Ja, aber auch das ist glaube ich, naja gut, also diese GPUs haben halt sehr viel, also was der eigentliche Vorteil an dem Gerät ist natürlich, dass du dieses Shared Memory zwischen GPU und CPU hast und wenn du dann so ein Mac Pro mit weiß ich nicht wie viel, Hunderten an Gigabyte Speicher hast, dass du dann, wenn du das professionell benutzt als Grafiker, dann entsprechend halt auch viel Speicher verbrauchen kannst. Das ist ja das Problem an kommerziellen Grafikkarten, dass sie eigentlich für professionelle Anwendungen zu wenig Speicher haben. Deswegen verkauften die Grafikkartenhersteller ja die, die mit dem viel Speicher noch mal zu richtigen Profi Preisen.
Es ist einfach der exakt selbe Chip und das Ding ist halt half-assed und ich wage mal die These aufzustellen, dass das so gekommen ist. Sie wollten ursprünglich diesen Plan, der ja schon lange geleakt ist, eines Quad quasi, also wie auch immer der dann gießen hätte, einen Supra. Trans-Ultra. Und haben denen dann aus verschiedenen Erwägungen, die sicherlich was mit Kosten und vielleicht aber auch mit Produktionsproblemen zu tun haben, haben sie dieses Ding nicht gebaut bekommen zu diesem Jahr. Vielleicht kommt es ja noch. Und würde man nämlich alles hochrechnen, was diese Kiste kann, dann wäre er zumindest in einem Bereich, wo man sagen würde, okay, da ist er so halbwegs konkurrenzfähig mit dem, was du so derzeit an PC-Grafikkarten dir zusammenkaufen kannst in so sinnvollen Konfigurationen. Und mit 384 GB RAM bist du zwar noch lange nicht bei den 1,5 TB, aber da hast du schon wieder nochmal eine Schwelle genommen, weil es gibt natürlich Anwender. Insbesondere so im audio Bereich das unterschätzt man immer was die für RAM Bedarf haben.
Die laden einfach alle die ganzen Scheiß die ganzen Plugins die ganzen Samples laden die in RAM rein, da ist also keine Seltenheit dass die also wirklich alle Slots gefüllt haben mit irgendwelchen Spezialkarten Und dann 500 Gigabyte RAM einfach hochbooten und das ist dann sozusagen ihre Maschine, da gibt's nicht viele von.
Genau und so wird da gearbeitet because they can und dann werfen die halt nochmal 3000 Euro auf den RAM da kichern die drüber das haben die in 2 Stunden Studioarbeit haben sie die Kohle wieder drin. Also für die Leute ist halt so der Mac Pro auch nicht teuer, weil die investieren noch mal das Dreifache an Karten und an Plugins und so weiter. Also für die ist sozusagen die Studio Rechner Basisausstattung ohnehin ein extrem fünfstelliger Bereich, der vielleicht schon in den sechsstelligen Bereich reingeht. Da ist der Computer selber eher Pipifax, deswegen kann sich Apple an der Stelle auch diese Preise erlauben, die sie dann wahrscheinlich aber auch nehmen müssen für ein Gerät, was halt in so geringen Stückzahlen verkauft wird. Können sie natürlich auch sagen, sie lassen diesen Markt ziehen, aber da waren wir schon mal. Also das kann sich Apple nicht erlauben, bei den Top-Kreativen nicht dabei zu sein, insbesondere nicht im Musikbusiness, wo sie so fett investiert sind und deswegen gibt es halt diesen Mac Pro trotzdem, aber dieses Gerät ist ein Kompromisskandidat. Und dass sie sich entschieden haben, Grafikkarten jetzt auch komplett außen vor zu lassen, ist eine rein politische Entscheidung, weil das hätten sie natürlich auch auf dem ARM SoC machen können.
Ich glaube, das Problem daran ist, dass die letzte Generation ARM-Karten oder letzte Generation ARM-Silicon, das sie hatten als Grafikkarte, im letzten Mac Pro halt auch nicht mehr gut aussieht heutzutage. Und die aktuelle Generation AMD Grafikkarten, die haben ein Hardware-Problem und sind nicht so schnell, wie sie ursprünglich mal geplant waren, weswegen wahrscheinlich Apple sagt, das ist uns auch nicht schnell genug. Und ich kann mir vorstellen, dass sie auf die nächste Generation AMD setzen.
Weil ich denke, dass sie, sie wollen auf ihr Single Universal System, wollen sie hin und der Gedanke jetzt schon auf einer ARM Plattform dann doch noch mal zu sagen, wir können aber trotzdem noch mit diskreten GPUs arbeiten, was sie rein softwaretechnisch könnten, aber das ist eine rein politische Entscheidung, dass sie das nicht machen. Und ihr Kernmarkt für dieses Teil ist der Audiomarkt.
Ja, nee, aber ich glaub das ist auch ein Problem der Hardware. Sie wollen nicht mit Nvidia gehen, weil sie irgendwie Probleme mit Nvidia haben. Das haben sie ja seit Jahrzehnten fast schon. Wahrscheinlich aus gutem Grund, weil Nvidia wahrscheinlich nochmal so richtig Geld haben will, wenn Apple anklopft. Und mit AMD, die derzeitige Generation AMD-Karten ist einfach nicht so gut wie AMD, glaube ich, die geplant hatte. Die sind nicht verkehrt und die können halbwegs gegen Nvidia anstinken, aber eben nicht hundertprozentig. Und ich glaube, das sitzen sie aus. Oder aber, sie haben halt dieses Ding, also die Gerüchteküche ist halt, dass AMD das halt gerade so mit den Treibern hingekriegt hat, dieses Silicon soweit unter Kontrolle zu behalten, dass du es benutzen kannst und es ein ordentliches Bild gibt und es kann dann einfach sein, dass die Treiberportieren halt einfach noch ein halbes Jahr dauert, bis die ordentlich laufen und dann sehen wir vielleicht die Karte 7000er Serie. Ich weiß es nicht, wir werden sehen. Aber meine Vermutung ist, dass wenn sie nochmal eine externe GPU anbieten, oder eine zusätzliche GPU anbieten, dass sie dann wahrscheinlich auf die nächste Generation AMD setzen, 8000er Serie, wie auch immer sie dann heißen wird.
Andere Formate, die halt in diesen SOCs jetzt nicht drin sind, das ist ja alles irgendwie MPEG-4 hat 264, hat 265, ihr RAW-Kram, gibt auch noch andere Sachen und dann gibt es halt so MADI-Karten, also es gibt so High-Performance-Audio-Karten, wo du dann, was weiß ich, 256 oder 1024 RAW-Audio-Channels dran hast, die alle irgendwie, weißt du, Bus-Kapazität brauchen, Stecker brauchen, also es gibt diesen Bedarf. Das ist kein Riesenbedarf, das ist ein Nischenmarkt, aber es ist ein Nischenmarkt, den Apple nicht aufgeben kann. Deswegen haben sie sich für so ein Half-Ass-Ding jetzt entschieden, weil sie nicht noch länger, als sie es ohnehin schon gemacht haben, diese Transition verschleppen wollen.
Also viel war da nicht, also es scheint jetzt Widgets überall zu geben, das ja okay, wer es braucht. Was ich ganz spannend finde sind die Audio Message Transcriptions in Messages und ich hoffe, dass sie das auch als API anbieten für andere Messaging Systeme. Ich hab's mir nicht näher angeguckt, weiß ich nicht, Dom, weißt du da näheres, ob's da eine API für gibt?
Ich hab da jetzt auch nicht so reingeguckt, ich bin aber nach wie vor leider, also für Klangsynthese gibt's ja leider auch nicht die geile API. Das wollte ich mal so rum machen, die gibt's ja heutzutage schon nicht, dass man die geilen Siri Stimmen praktisch generieren lassen kann mit der API, insofern ist die umgekehrte Geschichte bestimmt auch hinter irgendwelchen komischen Limits.
Wir alle kennen diese Menschen, wir alle kennen diese Menschen, die in einem Chatverlauf plötzlich, ja ich hab jetzt keine Zeit zu tippen, ich schick mal kurz eine Audio Message und dann hast du fünf Minuten Audio Message da drin. Und logisch wäre natürlich, wenn man ein Audio-to-Text, wie auch immer das dann heißt, Transkription macht und er dir im Chatverlauf einfach mal als Text anzeigt, was hat denn die Person da gerade erzählt.
Das ist nicht der Benchmark, natürlich ist es nicht der Benchmark, aber das würde mir schon weiterhelfen, weil ich könnte mir dann trotzdem immer noch erschließen, worum es geht. Es gibt halt viele, also mir geht es so, dass es viele Situationen gibt, wo ich dann halt einfach auch keine Audio Message hören möchte oder kann, sondern einfach halt auch kurz drüber lesen, worum geht es eigentlich und muss ich mich da näher mit beschäftigen und dafür finde ich das sehr sehr gut.
Also viel interessanter fand ich ja die Integration, die sie für den amerikanischen Markt angekündigt haben, dass sie ja auch den Anrufbeantworter, also die Voicemailbox, quasi auf dem Telefon transkribieren lassen. Und das ist natürlich in einer Hinsicht sehr interessant, weil das ja bedeutet, dass ein Anruf, der eigentlich auf eine Mailbox geht, was ja sagen wir mal eine Funktion ist, die wir primär eigentlich als Leistung des Netzwerks kennen, dann auf dem Telefon bearbeitet wird. Das heißt, der Anruf wird tatsächlich angenommen, ohne aber wahrscheinlich abrechnungstechnisch... Keine Ahnung, also das ist abbrechnungstechnisch auf jeden Fall eine Frage, das werden sie geklärt haben. Auf jeden Fall das Telefon zeichnet dann diese Nachricht auf. Und ich hab mich immer schon gefragt, diese Voicemail-Integration, die sie ja eigentlich von Anfang an hatten beim iPhone, das war ja so eins der ersten Features, so wir machen Voicemailbox ordentlich. Also nicht du hast so anrufen, drücken sie eins, drücken sie fünf und so.
Sie haben sich bemüht das so zu ziehen und mein Verständnis damals war, Sie machen das eben bei Providern, die Provider wurden dann von Apple gezwungen, Apple eine API dafür bereitzustellen. Ja. Das ist mein Verständnis, vielleicht liege ich da falsch, aber ich glaube so ist es gelaufen. Und jetzt, entweder sind wir da schon eine Weile oder das ist jetzt quasi das neue Zeitalter, dass das Telefon vollständig selbst den Call handelt, selbst wenn du nicht rangehst. Das heißt, dich ruft jemand an, du hast eigentlich auf Voice Mailbox gestellt, das Telefon geht einfach ran, sagt dir nicht Bescheid, spielt irgendwas ab und während dann diese Person in dein Telefon hinein quatscht, wird es transkribiert und läuft dann eben auf dem Bildschirm mit. Das heißt, du kriegst schon angezeigt, dass da ein Anruf ist, aber dass der eben erstmal quasi so ein Text-Gateway bekommt und das ist natürlich ganz cool.
Ja, für mich jetzt keine Anwendung, weil es gibt nur eine Person, die bei mir auf die Mailbox spricht, das ist meine Mutter und die hat immer noch nicht verstanden, dass sie mich nur erreicht, wenn sie mich aufs Handy anruft und dass ich auch die Mailbox von meinem Festnetz, hier sind Airquotes, Anschluss auch selten abhöre.
Also die Technik das ganze on device in Echtzeit zu machen ist einfach da, wir testen im Ultraschalluniversum gerade halt viel mit Whisper rum um halt eine lokale Transkription von Audio Podcasts zu machen, dass man es also nicht zu irgendeinem Internetdienst hinschickt sondern wirklich konkret auf dem Gerät und selbst ein kleineres Whisper Modell ist von OpenAI auch das ganze rausgebracht und es gibt halt einen Port für die M1, M2 Architektur und selbst ein kleines Sprachmodell läuft in zweifach, dreifach Realtime durch mit einer sehr guten Erkennungsqualität für Deutsch. Also der Drops ist gelutscht und das läuft dann komplett auf der Neural Engine und braucht praktisch keinen Strom. Das heißt, du kannst dann auch aussuchen, du sollst auf den GPUs das Ganze rendern, Dann siehst du also auch wie der Stromverbrauch hochgeht oder schickst das ganze in die Neural Engine rein von den M-Chips und da verbraucht es dann praktisch gar keinen Strom und ist genauso schnell. Das ist also schon beeindruckend.
Weil es sogar so reinpasst, in Anrufbeantworter in FaceTime können dir Leute jetzt auch Videonachrichten schicken auf deinen Anrufbeantworter in Anführungszeichen. Das heißt FaceTime gibt es jetzt auch asynchron, das heißt du hast die Menschen, die gerne diese asynchrone Zeichenhebersaufnummer machen mit Audio und live angucken müssen, die sind mit FaceTime noch viel heißer drauf demnächst. Bin ich mal gespannt.
Simon im Chat bringt gerade den richtigen Hinweis uns noch, dass es natürlich auch sein kann, dass nach wie vor die AP beim Provider ist, nur er sich das dann runterlädt. Aber soweit ich das verstanden habe, war das in Realtime diese Transkription. So habe ich die Keynote verstanden von daher bin ich jetzt davon ausgegangen, dass das Telefon tatsächlich den Call händelt. Also nachträglich geht es natürlich auch aber es war ja so das Ding transkribiert und anhand dessen was geschrieben wird entscheidest du ob du den Anruf dann in dem Moment auch annimmst und dann muss das ja ein Realtime sein also das, das, das, das. Eine andere Sache die da so mit IOS und so mitgekommen ist, ist ein neues Auto, korrekt? Und das ist wieder ein Moment wo sie AI gesagt haben ohne AI zu sagen, was ihnen ja die ganze Zeit gelungen ist, ich glaube es ist kein einziges Mal der Begriff AI gefallen.
Ich immer noch nicht genau weiß, ob ich den eigentlich, genau, Brownlee, ich find den irgendwie charmant. Er macht gute Punkte. Ich weiß bloß immer noch nicht, ob ich das ganz toll finde. Da bin ich irgendwie noch nicht. Aber eine Sache hat er sehr schön erläutert, nämlich wie Apple generell mit Bezeichnungen umgeht und wie sie Sachen nennen. Und nahezu alles, was ihre Betriebssysteme, ihre Geräte so können und wo irgendwie special source drin ist. So hier haben wir eine Technologie benutzt. Dann sagen sie aber nicht AI. Sondern sie denken sich entweder was eigenes aus, also jede Sache hat immer so einen eigenen Apple Namen, Shareplay, Name Drop, Retina Display und so weiter, wo man auch irgendwie das nennen könnte, was alle anderen sagen. Aber Apple will halt nicht das sagen, was alle anderen sagen, weil wenn sie das Wort nehmen, was alle anderen sagen, dann sind sie ja Me Too. Erstens sind sie Me Too. Und zweitens, ja aber wenn auch andere Firmen dann diese Begriffe vielleicht auch übernehmen, dann sind sie sozusagen Büttel der Definition anderer, das mögen sie überhaupt nicht. Und sie schützen sich natürlich auch vor anderen Konnotationen mit diesem Begriff, unter dem sie nicht in der Zukunft leiden möchten und das ist zum Beispiel bei AI so, weil wenn du an AI denkst, dann denkst du halt nicht nur an, Google macht Transkription, sondern AI ist halt auch Gefahr aus dem Weltall, wir werden alle sterben, ich verliere meinen Job, Weltuntergang, alle möglichen Leute benutzen diesen Begriff, überall wird der debattiert und du weißt nicht, ob Fox News nächste Woche irgendeine Kampagne lostritt und dann stehst du da mit deinem Hochglanzprodukt, was du für viele Billionen produziert hast und dann viele Billionen Leute verkaufen möchtest. Und dann ist halt diese Basis, dieser Message ist dann halt verloren. Und deswegen denken sie sich für jeden Scheiß was eigenes aus. Das fand ich eine sehr schöne Analyse und das passt. Autokorrekt benutzen sie allerdings wie alle anderen. Und hier haben sie dann aber eben dieses Transformer-Model als Begriff eingeführt und was sie damit meinen, ist halt so, naja, halt Chachipiti sozusagen. Wir können jetzt ganze Sätze vorhersagen, wir machen jetzt auch das mit den Texten und mit der Wahrscheinlichkeitsvorhersage, also Autokorrekt ist jetzt eben nicht nur einzelne Worte.
Also sozusagen die Technologie, die auch ein Chat GPT ermöglicht. Die wissenschaftliche Basis quasi dessen, was da drin ist. Nicht Chat GPT und auch vielleicht nicht genauso, aber Apple hat da auch schon mal was von gehört und die haben auch ein paar Leute, die sich ein bisschen mit Machine Learning beschäftigen und sind auch in der Lage das vielleicht mal einzusetzen. Ich habe keine Ahnung, ob es funktionieren wird, aber ich denke mal eine Verbesserung bei Autokorrekt könnte ein ganz großes Feature sein.
Ich muss sagen, als Kunde sehe ich das ja echt mit so viel Schmerz, wie schlimm das geworden ist mit der Zeit. Es ging ja wirklich einfach nur mit der Zeit bergab, wie das mit dem Tippen funktioniert hat. Am Anfang, wie das iPhone 1 rauskam, hat jeder gemeint, wir haben ja keine Buttons, das ist ganz schwierig. Und da hat es ganz gut funktioniert im Verhältnis. Da war es irgendwie gefühlt gut, weil man konnte relativ gut tippen. Und dann ist es mit der Zeit mit jeden mehr Features immer schlimmer geworden. Und im Moment ist es wirklich so, was mir das AutoCorrect zusammenschreibt, in meinem Gebrauch vor allem, wo ich so ein gemischtes Englisch-Deutsch-System habe, wo ich nicht immer auf der richtigen Tastatur bin, ist einfach eine Katastrophe, was ich teilweise Leuten schon geschrieben habe. Das Ended Feature von Messages von letztem oder vorletztem Jahr ist mit das wichtigste Feature überhaupt, dass ich das irgendwie so korrigieren kann, weil was da teilweise rauskommt, ei, ei, ei.
Naja ich meine deren Beispiel, das sie in der Keynote hatten, sagte er auch alles mit ihrem Ducking Autocorrect. Also das war ja irgendwie, das war ja ein Problem, in das alle reingelaufen sind. Aber gut, vielleicht ist es auch der Apple Stock im Arsch Profanity Filter, den sie da irgendwie mal ausgemacht haben. Das kann ja nicht auch sein.
Also grundsätzlich glaub kann man natürlich sagen kann man das nur begrüßen also jede Verbesserung in dem Bereich ist gut und wenn sie da in der Tat jetzt ein eigenes large language model drunter haben besteht ja vielleicht doch noch Hoffnung dass sie das als nächstes oder übernächstes dann auch mal auf Siri ausrollen. Wobei hat haben die die Geräte sowas wie jetzt hier die ich AirPods sondern wie heißt diese Krachmacherkugel. Homepods, genau danke.
Weil also ich wiederhole mich diese Whisper Geschichte die läuft halt wirklich verstörend gut auf der Norel Engine, wo man sich immer jahrelang gefragt hat wozu promoten die die eigentlich so und immer ist sie irgendwie in ihren Werbungen drin aber was macht denn dieses Viech jetzt eigentlich wirklich. Und wenn man das mal wirklich sieht so Performance versus Energieverbrauch, das wären also dann für die Homepods wäre das, wo ja Siri als quasi alleiniges Merkmal drauf läuft, dann könnten sie das da schon in Stellung bringen und vielleicht ist jetzt diese Autokorrektur quasi erstmal ein erster Breitband-Feldversuch um zu gucken, so funktioniert das wirklich so wie wir uns das vorstellen.
Naja, ich hab halt ein Netz für mich und ein Gästenetz. Und sämtliche Apple Devices haben Probleme damit zu verstehen, dass manche Geräte in das eine Netz gehören und andere Geräte in das andere Netz gehören. Und dass man halt auch egal, ob man jetzt über iCloud jetzt weiß ich nicht oder die Netze shared, dass manche Geräte in manchen Netzen nix zu suchen haben. Das weiß ich nicht, das kriegen sie nicht hin.
Genau das ist quasi so foursquare in apple messages, also das ist ein neues Feature von apple messages, dass Kinder in deiner Family sagen können, so ich bin jetzt hier bei der Schule angekommen oder ich bin beim Sport angekommen oder ich bin bei Freund XY angekommen und dann kriegst du das auf deinen Devices, kannst du dann sehen.
Genau, nur dass es quasi eine Umdrehung weniger helikopterüberwachungsmäßig ist. Also du kannst dann quasi, wenn du deinem Kind schon etwas mehr vertraust, kannst du offiziell das, genau, kannst du das Find My abschalten auf dem Device des Kindes, dass es etwas mehr Freiraum und weniger Überwachung hat. Und kannst dann aber sagen, so und dafür checkst du dich dann aber bitte bei den entsprechenden Stellen ein und was dazwischen geschieht, ja, stays in Vegas.
Ich gutes feature ja okay so betrachtet ist es natürlich so es gibt auch leute also was man auch machen kann es eben zu sagen dass man wenn man irgendwo wieder hinkommt dass es automatisch eine nachricht gibt so da muss man so. Wenn man nach hause fährt von den eltern zum beispiel die mögen das ja auch gerne dass man dann bescheid bekommen wenn man zu hause ist und die gucken dann immer auf ein mal und die können dann auch push nachricht bekommen stattdessen.
Also Find My hätten sie auch gerne noch ein bisschen ausbauen können, weil es ist ja durchaus ein hilfreiches Feature, aber gerade in puncto so selektive, wie soll ich sagen, Freiraumschaffung, weil die einzige Möglichkeit ist mit all den Leuten, mit denen du deinen Standort teilst, du kannst halt entweder den Standort teilen mit allen oder ganz ausschalten. Und das ist eigentlich nicht zeitgemäß. Also es müsste möglich sein hier Gruppen schaffen zu können, zu sagen, es gibt hier meine Favorites, die dürfen auch weiterhin gucken, aber ich will halt auch mal so ein Privacy Mode haben, wo jetzt nicht jeder gucken muss.
An sich ist es nämlich auch ganz reizvoll, ich hab so ein paar Freunde, die sehe ich selten so, aber die sind auch in anderen Städten, teilweise in anderen Ländern. Jemand der die ganze Zeit um die Welt zieht zum Beispiel, Leute die auf Weltreise unterwegs sind und so weiter und das ist einfach super cool. Dann so, ah da bist du jetzt angekommen und tralala dann könnte ich ja jetzt mal wieder Kontakt aufnehmen, weil hm bist du jetzt wieder da, dann wollte ich ja sowieso mal vorbeischauen. Die Nummer oder ich bin in einer anderen Stadt und lauf Leuten einfach dadurch über den Weg, ist geil. Ich meine es hat auch seine Kost, gar keine Frage, aber es ist ein interessantes Spiel. Hier etwas, was auf der einen Seite super creepy sein kann, aber auf der anderen Seite auch super super super nützlich und richtig lustig, das irgendwie besser zu balancieren. Das fände ich schon mal ganz geil. Aber da haben sie leider keinen neuen Schritt unternommen.
Und was ich auch schöner fände ist, wenn man genauer einstellen kann, wie lange das jetzt gehen soll. Weil ich glaube das Maximum ist bis zum Ende des Tages. Ich kann halt nicht sagen, hier die Woche ist Camp und innerhalb dieser Camp Woche dürfen diese Leute alle wissen wo ich bin. Und zwar so lange wie bis zu dem Zeitpunkt und dann ist gut.
Genau, weil es ist eh klar wo du bist und dann ist es einfach nochmal nützlich ganz genau zu sagen. Oder halt auch einfach zu sagen, heute bin ich für, also ich würde halt ganz gerne zu so einer Insidergruppe, also quasi so Family oder halt alle anderen. Also das wäre schon mal ein Anfang. Ich hätte es auch noch gerne genauer, aber wir wissen Apple würde so einen Schritt nicht so schnell gehen. Aber dass man auch sagen kann also entweder gar keine oder nur eine ungenaue Position, weil für die meisten Leute reicht es aus zu wissen dass ich in Berlin bin so, aber das mehr muss dann auch nicht gesagt werden so.
Ich wüsste nicht wie, wenn ich das auf Kabel habe, dann macht meine Uhr mit. Ich habe das bisher noch nie gemacht. Und dann macht meine Uhr halt immer mal sechsmal Pieps oder dreimal Pieps und kurz und lang und ich weiß nicht mal was sie tut und ich denke immer mich ruft jemand an und dann ach ja ist nun die nächste Kurve.
Auch gleich die passende Richtung. Ich weiß nicht, meine Apple Watch hat von alleine, also die schaltet die ganze Zeit meine Settings aus und ich betreibe ja alle meine Devices generell stumm, nur meine Apple Watch hat sich dann wieder die Töne eingeschaltet und das ist tatsächlich bei der Navigation ist das hilfreich, weil die Töne sind hilfreicher als die Vibration.
Genau Fahrrad und wo es halt auch leider versagt ist auf dem Motorrad, da habe ich auch noch das andere Problem, dass es auch sehr schwierig ist die Apple Watch zu bedienen, insbesondere weil ich halt so ein Elektromotorrad habe, was auch automatisch bremst, deswegen kann ich die rechte Hand überhaupt nicht benutzen, damit ist die Apple Watch eigentlich komplett aus dem Spiel. Dann habe ich neulich diese Accessibility-Geschichte eingeschaltet, weil du kannst ja auch mit so einer Handbewegung mit Fingerschnipsen und Handballen kannst du ja tatsächlich Dinge tun auf deiner Apple Watch, wenn du das einschaltest. Die kurze Variante der Geschichte ist, hat für mich auch nicht funktioniert, aber es war ein schöner Traum, weil es so war, dass ich in irgendeiner Form mit einer Handbewegung meine Apple Watch steuern könnte.
Ja aber um dort dann eben auch dann was zu tun und da schreibt schon jemand im chat also wenn es um solche sachen wie irgendwie wandern oder fahrradfahren nach kate oder sowas geht muss man natürlich schon gucken wie verhält sich das dann hinterher gegen so konkurrenz wie komod den link hier gerade mal reingeworfen kennt ihr das ja was halt auch schon ein dienst ist den es seit vielen vielen vielen jahren gibt ich glaube seit sechs sieben jahren oder sowas nutze ich den glaube ich und die haben halt vor allen dingen Karten, die auf Wandern, Fahrradfahren, Sightseeing, Abenteuer erleben, optimiert sind. Mit Höhenlinien und Routen, die du selber hinterlegen kannst und kannst dir von anderen Leuten Routen, die besten Sachen zusammenschnipseln und hast schon gleich ein Bild, so sieht das an der Stelle aus und.
Ja ich will aber nicht den Bereich, ich will ja schon das Land. Und das ist die Frage ob das geht. Naja ich meine Schweiz ist zum Beispiel so ein Problem, ist nicht in allen Mobilfunktarifen drin, ja und du willst nur rein und wieder raus und das ist schon ein Problem und kann dich arm machen, da wäre das hilfreich. Oder du kommst halt in so einem fernen Land an und willst dort vor Ort dann irgendwie eine SIM-Karte shoppen und brauchst eigentlich erstmal nur die Hilfe in unmittelbarer Umgebung des Flughafens oder sowas. Da kann das helfen. Wobei übrigens, wo wir gerade bei dem Thema sind, vielleicht könnte man das auch mal kurz erwähnen, haben wir nämlich glaube ich so noch nie gehabt. Wenn man jetzt dieses Problem hat, Schweizer Problem, Israel Problem, das war es in meiner Anwendung. Du hast also quasi einen Mobilfunktarif, der das Land nicht abdeckt, wo du hinfährst. Habt ihr schon mal diese ganzen eSIM Apps ausprobiert?
Ja also das funktioniert im Prinzip also ich habe jetzt nur Erfahrungen gesammelt mit Airolo, A-I-R-O-L-O. Es gibt auch noch andere, also ich sag jetzt nicht das ist das beste oder tollste, aber das funktioniert zumindest so halbwegs, da kannst du halt sagen, hallo ich will fahren nach Land, Na, keine Ahnung, Schweiz. Und dann kriegst du so verschiedene Datenpakete angeboten als eSIM und sagst ja okay, hier, was weiß ich, Schweiz, ich bin da eine Woche, ich brauche eine Woche, irgendwie gib mir 10 Gigabyte, fertig ist die Lucy. Und dann klickst du da drauf und dann kaufst du das, lädst die eSIM direkt runter, installierst es direkt in dein Telefon, dann ist die eSIM schon mal so voraktiviert und wenn du dann ins Land kommst, dann schaltest du die so richtig scharf und dann sagt die Hallo, hier ist ja auch das Netz, was ich kenne, ab jetzt funktioniere ich und dann laufen die Daten darüber. Und das war manchmal mit ein bisschen Zickerei, aber es hat dann am Ende funktioniert. Ich bin mir nicht ganz sicher, was das letzte Mal das Problem war, als ich in der Schweiz damit Ärger hatte, weil sich dann irgendwie das nicht aktivieren ließ und unklar war warum. Das kann aber auch genauso ein Netz-Hickup gewesen sein. Also grundsätzlich funktioniert das.
Ja, ich weiß nicht genau. Ich glaube, die Suche sucht in der lokalen Karte, aber sie sucht auch im Netz bei TomTom. Ich weiß nicht genau, wie sie das machen. Aber sie haben halt auch... Mehr als nur Straßennamen. Da gibt's auch Sehenswürdigkeiten und so ein Gedöns, aber jetzt nicht so viel. Aber es ist vor allen Dingen für Routing, für Auto ist es halt gut. Das Fahrradrouting habe ich jetzt so noch nicht ausprobiert, muss ich mal sagen.
Eine Kleinigkeit wollte ich zur IOS noch glatt sagen, ist PDFs werden jetzt besser unterstützt vom iPad. Das klingt jetzt nach einem Problem, das keiner hat, aber für mich ist es so, dass ich beim Chor gerne von den Noten im iPad singe. Erstens da kann man stufenlos vergrößern und zweitens mal sind leuchten die noten von sich aus also auch unter schlechten sichtbedingungen schlechten beleuchtungsbedingungen kann man da viel sehen. Und was sie da gezeigt haben sah jetzt nicht so viel anders aus als das was eigentlich die files up schon konnte aber sie haben da glaube ich noch mal ein bisschen aufpoliert und so weiter und i approve.
Fourscore. Das ist so eine sünkende iPad App, wo man Noten drin verwalten kann, ein bisschen annotieren kann, wo du als mit Musik zu tun habende Mensch einfach mal so automatisch blättern und den ganzen Scheiß machen kannst. Ja und die ist ganz okay. Und ich will eh die ein bisschen verschlagworten, weil Files ist, es tut mir echt weh. Files kann so viel, also es sind teilweise echt coole Features drin, aber so PDFs angucken und so gehört da immer nicht dazu.
Also das einzige bei Files, nervt mich ist, dass du ihm nicht sagen kannst, halte den Quatsch jetzt auf biegen und brechen mal bitte lokal, wo du im Zweifelsfall immer das Zeug neu runterladen musst. Das geht mir tierisch auf den Senkel, warum sie das machen. Er merkt sich auch nicht, ich hab jetzt, weiß ich nicht, ich hab das jetzt vor einer halben Stunde, hab ich diese Datei aufgemacht, da könnte ich sie jetzt noch ein bisschen nachhalten und sie erst morgen löschen, nein, dann ist sie gleich wieder weg.
Ehrlich gesagt erinnere ich mich nicht mehr so ganz genau, aber sie hatten gezeigt, dass man jetzt auch PDFs, ganz hochoffiziell, dass das jetzt gut ist, um mit denen zu arbeiten. Das hatten sie gezeigt und da dachte ich so, jo endlich mal nicht nur so ein, okay in Files kann man PDF öffnen und irgendwas mit dem Stift machen, also das ist so.
Genau, was sie gemacht haben, ist mehr oder weniger sowas Ähnliches wie die Freeform App oder in die Freeform App integriert PDFs angucken, annotieren und kollaborieren daran, gemeinsam ausfüllen auch, also auch die ganzen Formulare und so weiter. Da haben sie ein bisschen rumgeteasert und das ist ja jetzt across the board, ja, also nicht nur auf iOS. Deswegen ist es glaube ich entweder in Freeform drin, was ich schlimm genug finde, weil Freeform finde ich mit einer der übelsten Apps leider so, obwohl die Idee gut ist. Und ja, also ich habe eher Angst vor dem Feature, wenn ich ehrlich bin, von dem was ich mich erinnere.
Also ich hatte so ein bisschen den Eindruck gewonnen, ich weiß nicht, ob das stimmt, dass sie quasi die PDF-Engine von, allen OS, also ihre PDF-Engine generell, die sie auf allen Plattformen verwenden, generell überarbeitet haben, also ich weiß nicht, das wäre nicht das schlechteste. Ja ja ich weiß nicht, ob es jetzt wirklich so auf dem Level von Revride ist oder so, aber immerhin haben sie diesen ganzen, ich darf ja nicht AI sagen, Machine Learning Teil mit reingebracht, mit dem sie quasi innerhalb von PDFs die Struktur erkennen für Formular ausfüllen, Selbst wenn die PDFs nicht korrekte PDF-Formulare sind, was die meisten PDFs ja nicht sind, das heißt sie lesen, wo ist irgendwas und das könnte auch dazu führen, dass so Copy-Paste von Text in PDF vielleicht ein bisschen noch sinnvoller ist, so Spalten, Erkennung oder sowas, habe ich jetzt noch nichts dazu gehört, aber das wäre so ein bisschen meine Hoffnung, gerade wenn du sagst, wird besser, das wäre etwas, was besser wird, so Sharing und Collaboration habe ich nicht so vermisst.
Was auch ganz schön wäre, wenn die Annotationen nicht ganz so viel Speicher verbrauchen würden. Ich hab nämlich immer wieder das Problem, dass wenn ich tatsächlich in Noten Notizen mache, hier mit dem Pencil, und dann versuche die auszudrucken, dass dann der Drucker aussteigt, weil das PDF zu groß wird.
Nein, ich hab einfach ein PDF, was ich quasi so als generischen Bewirtungsbeleg verwende. Das heißt in dem Moment, wo ich irgendwie was als Bewirtungsbeleg abrechnen muss, muss ich ja eintragen, werde daran teilgenommen und so weiter. Zum Beispiel die Pizza, die hier vor der Sendung gegessen wird oder was war's heute? Ja Pizza. Heute gab's Pizza, ich hab heute nicht mitgegessen, deswegen hab ich das nur so am Rande mitbekommen.
Da kommen sie unter anderem rein. Aber das muss ja alles auch korrekt abgerechnet werden. Also muss ich ein Bewirtungsbeleg für die Freakshow erstellen, wo dann schön eingetragen wird wer daran teilgenommen hat etc wie viel Geld das gekostet hat und jetzt will ich das diesem Beleg hinzufügen. Also habe ich eine Vorlage auf meinem Macintosh Bewirtungsbeleg Vordruck. Und dann fülle ich das da einfach aus, habe also quasi ein Formular und tippe das dann alles ein. Und dann mach ich so drag and drop von dem ausgefüllten Formular. In das PDF wo der eigentliche Kaufbeleg gescannt ist, um daraus eine Datei zu machen und die gemeinsam abzulegen. Und dabei fliegen mir dann diese Annotationen manchmal einfach weg, das heißt ich hab dann einfach ein leeres Formular drin und ich frage mich halt immer was soll das, wenn ich allerdings das ausgefüllte Formular nehme und ich sage drucke und öffne das aber druckst nicht wirklich auf dem Drucker, sondern öffne das in Privat. Und dann nehme ich diese Datei und drehe die rein, dann ist alles supi.
Sie haben es auf alle Fälle verbessert im Sinne von ausfüllen. Können Sie besser ausfüllen mit den Metadaten, die du so hast. Also wenn das irgendwie Namensfelder sind und Kreditkartenfelder und so weiter, dann wissen die das ein bisschen besser. Das finden sie raus. Es wirkte ein bisschen so, als wäre das ganze PDF-Handling ein bisschen besser, plus dieses Feature, das ich vor Angst vor Freeform gesehen habe, ist ein Feature der Notes-App dann. Das heißt, wenn du kollaborieren willst oder annotieren, dann kannst du das jetzt in der Notes-App machen für beliebige PDFs. Die Frage ist, ob sich jetzt an dem Verhalten auf dem Mac was ändert, wenn man so ein Formular ausfüllt und die Datei dann irgendwie nicht speichert, schon speichert, nicht ausdruckt. Also für mich war Drucken immer das Speichern von Formularen auch. Ich wusste gar nicht genau. Ich hatte immer so viel Respekt vor ausgefüllten PDFs. Dass ich mir dachte das ist doch irgendwo wird das doch bestimmt gespeichert und das macht er bestimmt falsch, bestimmt gibt es zehn Orte im PDF wo man das irgendwie speichern kann aber wenn ich es jetzt drucke, ja dann muss es ja drin sein sonst könnte man es ja nicht drucken insofern war das für mich immer so zack das ist das Feature und außerdem ist das Drucken, wiederum in PDF drucken für mich so ein Killer Feature so per se von macOS, Das ist bei mir so innen drin, egal welche App irgendwas drucken kann, dann druck ich es in einen PDF, dann habe ich einen PDF und dann mache ich mit dem dann weiter. Das nutze ich so häufig und das ist Gott sei Dank auch nie ganz kaputt gegangen. Ab und zu gab es mal ein bisschen Verhalten, das so ein bisschen komisch ist, aber so aktuell geht es immer noch sehr gut.
Also auch eine Geschichte, die mich nach wie vor echt hart trifft, ist, dass wenn du den Share-Button drückst im Preview, dann kriegst du oben so eine kleine Zusammenfassung. Das ist ja diese Datei mit PDF und mit einem Icon. Und du könntest einfach dieses Icon draggen. Wenn ich das Icon wieder auf Preview draggen würde, dann hätte ich genau das machen. Share drücken, draggen, fertig. Ja, dann hätte ich dieses Feature so, das wäre so ganz, geht natürlich nicht. Aber ich habe ja das Save to Downloads von dieser App, die ich mir empfohlen habe.
So, du hast ja gerade gesagt, Notes und Kollaboration. Da können wir vielleicht mal kurz fallen lassen, was einige noch nicht gemerkt haben und was jetzt gar nichts mit den neuen iOS-Versionen oder macOS-Versionen zu tun hat, nämlich dass jetzt die Notes-App, also auf Deutsch Notizen, sowohl in iOS als auch in macOS jetzt einen Pad-Modus hat. Das heißt also, viele Leute können gleichzeitig an einem Text schreiben und man sieht, wer schreibt wo was.
Na das geht so seit ein paar Wochen, Monate, ich glaube noch nicht Monate, das gibt es noch nicht, also du könntest schreiben, aber du hast nicht gesehen live, wer schreibt gerade wo und dieses, dass du mit zwei Fingern nach rechts swipes, könnt ihr einfach mal ausprobieren auf einer beliebigen Note, die ihr gerade habt, dass da noch farblich hervorgehoben wird, wer zuletzt welche Abschnitte mit seiner Farbe editiert hat und ähnliches, also so ähnlich wie man das wirklich jetzt von Hatchdog oder sowas kennt, also von einem vernünftigen Pet Programm, das kann jetzt plötzlich Notes. Es ist nicht perfekt, wie vielleicht auch nicht zu erhoffen war. Wir hatten jetzt hier im Vorfeld, hat Tim ein bisschen rumgetippt und bei mir fängt dann sofort der Bildschirm an zu flackern, weil er irgendwie das, wohin scrolle ich jetzt gerade, wenn oben neuer Text entsteht und ich bin aber unten drunter und er kann nicht so wirklich berechnen, was passiert da gerade. Also es ist noch längst nicht so rund wie beispielsweise im Hatchdog, aber es ist schon mal wieder ein echt Riesensprung nach vorne in Bezug auf wir bearbeiten gemeinsam einen Text hier auf dem Mac.
Aber jetzt gibt's ja eine Sache, die wirklich, wo ich am Anfang nicht so richtig wusste, was soll man davon halten, das ist das mit diesem Gaming und das war ja insofern spannend, als dass das ja auch so ein bisschen die Prelude war, schon so dieser Aufheizer in punkto Headset und sich alle gefragt haben so, wird Apple zur Gaming Company, Spoiler nein, aber immerhin scheinen sie dann doch etwas getan zu haben. Und zwar haben sie ein, ja zwei Sachen, ne? Es gibt diesen Game Mode für den, für macOS, das hab ich nicht ganz in Erinnerung.
Der Game Mode oder dieses, also was sie da quasi gezeigt haben, ist im Prinzip ein Wine, also sprich ein Windows-Emulator, ähm, mit, äh, den entsprechenden 3D-Frameworks, so DirectX-Gedöns dabei. Und das Ganze läuft dann auf Rosetta. Das heißt, du kannst mit ein bisschen Glück einige Spiele, so wie sie sind, unverändert direkt auf dem Mac spielen, also jetzt auf der Beta, auf der aktuellen. Allerdings bisher auch zu relativ niedrigen Frameraten, weil dieses ganze Framework noch nicht soweit ist. Grundsätzlich machen sie aber, und da geht's jetzt einen Schritt weiter, das Framework, was sie da gebaut haben, ist so ein bisschen das, was auch Steam gebaut hat für die Steam Deck und für dieses ganze Linux Gaming ist im Prinzip ein Toolset, um DirectX und andere Gaming 3D Frameworks quasi auf den Mac zu holen, sodass wenn du als jemand, der ein Game portieren will, das dann einfacher hast und nicht Metal machen musst, sondern eben die anderen APIs benutzen kannst. Also so hab ich's zumindest verstanden.
Genau, es sind zwei unterschiedliche Geschichten. Das eine ist der Game-Mode, das ist mehr so User-Facing-Geschichte, dass wenn du jetzt ein Spiel aufmachst, der automatisch in Game-Mode geht. Das heißt, das Spiel kriegt ein bisschen mehr Wumms als vorher vom System her. Das ist im Endeffekt nicer als alles andere, also ganz grob gesprochen. Und das andere ist eben, dass sie sehr wohl hergegangen sind und wirklich wohl Crossover hat sich irgendwie bedankt, auch wahrscheinlich wirklich bei Crossover ein bisschen Technologie eingekauft haben und ein bisschen weitergetrieben haben, dass einfach mal die Windows Binarys laufen, es ist, wenn man will, aber eigentlich mehr gedacht als Entwicklermodus, nicht als Enduser-Modus an der Stelle, um als Startpunkt für Ports zu agieren. Es ist jetzt nicht so diese Geschichte, die das Steam Deck gemacht hat, wirklich im Sinne und wir haben alle ... Wir kümmern uns darum, dass die Spiele einfach mal laufen auf unserer Hardware-Plattform. Nee, nee, nee, das macht Apple auch sicher nicht. Aber es ist zumindest mal ein großer Schritt dahin, dass es vielleicht mehr Ports gibt, die halt einfach mal laufen zumindest. Ob die jetzt wirklich schön laufen, schnell laufen und besonders gut sind, sei dahingestellt, weil ich meine, die eine Geschichte ist, im Mobile Space sprechen wir ja schon eigentlich von ganz guter GPU-Leistung jetzt mit den M-Chips und so weiter, im High-End-Gaming-Bereich natürlich noch nicht. Und deshalb ist die Frage, okay, was passiert da? Ich glaube nicht, dass es mehr Ports geben wird wirklich, weil das lohnt sich einfach nicht. Der Mac-Markt ist nicht groß genug für die. Es wird mehr Ports geben im Sinne von, mehr schlechte Ports wird es geben. Die Spieler werden halt eher laufen. Und vielleicht geht Crossover den größeren Schritt auch noch und sagt, okay, ich brauche jetzt nicht mehr so viel Handstand, bis das Zeug läuft. Und dadurch, dass Apple mit im Spiel ist, läuft es vielleicht auch ordentlich. Ich habe ein paar von den größeren Spielen mal mit Steam und der Crossover laufen lassen wollen, wie der M1 so rauskam und da gab es halt schon immer wieder mal Grafikglitches und die kannst du halt alle bei Software beheben eigentlich. Also wenn du diesen Layer ordentlich machst, dann läuft es, dann ist es nur potenziell langsam, aber laufen tut es. Und es ist schon ein großer Schritt irgendwie, aber es ist jetzt auch nicht, also die Welt wird sich auf Mac spieltechnisch nicht ändern, glaube ich.
Also zumindest nicht innerhalb der nächsten paar Monate, gar keine Frage. Aber ich hab mir diverse Tests angeschaut, wo Leute irgendwelche Games, die ich nicht kannte natürlich, gespielt haben und meinten, Da wären teilweise signifikante Framerates bei rausgekommen einerseits und vor allem Stutter-free, also sozusagen ohne solche Glitches, also sicherlich nicht alles, aber sehr viel und auch top aktuelle Sachen insbesondere, weil sie ja damit auch diese DirectX 12 API quasi mit bedienen, also was sozusagen das aktuelle ist, wenn ich das richtig verstanden habe.
Bisher war sozusagen das neueste quasi noch überhaupt, gab es überhaupt gar keine Optionen und Apple hat sich halt jetzt richtig reingesetzt und in dieses existierende Framework ihre spezielle DirectX to Metal Translation reingebaut, quasi um den Gaming Buden mal zu zeigen, guckt mal, schon ohne eine explizite Anpassung kriegen wir diese Performance auf dieser Maschine hin. Wenn ihr das anpasst, dann sieht es vielleicht noch besser aus.
Ich hab's so gehört, dass sie es getan hätten. Egal, das ist nochmal eine andere Diskussion, die können wir später noch haben. Ist mir eigentlich auch egal, zeigt nur das Thema ist Apple nicht komplett egal, weil sonst hätten sie diesen Aufwand natürlich nicht getrieben und man muss mal schauen was bei rauskommt.
Es ist Crazy Country Apple in dem Regard, weil ich habe ja die Leute, die die Hardware machen, also die Leute, die die GPUs machen und die Displays machen und alles, was damit zu tun hat, was eigentlich geil für Spiele sein könnte. Die haben immer so die Idee, dass man das bräuchte und man das macht, aber irgendwie hat keiner die Zügel in der Hand, wirklich mal in diesen Spielemarkt einzusteigen damit. Und deshalb passiert halt immer so ein halbgarer Ding, der zu wenig ist. Also ich glaube nicht daran, dass es den großen Wurf geben wird. Ich glaube aber, dass die grundsätzliche Situation sich dadurch deutlich verbessert und dass Steam sich nicht entgehen lassen wird, da ein bisschen mehr Support für anzubieten, einfach automatisch auch, weil man einfach ein bisschen mehr Markt mitbekommt. Wenn wir eh schon auf dem Mac sind, dann können wir auch ein bisschen die Leute auch noch unterstützen und das noch helfen, dass das geht. Also da wird schon ein bisschen was passieren dadurch. Und grundsätzlich ist es natürlich so, dass Apple die richtige Entität ist, die diesen Translation Layer schreibt. Weil die können Metal einfach gescheit. Und die anderen halt nicht, weil es halt nur ein Apple der Technologie ist. Wenn Apple es nicht macht, dann wird es halt immer hier weiter rumgegurkt. Und jetzt wird zumindest für eine Zeit lang dieser Translation Layer existieren. Und den zu maintainen, glaube ich, ist einfacher als ihn überhaupt herzustellen. Insofern ist es zumindest eine spannende Geschichte, dass es möglich ist. Und deswegen, wenn jetzt die Trajectory so weitergeht, also wenn das Apple eigene Silikon, Silizium, cool, so viel weiter sich bewegt, wie es es gerade tut, dann wird es auch mal so sein, dass die GPU auch mitstinken kann in irgendeiner Richtung. Und dann wird es halt noch mal spannender und Kosten nutzen und andere Geräte natürlich auch. Also es ist auf alle Fälle interessant. Es ist mal der größte Schritt in die Richtung, den es jemals gab, aber er ist immer noch keiner, der wirklich Spiele, die aktuell sind, gleichzeitig releasen wird für sich alleine.
Ja, auf keinen Fall. Also ich glaube, das funktioniert auch nur, wenn Apple da auch bei den Spieleentwicklern Geld einwirft. Also ich meine, ich weiß nicht, ob ihr je Apple Arcade ausprobiert habt. Das macht man irgendwie drei Monate, dann hat man die zwölf interessanten Spiele gespielt und dann ist auch Feierabend, weil da ist halt auch Tumbleweed bei Apple Arcade, meiner Meinung nach. Ja also da ist echt nicht viel los das bringt nix und wenn Apple den Dienst mal auf fordernde Mann bringen will dann müssen sie auch bei anderen Spielen Buden Geld einwerfen und sagen portiert uns die Scheiße.
So wir können jetzt meiner Meinung nach nochmal kurz, ne halt eine Kleinigkeit noch sie haben ja diesen Kojima da gezeigt, diesen wirren Japaner mit seinem Spiel Death Stranding und dann dachte ich mir das musst du dir mal angucken dann gab's das bei Steam gerade ein bisschen günstiger allerdings bisher nur für Windows Und dann hab ich mir das angeguckt und hab das mal eine Stunde gespielt und von dieser Stunde, am Anfang waren gefühlt 60 bis 70 Prozent Cutscene, das Ding hat wirklich ganz schön viel Story, also wer, wer, Cutscene, also Dinge wo man nicht selber spielt, sondern Story wo erzählt wird und sehr wirr, sehr komisch, aber auf jeden Fall mal ein Spiel was man sich mal anguckt.
Das ist halt auch ultra alt, das ist wirklich so vor PS5-Launch kam das raus, das kam noch zur PS4 raus und wurde für die PS5 dann noch optimist. Also wir sind schon wirklich, das war mal so ein ganz spektakuläres Spiel und ich hab das auch deutlich gerne gespielt, also das war cool, weil das halt so eine andere Art von Spiel ist, aber es ist halt wirklich so, es ist wieder so eine, oh da hat mal jemand ein Port gemacht von, ja.
Naja, auf jeden Fall, wenn das tatsächlich auf dem Mac ankommt und ich kann das unter Steam einfach nur runterladen, dann werde ich mal gucken, wie ist denn der Vergleich? Läuft das tatsächlich ordentlich oder ähnlich gut? Playstation 4 2019. Ah ja okay, naja das ist aber halt auch das Ding, dass sie halt auch kein, kein, kein aktuelles Spiel gezeigt haben, das ist halt, das ist halt wirklich so das, wo man sagt so okay, sie haben jetzt den Typen mit dem Jahre alten Spiel da, gezeigt, was.
Weiß ich nicht, so ein Jedi Survivor oder so ein Harry Potter, wie heißt das neueste Spiel? Das sind alles so Spiele, die Probleme haben auf 8 GB Grafikkarten zu laufen, weil sie halt wirklich so viel Grafik haben, dass halt das nicht reicht, eine 8 GB Grafikkarte zu haben. Also so ein Spiel, wenn sie das gezeigt hätten, hätte ich gesagt Hut ab, aber nichts, was so alt ist. Aber egal. Nächstes Thema.
Bevor wir zur Vision Pro kommen vielleicht noch ein letztes Ding, was nämlich Apple bei Safari gemacht hat, ist vielleicht noch der Erwähnung wert, weil das sieht nämlich ganz interessant aus. Abgesehen davon, dass Sie mal zusehen könnten, dass Safari auch noch benutzbar ist, wenn mehr als 30 Tabs offen sind. Haben sie erstmal ein Feature eingebaut, was es schon... Ganz lange gibt, wie hieß das, wie hießen diese Programme, da gab es glaube ich mehrere, mit denen man so stand alone aus einer Webseite eine App machen kann. Hab vergessen wie das Tool hieß.
Gute Idee das einzubauen und das dann auch gleich richtig zu machen so mit Cookie Handling und pipapo, also wovon wir reden ist, man hat eine Webseite wo man sich häufiger einloggt und die man eben benutzen will wie eine App. Was auch immer eure Webseite der Wahl ist, beim einen mag es Facebook sein, beim anderen keine Ahnung.
Sagen wir mal so ich hab halt das Schicksal als Arbeits Laptop ein Windows 10 fahren zu müssen. Nein nicht auf meinem Mac sondern ich habe ein Windows Laptop, ein PC Laptop für meine ganze tägliche Arbeit und kann es mir darum aber leisten auf meinem Freizeitspaß Macbook Betas zu betreiben ohne dass ich damit meine eigentliche Arbeit gefährde. Ach, it could be worse. Naja aber darum habe ich jetzt also schon.
Ja auf jeden Fall ich hab Sonoma, so heißt das ja, die haben ja irgendwie der erste Name den man aussprechen kann, finde ich nicht, finde ich schwierig, Sonoma, resoniert irgendwie nicht, also diese Weinregion, hab ich seit irgendwie Tag eins halt drauf wo es irgendwie verfügbar war und läuft gut, ich bin zufrieden damit.
Naja, aber da habe ich auf jeden Fall ganz gerne die Funktionalitäten einfach der Webseite und habe ich das also bei mir als App in Anführungszeichen drauf. Und das Schöne ist halt, dass es sich dann wirklich verhält wie jede andere App auch. Also im Task-Switcher wird es vernünftig angezeigt, das holt sich als Icon halt das VW-Con, was die Webseite mitbringt. Und it just works. Das funktioniert also richtig gut. Was finde ich weniger gut oder offensichtlich funktioniert, zumindest derzeit jetzt hier, ich hab jetzt die Beta 2 drauf, ist dieses Profiles.
Und der normale Weg immer ausloggen und wieder neu einloggen und hoffen, dass One Password oder das macOS oder drei Browser benutzen, das habe ich auch lange gemacht, ja, also einen Firefox und einen Chrome und einen Safari, unter dem habe ich andere Login Cookies irgendwie am Laufen, was ich dann zwischenzeitlich hatte, was das Problem schon ganz gut gelöst hat, ist eine Firefox Extension, die ich an der Stelle vielleicht doch auch einfach noch mal empfehlen kann, das ist so ein Multi-Account-Containers, Ich muss mal gucken, wie die offizielle hieß. Da kannst du dann eben eine Anzahl von verschiedenen Personas quasi definieren oder Arbeitsumgebungen und jede von denen bekommt dann halt einen eigenen Cookie-Space und kannst dann halt deine Logins damit ganz gut trennen und separieren und kannst jederzeit im Firefox hin und her schalten, so mit welcher Domäne möchte ich jetzt gerade arbeiten hier. Und meine Erwartungshaltung war, dass das jetzt eigentlich genau so bei Safari läuft. Und grundsätzlich läuft es auch so. Du kannst also beliebig viele Personas dort anlegen, aber irgendwie ist das Umschalten überhaupt nicht so, wie ich es mir vorstellen würde. Du hast jetzt also oben links so einen großen Button, wo auch irgendwie sowas Umschaltmäßiges erscheint, aber da kannst du im Wesentlichen erstmal nur deine bisherigen Tab-Gruppen, die ich gar nicht nutze, hin und her schalten. Und wenn du jetzt zwischen deinen Personas hin und der schalten willst, dann muss man noch mal in unter Menü rein oder sich in den kryptischen Vierfinger, es sind wirklich Vierfinger, Shortcut merken. Also das macht mir irgendwie den Eindruck, als hätten sie dieses Feature eigentlich ausprogrammiert, aber auch nicht vernünftig in der GUI implementiert. Es kann auch sein, dass das einfach in der frühen Beta liegt, aber Vielleicht kommt das noch. Wundert mich ein bisschen.
Genau, du hast jetzt hier oben links, ich bin jetzt hier in der Arbeitsdomäne. Jetzt möchte ich in die Freizeitdomäne, dann würde ich sagen, klicke ich doch da drauf. Ist aber nicht. Und dann musst du wieder ein New Window machen und musst dann sagen hier Machine Learning. So und du kommst aber nie in die anderen vernünftig.
Also ich fürchte, dass diese etwas, wie ich finde im Vergleich zu dem, wie es jetzt eben mit diesem Firefox Plugin realisiert ist, diese etwas umständliche und quasi zu suchende Funktion dazu führt, dass viel weniger Leute es am Ende nutzen werden, wenn es dann so bleibt, als es eigentlich wünschenswert wäre, weil eigentlich ist das ein Killer Feature, warum verstecken sie es oder warum machen sie es so umständlich?
Eben. Also das war klar, nicht so ganz klar war, was jetzt eigentlich wirklich kommt. Und ich denke es ist jetzt erstmal sinnvoll, dass wir vielleicht erstmal kurz abstecken, worum handelt es sich jetzt hier eigentlich bei diesem Produkt jetzt mal nur so rein technisch. Also wir haben halt ein Headset was technisch ein VR Headset ist, das heißt es ist keine Brille wo man durchschaut oder so, sondern man schaut auf Bildschirme, jedes Auge schaut natürlich auf einen eigenen Bildschirm.
Genau, das war vielleicht überhaupt schon mal die erste wichtige Botschaft, dass das Ding Pro heißt und auch Pro ist und Pro bepreist es. Von daher auch den Preis halt, genau. Pro wie Preis. Das Ding macht man sich halt rüber, es ist relativ gut abgeschirmt, besteht so aus mehreren Teilen die auch austauschbar sind, da gehört das Band was hinten hält, das ist austauschbar, Die Muffe, die genau die Muffe, ich hab gerade nach dem Wort gesucht, das ist sehr gut, die Gesichtsmuffe, die Gesichtsmuffe ist auch anpassbar, also überhaupt ist das Ding in vielerlei Hinsicht sehr konfigurierbar, so auch was die Augen betrifft, das ist ja auch etwas was wir in der letzten Sendung als Problem aufgezeigt haben, also wir haben ja in der letzten Sendung im Prinzip formuliert, Wenn das was werden sollte, dann müssten sie ja all diese Dinge berücksichtigen. Und eine der Sachen ist halt Anpassungen zum Beispiel an deine Augen, also Brille. Da gab es dann speziell Linsen mit verschiedenen Stärken.
Also der Gedanke ist wohl nach allem, was man gehört hat, dass du die im Apple Store abholst und dort deine Brille gescannt wirst, vor Ort und dann halt ausgemessen wirst, wie jetzt eben die Geometrie dieser Brille ist und dann bekommst du eine möglichst dicht dran reichende Standardlinse von Zeiss, mit denen sie kooperieren an der Stelle und die wird dann da quasi zusätzlich reingebaut zur normalen Optik der Vision Pro.
Alles was wir wissen ist, so hat es dort auf dem Event stattgefunden, wie das dann sein wird, wissen wir ja eh nicht, ist ja auch noch mindestens ein halbes Jahr hin. Aber so funktioniert diese Brille, also Display linkes Auge, Display rechtes Auge, für jedes Auge die Möglichkeit eine an dich, an deinen Sehfehler angepasste Linse noch einzusetzen. Es ist ein Lautsprecher verbaut, der nicht direkt im Ohr sitzt, sondern in dein Ohr rein strahlt von außen.
So ein bisschen, aber es ist nicht so besonders laut. Also bei der Quest 2, wenn du Leuten mal zuguckst, die das machen, das nervt nicht super, weil es schon irgendwie Richtung Ohr strahlt. Also es ist schon für dich gemachtes Audio, aber es ist halt so, es ist wie so ein offener Kopfhörer so ein bisschen.
Okay, gut, so ist es auf jeden Fall. Und das ist soweit, sagen wir mal, der vielleicht etwas weniger überraschende Teil gewesen. Also dass sie das so mit den Linsen so gemacht haben, ist gut, ist wichtig, ist richtig, hätten sie es nicht gemacht, wäre es ein Fail gewesen, weil dann hätte man irgendwie eine Brille darunter ziehen müssen und da wäre das Produkt für mich schon durchgefallen. Aber was sie dann noch zusätzlich gemacht haben und was sie glaube ich jetzt von allen anderen Ansätzen, die bisher so auf dem Markt zu sein scheinen, abhebt, ist, dass sie natürlich auch noch nach vorne ein Display haben und auch wenn glaube ich, dass der Moment war, wo alle so dachten, so uuh, creepy, ich war auch so mit so anderen Entwicklern, haben wir gemeinsam in den Keynote geschaut und das war wirklich so der Moment, wo sich alle so gegenseitig anschauten und so.
Das war schon Uncanny Valley Royal, also das war… Das haben sie dann ja auch… Sehr, sehr viele dystopische Momente in dieser Produktvorstellung, finde ich. Und ich weiß nicht, wie viel davon wirklich ist, ob es in live nicht so schlimm ist, aber so die Art und Weise, wie es präsentiert wurde und gemacht wurde, da habe ich schon öfter die Idee gehabt, das ist jetzt eine Coldmirror Folge anstatt eine Produktpräsentation.
Also man hat vor... eigentlich ist die Brille ja geschlossen und zu. Sie versuchen aber den Eindruck zu erwecken, als dass sie auf Wunsch quasi eine offene Skibrille wäre. Und dazu haben sie ein Display verbaut, was nicht vorne quasi die LEDs drin hat, sondern durch ein irgendwie noch nicht näher spezifiziertes Linsensystem quasi so ein bisschen hologrammmäßig das Bild weiter nach hinten erscheinen lässt. Und dann scannen sie oder fotografieren sie oder filmen sie von innen die Augen ab und machen eine 3D-Modellierung des angeblichen Gesichtes und auch wo die Augen hingucken. Sodass man also so eine vage Illusion hat. Plötzlich würde die Brille vorne durchsichtig. Ich habe aber in der Tat kein Video und kein Screenshot gesehen auf dem ja, also Uncanny Valley ist genau das richtige Stichwort. Also etwas ist schon recht gut, Aber es ist so zwischen Zeichentrick und real, dass es irgendwie sehr unangenehm wirkt und das fand ich dabei auch, ich finde es sieht richtig schlimm aus und sie haben es dann bei der Hands-On Demo kein einziges Mal gezeigt. Also niemand hat das bisher in Aktion gesehen, warum auch bisher schon gemutmaßt wird, sie haben es noch nicht fertig und sie wissen es ist noch nicht so richtig geil und hoffen, dass sie es in einem halben Jahr noch besser hinkriegen.
Genau, also das Display ist, was du da meinst, was sie da verbaut haben, also das ist ein lenticular Display und das funktioniert im Prinzip genauso wie diese, weißt du noch diese Wackelbilder, also du hast im Prinzip ein, jetzt weiß ich nicht ob ich die richtigen Begriffe mache, aber wenn du sozusagen von einem bestimmten Winkel schaust, dann siehst du quasi, Immer eine bestimmte Zeile, das heißt auf diesem Display was in dem Teil drin ist, hast du quasi für jeden Pixel mehrere Spalten.
Interviews drüber gesprochen worden, dass es so funktioniert. Ich weiß nicht genau wie fein das aufgeteilt ist, sagen wir mal du hast jetzt 20 verschiedene Blickrichtungen sozusagen und benutzt 20 Spaltenpixel quasi um eine bestimmte Blickrichtung zu machen. Das heißt sie rendern tatsächlich das Bild da vorne nicht einmal, sondern N-mal für verschiedene Blickwinkel und wenn du halt aus diesem Blickwinkel schaust, sorgt eben diese Umlenkung dafür, dass du auch nur genau dieses eine Bild siehst, obwohl das Disney quasi so 20 verschiedene Bilder gleichzeitig anzeigt. Und das ist so ein Ding, wo ich mir dachte so okay wow, damit hab ich wirklich nicht gerechnet. Also nicht, dass sie das überhaupt machen und dann auch in dieser, weil damit lösen sie mehrere Probleme auf einmal. Das ist wirklich cool. Und das ist schon so das erste Moment wo ich mir dachte so, ok ihr meint es also wirklich ernst mit dem Teil, das muss ich euch jetzt mal zugestehen, weil dazu kommen ja jetzt noch, um vielleicht mal die technische Aufzählung zu vervollständigen, Eine ganze Batterie an Kameras ich weiß nicht genau wie viele da drin sind 8, 12 oder sowas in der Größenordnung hab ich jetzt im Kopf weiß nicht weiß das jemand genauer, egal der Chat wahrscheinlich auf jeden Fall sie scannen halt alles sie scannen natürlich den Raum verschiedenste Perspektiven nach oben nach unten links und rechts einfach damit du in dem AR Modus, dass sie ja dieses Headset primär positionieren. Eigentlich, du setzt dir das Ding auf und sollst angeblich... Den raum so sehen wie du ihn sonst auch sie also ich glaube niemand hat behauptet dass sie keinen unterschied gemerkt haben aber alle haben gesagt sie sehen keine pixel und damit wäre der nächste haken gesetzt also wenn sie es wirklich schaffen dass man keine pixel sieht.
Da dem anderen aus dem, also zwei Leuten denen ich zutrauen würde, dass sie genau auf sowas angemessen achten und die haben also beide konsistent geschrieben, man sieht keine Begrenzung, keine Ränder. Die müssen ja nie scharf sein und die müssen nie perfekt sein, das wissen wir ja auch, das menschliche Auge ist sehr sehr auf einen engen Fokus eigentlich in der Mitte konzentriert, Aber es ist schon schön, wenn man drum rum überall zumindest vage eine Anmutung hat, was da ist und das scheint es umzusetzen.
Und ich habe auch gehört wirklich, dass es keinen Unterschied im Blick fällt und keinen Unterschied in der Verzerrung. Das ist das Wichtige, glaube ich, auch wenn du schon mal so ein Pass-Through aufgesetzt hast von der Quest 2 oder auch von den Besseren. Da hast du halt immer so ein bisschen so eine Verzerrung in dem Ganzen drin. Das ist zwar schon so grob so, aber schon allein davon wird dir schlecht. Also das ist, glaube ich, schon wichtig zu sehen, oder ich glaube Ihnen das auch, und das ist, glaube ich, auch, warum es was Besonderes ist, dass es Apple macht an der Stelle, dass sie den Teil wirklich so gemacht haben, als wäre das zum Durchgucken, so, und dass sie das wirklich geschafft haben, so, in beide Richtungen, und das ist so eine, das ist schon technisch, macht ein anderes Spiel draus, finde ich, eine ganz andere Nummer.
Also in der Tat, all das was man vorher so an Checkmarks hatte, so sie eigentlich damit das ganze irgendwie mal auf den Next Level kommt, müsste XYZ, das haben sie relativ radikal würde ich sagen abgehakt. Auflösung 23 Megapixel, das heißt also 4K pro Auge, das heißt also auch da ein Begriff Retina, also die Leute sehen keine Pixel.
Naja gut, also niemand hat gesagt, dass Pixel als solche zu sehen gewesen seien, das ist ja im Prinzip die Definition davon. Zusätzlich zu den Kameras gibt es dann aber auch noch Sensoriken bzw. Diese quasi ihre Variante der, wie heißt die, Depth Kamera im iPhone, also mit dem sie quasi dreidimensional abtasten.
Genau. Also im Prinzip eine dreidimensionale Abtastung in Echtzeit, um dann eben auch Tischflächen, Wände etc. Zu erkennen. Also im Prinzip genau das, was Sie jetzt über Jahre mit Ihrem AR Toolkit so Schritt für Schritt entwickelt haben, dass es dann eben so ausgereift, dass Sie eben den Raum nicht nur sehen, machen können sondern eben auch in seiner Struktur erfassen und damit halt in der Lage sind auch Dinge korrekt zu platzieren auf der einen Seite aber eben auch Lichteffekte zu berücksichtigen sie nehmen zur Kenntnis wie das Lighting ist und wenn halt jetzt ein Fenster oder irgendein anderes Objekt in diese dreidimensionale Szene virtuell platziert wird dann übernimmt es halt dann auch eben das Licht der Umgebung was auch nochmal zu zeigen ist.
Das auch übernehmen. Also das, was dann in den Entwickler-Workshops wohl rauskam, ist, dass man daraus dann auch als App-Entwickler keinen Einfluss hat. Das heißt also, du kannst dann deinem Spiel oder deinem Browser-Window oder sowas nicht sagen, so, du bekommst jetzt mal dieses Lightning-Theme mit, sondern der Hauptaugenmerk ist, also das hat man vielleicht noch gar nicht gesagt, diese ganze Konstruktion mit den vielen Kameras ist hauptsächlich dafür da, dass das grundsätzlich als Augmented-Reality-System gedacht ist. Das heißt, du sollst nicht in einer komplett virtuellen Welt versinken, sondern du sitzt in deinem, das kannst du auch, kommen wir gleich noch zu, wo und wie, mit welchen Einschränkungen, sondern du sitzt in deinem normalen Zimmer und kannst das erweitern durch beliebige digitale Elemente. Ich gucke jetzt an die Decke und da habe ich, oder ich liege nachts im Bett, gucke an die Decke und habe da meinen Film laufen und gucke noch irgendwie eine Folge Grey's Anatomy. So, also das ist der eigentliche Gedanke davon, so den Raum, in dem man in echt sitzt, ganz normal zu sehen und beliebig digital Genau und dann hat man noch dieses Rädchen an der Seite, mit dem man sozusagen diesen Grad der Immersion einstellen kann. Sehr coole Idee das Hardware zu machen.
Absolut und auch sozusagen so als Primary User Interface Element, also quasi so eine große Crown wie an der Uhr. Zum Drehen drehe ich das nach vorne, hinten, keine Ahnung, wahrscheinlich nach hinten würde ich jetzt mal sagen, wenn ich es nach hinten drehe, dann, also nach hinten im Sinne von auf der rechten Seite platziert gegen den Uhrzeigersinn, ist für mich jetzt nach hinten, Dann... Verschwindet das Kamerabild des Raumes und wird in zunehmendem Maße durch eine künstliche Szenerie deiner Wahl ersetzt. Das kann einfach nur schwarz sein, das kann irgendwie ein Hintergrundbild sein, irgendeine dreidimensionale Szenerie, Bäume, Wälder, keine Ahnung. Und dann eben zusätzlich noch diese Objekte, die du siehst. Und diese DEVDS Kamera, bzw. Dieses Leader, taugt dann eben auch noch für die Erkennung anderer Menschen, die sich dir nähern. Und das ist der nächste Knackpunkt, wo ich sage, okay, alles klar, ja, hab da mal so richtig drüber nachgedacht, weil das war ja so dieses Problem. Also so ein Headset, du setzt es auf, du verschwindest da drin und du verlierst den Kontakt und rennst in Dinge rein und vor allem Leute rennen in dich rein und du weißt nicht da steht jetzt irgendjemand vor dir, nimmst die Kamera ab und hast auf einmal ein Gesicht vor dir. Super scary. Du willst es die ganze Zeit abnehmen, aber ich denke, wenn sie das richtig hinbekommen und das war ja so ein bisschen so dieses Flugbegleiter Beispiel, ne. Sitzt im Flugzeug guckst den Film an und dann wirst du halt irgendwie angesprochen mit wollen sie noch irgendwas haben und dir gibt's Abendessen.
Dann hast du nochmal die die hardware technisch dass wir das mal bis zu ende führen also wir hatten glaube ich noch nicht eindeutig und deutlich erwähnt i tracking ist wirklich super genau noch an der stelle nach innen gerichtet um zu genau zu sehen, wie die wie die augen drauf sind dann hat das ding natürlich schon auch in irgendwem mit dem mit dem ziel darüber die navigation zu machen den ganz wichtigen teilen das heißt also du point ist auch wie bei der quest zwei mit dem finger irgendwo hin beispielsweise sondern du guckst etwas an und klickst dann mit deinen händen zusammen und hast den button aus. Genau, ich wollte bei den Hardware-Features bleiben, erst bevor wir in der Richtung sind, weil was mir noch gefehlt hat an der Stelle ist, irgendwo braucht das Ding auch noch Strom, der Strom ist nicht im Kopf, sondern der hängt wirklich irgendwo unten rum mit so einem Kabel, mit so einem Schnur, dass man sich so an die Seite einsteckt, das wohl nicht MagSafe ist, schon ein bisschen fester, aber schon auch wirklich so ein Kabel, das man sich irgendwie mit Batteriepack umhängt, irgendwo reintut, wie groß das genau ist, hat jetzt noch keiner gesagt an der Stelle, habe ich noch nicht gesehen, ist wahrscheinlich noch nicht so final auch.
Werden denn die Arme auch reingerendert, wenn man jetzt selber seine Hand vor dem Display hin und her macht. Das habe ich nämlich nirgendwo erwähnt gesehen. Also ob sozusagen auch der eigene Körper einem selbst auch noch reingerendert wird. Also ich meine, wenn schon meine Augen für andere Leute gerendert werden, dann können sie ja auch noch meine Hände. Gleich mit reinrennen oder oder ist das dann sozusagen wirkungslos?
Also das ist ein guter Punkt, müssten, müssen, die sind ja dann im 3D, sind ja eh da ja stimmt. Das haben sie wahrscheinlich noch nicht so weit. Haben sie nicht so richtig gezeigt aber müssen sie eigentlich. Wobei das dann eine Sache ist, dass beispielsweise auch die Quest 2 schon super hinkriegt, also wenn du da den Controller in der Hand hältst und die dann in der Zeit geländert werden, das geht schon.
Wenn wir jetzt in die Diskussion einsteigen wollen, ich habe mir die Quest ja wieder mal rausgenommen, so diese absolute Stabilität im Raum und diese absolute, ich weiß genau wo der Hand ist, mit dem Unterschied zu, es ist ungefähr so grob da, wo du jetzt gerade bist und es fühlt sich ganz okay an, das ist, glaube ich, die Weltunterschiede, ich bin so heiß auf dieses Gerät, weil ich würde gerne sehen, haben sie es wirklich geschafft. Weil alles, was ich bisher hatte, ist genau immer so ein bisschen an Kenny noch, so ein bisschen schräg. Der Controller geht zwar relativ gut, wo ich bin, aber er ist halt nicht so genau da. Und wenn ich jetzt in so einem Quest 2 auf den Knopf drücken soll mit meinem Controller, und wirklich so physikalisch in einer dieser Video-Apps geht es halt so, dass man den Controller an der linken Hand irgendwie hat und an der rechten Controller auf die linke Hand so zuführt und dann so einen Play-Knopf drücken soll, wirklich um eine Play zu machen. Da macht man nicht irgendeinen Knopf auf den Kontrolle, sondern man drückt den und das war schon zum Kotzen. Und ich hoffe halt, dass dadurch, dass A, Sie überhaupt keine Kontrolle haben, sondern Gesten und Augen, plus alles super stabil im Raum, keine Veränderung außenrum, reinrendern, rausrendern, alles gut gemacht, dass dadurch eine ganz andere Art von Interaktion entsteht, die wirklich ... Wirklich ein anderes Computing aufmacht an der Stelle, das ist wirklich so, das ist die nächste, das ist einfach eine andere Art, das ist ein Computer zum durchgucken, that's it, mir wurscht, was es ansonsten noch so kann, aber das ist ein Bedienparadigma, das es wert ist, Bedienparadigma genannt zu werden und nicht irgendwelche komischen Controller, die ich mit Avataren vor einem Sackerberg rumhopfen lasse. Und ich glaube, ich bin echt scharf drauf und finde es schade, dass das jetzt erst in einem halben Jahr, dass man da rankommt, oder in einem Jahr, weil ich will halt wissen, ob sie es geschafft haben. Und wenn sie es geschafft haben, dann ist es geil, glaube ich. Auch wenn es vielleicht jetzt in der ersten Iteration noch zu schwer, zu wenig Batterielaufzeit, sonst irgendwas hat. Aber wenn sie das Bedienkonzept hinbekommen haben und das Interaktionskonzept zusammen mit anderen Leuten, mit einblenden, ausblenden und man kann durchgucken und es ist jetzt ein bisschen creepy, aber es ist absehbar, dass es nicht mehr creepy bleibt, so, dann ist es halt echt eine geile Nummer, so.
Und aber auch der Content war relativ statisch, also man sah immer den Raum statisch, die Leute sind jetzt nicht... Du hast keine Games gesehen, wo man irgendwo lang fliegt und so weiter. Alles so Dinge, die nicht drin waren. Und mein erster Gedanke nach der Genote war so, okay, jetzt haben sie es zwar nicht Reality OS, sondern Vision OS genannt, aber mein Eindruck war erstmal so, dass es jetzt so Isolation OS ist. Also du bist jetzt sozusagen so dein Betriebssystem für die totale Isolation. Du alleine in deinem Wohnzimmer, du alleine in deinem Hotelzimmer, du bist allein und was tust du jetzt? Setz dir sozusagen diese Brille auf, um dich von deiner Isolation zu befreien. Aber auf der anderen Seite haben sie natürlich einen Punkt, dass sie damit ja auch aufzeigen, so ein bisschen wie mit Podcasts, wo du quasi tote Bewegungen nutzen konntest, so in der Bahn, spazieren gehen, also immer wenn du nichts Produktives tun kannst, kannst du Kopfhörer aufsetzen, kannst du Podcasts hören. Und hier wiederum kannst du sozusagen so tote Momente, so Reise, Flugzeug, eben das Hotelzimmer in der fernen Stadt, wo du dann abends so alleine rum bist und dann vielleicht mal den Fernseher anschaltest, auf einmal kannst du das irgendwie alles nutzen und vor allem, du schaffst auch eine Privatsphäre. An orten wo es eigentlich keine gibt also gerade so in der bahn oder im flugzeug oder so jetzt an geheimen dokumenten arbeiten oder sachen die jetzt keiner sehen will ja also jetzt nicht unbedingt porno aber es gibt auch so andere sachen die ich mir dann auf dem bildschirm zaubern könnte wo ich mir denke so da will ich jetzt noch nicht mal dass da jetzt irgendjemand quer drauf guckt weil das verstehen die nicht.
Also ganz einfaches Szenario, irgendeine Netflix Serie die ab 18 ist, was weiß ich Witcher oder sowas. So guck ich nicht in der Bahn, weil ich weiß da laufen kleine Kinder vorbei und die gucken bei mir auf meinen schönen großen 14 Zoll Laptop und die sollen nicht sehen wie da irgendwelche Köpfe rollen.
Tritt dein Porno aus. Zurück zu Pornos. Ja aber ich mein das war natürlich auch Teil der Erzählung, uns ein Gefühl zu geben, was sie sich jetzt eigentlich darunter vorstellen unter Spatial Computing. Und jetzt kommen wir vielleicht schon so ein bisschen zu diesem wofür es gemacht, was haben sie jetzt eigentlich im Sinn und dann will ich auch nochmal kurz auf die letzte Sendung und vor allem unsere Interaktion mit dem Chat. Da kamen ja dann so Ideen mit, ich meinte ja immer so, keine Ahnung wofür man das benutzen soll. Dann kam so der Chat und meinte so, naja du könntest ja dein Macintosh als Bildschirm benutzen. Und ich mir dachte so, Leute das kann doch kein Feature sein.
Könnte sein, dass es das doch ist, genau. Weil sie das mit der Auflösung hinbekommen haben, weil ich hab jetzt von allen, wir haben es ja nicht gesehen, aber Leute die das benutzt haben meinten, es würde dann so sein, ich kann mir das kaum vorstellen, aber es sei so als würde man auf ein 4K Bildschirm schauen und dann halt auch die Details erkennen und die Schrift wäre scharf.
Und beliebig viele davon, das heißt also man muss sich immer wieder so ein bisschen klar machen, ich hatte immer dieses Problem so wie soll ich dann darauf tippen oder wie soll ich dann da mit dem Trackpad arbeiten oder sowas. So und das Problem ist das Problem gibt es einfach gar nichts und ich habe vor mir mein normales Laptop stehen wie jetzt auch, dahinter kann ich drei 4K Monitore mir hinstellen.
Der Punkt auf den ich will ist ein anderer. Dadurch, dass aber diese ganze Kameratechnik so gut ist, siehst du ja deine eigenen Hände ganz normal auf deiner normalen Tastatur davor und du siehst deine Hände ganz normal auf dem Trackpad und mit denen steuerst du dann einfach deinen virtuellen im Raum hängenden neuen 4K Monitor. Das heißt du hast überhaupt gar kein Input Problem an der Stelle, sondern du siehst ja den selben Input wie sonst auch, nur dass da halt kein echter Monitor steht, sondern halt ein virtueller Monitor in der Luft. Das wird funktionieren, ich bin mir da ziemlich sicher. Und dann brauchst du nämlich auch kein runtergespecktes, der kann da nicht so viel oder sowas sein, das ist halt einfach dein ganz normal erweiterter Computerscreen an der Stelle.
Ja, aber das geht natürlich dem ganzen ein bisschen konträr dazu, dass sie plötzlich ein komplettes Betriebssystem für das Ding vorstellen, wo du halt Apps drauf laufen lassen kannst, ne. Also ich habe ja vorhin von der Ladefuchs App gesprochen und ich habe, als das SDK für die Vision Pro dann verfügbar war, habe ich einfach das runtergeladen, habe gesagt, hier, Target Vision Pro, angeworfen, bam, funktionierte. Also ich musste nix machen, das hatte halt einfach das Ding für die Vision Pro kompiliert und dann konnte man das in dem Vision Pro Simulator, konnte man sich das angucken und konnte da also das Fenster dann entsprechend in diesen… Da könntest du mal einen Screenshot von irgendwo hinwerfen.
Lass mich mal fertig reden. Das Ding war, dass du also plötzlich hast ein IOS-mäßiges, aber im Vision Pro-Universum funktionierendes Gerät, auf dem du dann arbeitest. Einziges Problem war, mein MacBook wurde unglaublich heiß, weil er irgendwie diese, Diesen Simulator, die ganze Grafik, die er da rechnen musste, das hat ihn glaube ich ein bisschen überlastet. Aber es blieb flüssig und man konnte, das fand ich das lustigste, mir ist es gelungen, den Playstation Controller anzuschließen und dann kann man tatsächlich mit dem Playstation Controller in dem Simulator dann irgendwie im Raum hin und her und dann ist es so ein bisschen erträglicher mit wo gucke ich jetzt hin und wie weit bin ich von irgendwas weg.
Aber lasst uns von da doch nochmal kurz zurückgehen, wie denn überhaupt das Bedienkonzept aussieht, für die, die jetzt noch nicht so genau hingeguckt haben. Also was die Idee ist, wenn man jetzt das als Standalone-Rechen hat, also da hast du jetzt gerade, wir hätten gerade, wenn man einen Computerrechner spiegeln will, dann kann man den Computereingabemethoden weiter benutzen von dem Computer, aber wenn man es jetzt praktisch als Standalone-Gerät benutzt, Dann ist die Idee, dass du in deinem normalen Umgebung Fenster oder Volumen platzierst von den Apps. Das heißt, das Konzept von einem Fenster bleibt auch wieder ein Konzept von einem Fenster, aber steht halt dreidimensional im Raum und blendet sich so ein bisschen eben lichtmäßig an die Stelle. Du kannst dich das Ding bewegen, indem du drauf guckst. Dann gibt es so Hoverstates außenrum wie bei den Fenstern. Ansonsten, so wie wenn du mit der Maus irgendwo am Fenster entlang fährst, hast du ja die kleinen Pfeile zum Vergrößern und Verkleinern und so weiter. Und es gibt ein paar Stellen, wo du hingucken kannst an diesen im Raum stehenden Fenstern. Und dann siehst du da Bedienelemente, die so ein bisschen größer werden und benutzen kannst. Man kann es im Raum verändern, indem du mit dem Finger pinscht, praktisch mit irgendwelcher Hand. Was zusammendrückst, und dann kannst du es wegbewegen, so ganz normal, wenn du den Arm im Raum bewegst. Und du kannst es vergrößern und verkleinern. Das heißt, du kannst praktisch mit den eingebauten Apps dir in dem Raum, in dem du bist, beliebig viele Fenster, so wie ich es jetzt verstanden habe, auch irgendwo hinstellen. Da gibt es dann so ein Safari-Fenster, das dann ein bisschen von der Größe her in den Videos immer so aussieht, als wäre es so ein bisschen mobile. Ja, also auch wenn der Text alles scharf und toll ist und du vielleicht nicht so genau gucken kannst, Von dem, was du so an Fensterinhalt siehst, ist es ungefähr so, weiß ich nicht, halb so groß wie auf einem Laptop, so ungefähr von der Größe her, iPad-Size, ist so eine ganz gute Ecke. Das heißt, die normalen Apps, die du da drinnen benutzt, die machen dann ein Fenster in den Raum auf und dann benutzt du die in dem Fenster in dem Raum, in dem du guckst und mit deinen Fingern ein bisschen klickst, mehr oder weniger. Das heißt, die initiale Position hast du immer mit den Augen, das geht wohl super schnell und macht Spaß. Und dann klickst du mit deinen Fingern und machst mit den Händen, interagierst irgendwie und kannst es schieben und pinchen und alles, was du eh schon so gewohnt bist interaktiv mit viel oder wenig Handbewegung. Das soll alles angeblich ganz gut funktionieren. Und wenn du eben so eine App hast, die es schon gibt, dann mach die, wenn du sie nicht anpasst, mehr oder weniger so eine iPad-App-Fenster auf auch. Und wenn du es so anpasst, wie du es schon gemacht hast, dann ist es ein bisschen transparenter und ein bisschen mehr drin. Ist es dann auch so, dass das Fenster flexibler und resizable ist an der Stelle? Weil die iPad-Apps sind irgendwie mehr oder weniger iPad-Form, aber hochkant und quer und so.
Und wirklich virtuelle Texttastatur, die du irgendwie mit den Augen und den Fingern auch klippen kannst, wenn du willst. Und natürlich Siri und Voice kannst du praktisch machen, indem du aufs Eingabefeld guckst und dann einfach sprichst. Also das sind so ein paar Interaktionspattern, die würde ich halt gerne live erleben, auch wie gut die funktionieren. Dadurch, dass es Apple gemacht hat und es wirklich so von dem im Simulator schon so aussieht, als könnte das ganz knorkelfunktionieren, freue ich mich drauf. Aber so bei Facebook hätte ich Angst so ungefähr. Also das ist so, weil das ist das, was Apple kann. Und vor allem das Eye-Tracking finde ich super interessant, weil ich hab mal die Gelegenheit gehabt, so Eye-Tracking Dinge, die jetzt praktisch nur so Third-Party an einem Rechner waren, auszuprobieren von Leuten, die das ausprobieren. Und es war immer zu nervig und zu intrusive irgendwie. Und ich glaube, das haben sie aber gut gemacht, so wie sie es gemacht haben. Weil diese Kombination aus, du hast mehr so einen Hover-State, der relativ privat ist auch, also den auch die, zum Beispiel, Webseiten nicht mitbekommen, weil das wäre auch ein bisschen creepy, wenn die alle deine Bewegungspattern gleich erkennen wollen würden, aber die halt das System weiß. Und dann kann das super schnell reagieren. Und wenn man dann nur ein bisschen tippen muss und dann wieder mit den Händen die feineren Bewegungen macht, ich glaube, das könnte super funktionieren. Ich will das so ausprobieren.
Also dazu habe ich gehört, dass es sehr viel genauer sein soll. Weil du einfach mit dem Auge, bist du einfach nochmal schärfer, ich meine du guckst ja irgendwo hin, um dann da deinen Cursor mit der Maus hinzuschieben. Jetzt guckst du nur noch hin. Also das ist sozusagen schneller und genauer unter Umständen. Also so wie ich es gehört habe. Und das wäre mega.
Und das ist ein interessanter Punkt, weil es ist einerseits arschteuer, aber für das, was es kann, gerade eigentlich auch günstig, so gefühlt. Für das, was Apple normalerweise in der Produktkategorie macht, ist es halt so ein bisschen eine schwierige Geschichte. Ich weiß, ich würde es gerne haben, ich würde es gerne ausprobieren, weil ich will vielleicht mal was dafür entwickeln oder so. Aber für den Normaleinsatz ist es halt eigentlich so eine Preisklasse zu teuer und es ist das erste Produkt, es ist bestimmt in einem Jahr schon wieder veraltet und so. Ich weiß nicht, wie sie den Einstieg in den Markt dann schaffen irgendwann mal. Aber ja, es ist auf alle Fälle...
343 Max der war halt auch bei uns da auf der Couch zur Keynote und wir haben die Keynote halt auf unserem schönen neuen 77 Zoll LG OLED Display geguckt und dann bei den 3500 ging das große Heulen und Zähne klappern los. Und dann fragte Max aber so ganz tiefenentspannt du sag mal Ralf was hat nochmal genau dein Fernseher da vorne eigentlich gekostet? So der hat halt auch zweieinhalb tausend gekostet so das ist eben nicht mehr Größenordnung davon entfernt und der kann halt auch nur 4K. Also das ist natürlich grundsätzlich eine Geschichte, die man so für alleine für Consumer Elektronik, muss nur in irgendeinen Mediamarkt oder Saturn gehen, da ist das ja schon das Mittelfeld, nur was Tim eben sagt mit der Vereinzelungsanlage, du kannst dann halt nur alleine diesen Film gucken und nicht mit deiner ganzen Familie und das ist schon noch irgendwie so ein Punkt, die haben nie gezeigt, dass mehrere Leute gleichzeitig die Teile in einem Raum anhaben, wie verhält sich das dann eigentlich, was sehe ich von den anderen da Und so als Familiendevice ist es, außer dass ich dann in 3D die Kindergeburtstag filmen kann. Wir hatten eine Firmensituation, wo mehrere, in der Keynote oder in dem nachträglich gebrachten Film, den gibt's ja auch noch.
Was ich halt ein bisschen schwieriger finde ist, gut, ich hab jetzt, da drüber haben sie nicht groß geredet, aber sie nennen es ein Progerät und dann ist da aber eigentlich ein iOS drauf. Also weiß ich nicht, ich persönlich bin ja kein großer Fan des Terminals, aber ein Pro-Gerät muss ein Terminal haben, weil sonst ist kein Pro-Gerät. Also für mich ist das iPhone Pro kein Pro-Gerät und für mich ist das iPad Pro auch kein Pro-Gerät, weil es ist einfach als Tool nicht offen genug und ich kann nicht alles damit machen, was ich mit einem Pro-Gerät machen möchte.
Also wir haben bei der Hardware ja ein bisschen die CPU Geschichten übersprungen. Also drin steckt eine normale M2 plus ein neu entwickelter R1 Chip, der für die ganze Kamera Analyse um Berechnung der ganzen visuellen Komponenten und so weiter zuständig ist, damit da quasi die M2 nicht noch irgendwie mit seinen GPUs dran muss, aber das ist quasi normale Number Crunching von ich berechne jetzt irgendwie eine 3D Fläche und mach ein Lightning drüber. Und ähnliches. Das passiert auf einem Standard M2, also kein M2 Pro Ultra, sondern Standard M2.
Ja ja schon, nur meine Argumentation war jetzt wieder an der Stelle, wenn ich ein Pro-Gerät habe, dann brauche ich dafür Pro-Software. Und pro Software kann ich nur dann haben, wenn die Leute, die solche Software machen, auch ein Geschäftsmodell haben, mit dem sie über einen längeren Planungszeitraum Planungssicherheit haben und wissen, dass sie damit Geld verdienen können. Und wenn das im Prinzip auch nur ein 3D-iOS ist und sie da einen völlig zugerammelten App-Store mitliefern, dann sehe ich das noch nicht, dass das irgendwie, dass sich da ein Third-Party-Universum erschließt, wo ich sage, okay, ich kaufe jetzt ein Gerät für dreieinhalbtausend Euro, um damit was anderes zu tun, als Filme anzugucken.
Und sie haben halt auch sehr wenig echte 3D-Applikationen gezeigt. Das meiste waren eben eindrucksvoll irgendwo im Raum stehende 2D-Screens am Ende des Tages. Und auch ihre eigene GUI, die ist so ein bisschen extrudiert, da hängen die einzelnen Logo-Elemente immer so ein bisschen auf verschiedenen Ebenen. Aber man hat nicht den Eindruck, dass es, sie kommen ja mit Spatial Computing jetzt so als neuem Kernbegriff, dass sie schon so eine echte Idee haben, wie man jetzt diese dritte Dimension auch GUI-technisch wirklich ausspielen will.
Da bin ich einer anderen Meinung. Ich glaube, das ist eine absichtliche Einschränkung der Ebene, damit man eben so dieses grundsätzliche Bedienparadigma macht, weil die Apps selber können Volumen machen, können überall was hinmachen, aber du musst ja vereinfachen, du musst ja in irgendeiner Form ein Bedienschema überhaupt mal machen, mit dem du in dieser Welt arbeitest. Und halt Fenster kennen die Leute und ein bisschen vereinfachtere Fenster, man kann sie wenigstens beliebig positionieren, ist schon mal eine ganz gute Geschichte und damit kann man anfangen. Und dann ist die Frage, okay, wenn wir jetzt die freieren Apps machen, die sie ja vorsehen, technisch auf alle Fälle für die Entwickler, jetzt auch schon, die man irgendwo im Raum positionieren kann, die auch irgendwie in ihrem Volumen arbeiten können, dann wird es wieder was anderes. Aber dass das Hauptbetriebssystem was einfacher hat, eine einfache Metapher, die ja wieder jeder neue Benutzer und Benutzerin ordentlich verstehen kann schon am Anfang, finde ich super wichtig und eine sehr, sehr gute Auswahl. Auch, dass das Window-Chrome ganz wenig ist, weil das Auge ja einen automatischen Hover macht. Das ist zum ersten Mal, dass es mich nicht nervt, dass Dinge nur erscheinen, wenn du drüber haberst, Weil für das Auge ist es super, für die Mauszeiger ist es ein Dreck, aber für das Auge ist es großartig, wenn die UI erst dann erscheint, wenn ich da hingucke. Also deswegen, ich glaube, das ist eine bewusste Entscheidung, die sehr, sehr, sehr viel Entwicklungspower schon gebraucht hat und wirklich bewusste Entscheidungen sind in so einer Menge.
Und vor allem das Produkt ist ja noch gar nicht da. Es ist ja jetzt erst mal die Präsentation gewesen für Entwickler und was sie erst mal vermitteln mussten ist quasi ihre Vision, haha, für Vision. Also sie mussten sagen was ist es, wie stellen wir uns vor, wie man es benutzt, wie man damit interagiert, wie man Dinge steuert und dann gehen sie natürlich erst mal von dem aus was da ist. Gesten hat nie so richtig irgendwie mal so funktioniert, das haben viele probiert. Das ist jetzt das Ding. Jetzt soll deine Hand in irgendeiner Form hier wirklich alles machen. Du sollst da zupfen und klicken und so weiter können. Und auch wenn das auf den ersten Blick so ein bisschen weird aussieht, ist es halt wie dieser Handy in der Straßenbahn.
Ja vor allen Dingen die Augen, also die Hand, also der Gedanke ist eigentlich eher, deine Hand ist da wo sie gerade ist, entspannt auf der Fuß, auf der Sessellehne und die Hauptarbeit machen deine Augen. Und die Hand ist nur der zusätzliche Trigger, statt irgendwie blinzeln, wäre ja auch irgendwie eine Alternative gewesen, also wir haben halt gesagt, nee, wir machen quasi eben, die einzige Handgeste die man braucht ist irgendwie Finger zusammenklappen und das nehmen wir auf und alles andere macht das Auge.
Das ist halt in 3D immer so ein bisschen schwierig, wenn man das in so ein paar Interfaces schon mal probiert hat, ne? Also so links, rechts ist schon klar, aber nach hinten, da musst du dann schon gucken, so wie übersetzt du dann jetzt 10 Zentimeter, die sich deine Hand bewegt, vor dir der Raum ist aber 10 Meter, wie viel verschiebst du das dann?
Ich glaube, dass sie genau den Teil schon sehr gut im Griff haben. Ich glaube, das ist nix, wo sie irgendwie noch viel Experimente brauchen grundsätzlich. Haben da den Basisteil, den haben sie im Griff. Und das ist schon mal die Welt, finde ich, weil das ist dann ein Bedienparadigma einfach. Das ist wie beim iPhone, also genau der Teil, den ich geil finde an der neuen Technologie, wenn sie ein Bedienparadigma gut gemacht haben. Inertia-Scrolling beim iPhone und direkt Multitouch. Und das hier aber im Raum mit ohne Controller in gut. Hoffentlich.
Jetzt ist natürlich die Frage, was wird jetzt entstehen? Also ich erinnere mich noch sehr, Dom und da hatten wir ja eine gemeinsame Geschichte, als das iPhone rauskam und der App Store sich angekündigt hat. Ihr wart ja damals mit Coding Monkeys auch eine der ersten, die überhaupt schon eine App gemacht haben und vielleicht kannst du mal in die Zeit kurz zurückkehren, weil ich weiß noch, dass wir uns darüber unterhalten haben. Ihr kamt von der WWDC zurück und habt auf dem Flug zurück schon heftig diskutiert, was ist es eigentlich, wie man mit diesen Telefonen arbeiten will. Das war ja im Prinzip ein vergleichbarer Moment, wo so ein komplett neues Interaktionsmodell, Multitouch, das Display, alles nur noch mit den Fingern, keine sonstigen Stifte etc. Das war ja quasi so die Prämisse und dann habt ihr darüber nachgedacht und was war das nochmal so eine Verleih, wem hab ich was verliehen App oder sowas.
Ja, so eine Kleinigkeit, die hat auch nicht so gut funktioniert, aber von der Idee her hat es ganz gut gefallen, weil wir es ausprobieren konnten da was mitzumachen, also ein Foto von was machen, also man hat halt alle Features von diesem Gerät so benutzt. Aber es war wirklich, also der Bereich war halt irgendwie sehr groß, was man machen hätte können wollen so ungefähr, aber man wusste nicht so genau, was man jetzt dafür umsetzen würde. Ich finde, interessanterweise bei der Brille habe ich jetzt weniger, da habe ich eher so das Gefühl, okay, ich will eine App dafür machen, also habe ich eine Idee, wie ich es machen würde, glaube ich, ist es nicht? Da hat das viel weniger als beim Telefon das Problem, überlegen was. Ich habe ja auch schon zwei Dinge, die ich unbedingt machen wollen würde, aber man muss halt die Interaktion begreifen, ich kann es halt nicht ins Blaue hinein machen. Also wirklich eine App zu machen, die in einem Fenster funktioniert, ohne zu wissen, wie jetzt die coole Interaktion funktioniert, finde ich da viel schwieriger, als es beim Telefon war.
Ja, also was ich beim Telefon damals, waren die Einschränkungen sehr groß, das hab ich damals so empfunden, dass du hattest halt kein Background irgendwas, du hattest irgendwie, die App wurde immer abgeschossen, wenn sie in den Hintergrund ging und so, also das war schon so ein bisschen eingeschränkt und letzten Endes hat sich halt auch diese ganz große Klasse an Apps durchgesetzt, die im Prinzip nichts anderes sind als eine glorifizierte Webseite. Also du benutzt irgendeinen Dienst in diesem Internet und hast dafür eine schönere UI, als wenn du es jetzt im Browser machen würdest.
Genau. Das war aber gar nicht so schlecht, weil das war so wirklich so der Gedanke, okay, dieses Ding hat einen Interaktionsmodus, der ein bisschen anders ist als so eine Webseite und den unterstützen wir voll und das ist die App fertig. Mehr braucht es ja nicht für eine Sache. Das war schon eine spannende Geschichte. Eine ganz andere Zeit als jetzt, wo du schon mit 27.000 Frameworks beballert wirst und alles mögliche machen kannst.
Also in der Art und Weise, wie sie jetzt einem die Möglichkeiten geben, in diesem Space zu arbeiten, schränken sie einen ja schon ziemlich ein, wie der Rotti am Anfang schon gesagt hat, glaube ich, oder Ralf, dass wenn du ein Fenster irgendwo hinstellst, dann wird es halt beleuchtet von der Umgebung, weil die Umgebungsein- und Ausschaltnummer ist zentral, die ist nicht jetzt von der App selber bewusst. Wenn du die Augen erkennen können willst, kannst du das eigentlich nicht, außer du hast special permissions an irgendeiner Stelle. Du musst dich halt ins System einfügen, for better or for worse, wenn du Beleuchtung haben willst.
So wie ich das verstanden habe ist es sogar so, dass du als App Entwickler die Kontrolle über das Rendering vollständig abgeben musst. Du kannst das gar nicht mehr beeinflussen. Du bist sozusagen in dem ganzen wie es letzten Endes aussieht vollständig überlässig mit dem Betriebssystem. Und das ist natürlich auch eine interessante weitere Abstraktionsebene die Apple damit erreicht für ihre App Developer. Man kennt das ja schon, man will ja eigentlich immer konsistente Apps haben und es ging immer ein Weg drumherum und nirgends wo ist es so krass wie auf Mac, AppKit, da kannst du halt alles machen, das ist ja auch so ein bisschen Vorteil der Plattform.
Genau, aber jetzt wird die Wahrheit nicht verpachtet, jetzt wird sie sozusagen einfach nur noch kurzfristig vermietet und die... Es macht den Eindruck, dass quasi in diesem Environment, wenn man dort programmieren will, man sich dann wirklich dem User Interface Paradigma komplett ausliefern muss, weil sonst funktioniert das auch nicht. Da gehören ja auch noch diese ganzen Sachen dazu, die wir gar nicht angesprochen haben, wie Privacy, weil wenn alles Eye Tracking ist, hast du natürlich auf einmal eine ganz andere Informationslage und sie sagen halt, deine Apps kriegen halt keine Informationen darüber, wo der User hinguckt, bevor er mit irgendetwas interagiert. Das ist natürlich auch schade, weil es natürlich eine bestimmte Kategorie, eine interessante Kategorie von Apps von vornherein erstmal ausschließt, weil das kann ja sein, dass genau das sozusagen das Interessante ist, dein Spiel mit dem du wirklich nur durch die Gegend guckst und damit irgendwas durch die Luft feuerst ohne die ganze Zeit mit den Fingern schnipsen zu müssen, also aber sie sehen das zumindest sofort, also das Ding ist voll mit Restriktionen, darauf will ich eigentlich hinaus.
Ja, also momentan sieht es ja noch so aus, dass das, also zumindest dann, wenn du eine App mit Fenstern hast, dann ist die auch erstmal nicht anders als das, was auf iOS passiert. Sieht ein bisschen anders aus, aber die Frameworks sind erstmal die gleichen. Du machst ein Fenster auf, du machst einen Dialog auf, du, keine Ahnung, du gehst auf einen Browser und dann öffnet sich der Browser und der Browser sieht im Prinzip auch nicht viel anders aus als bei iOS. Interessant wird's natürlich dann, wenn du in diese 3D-Welt kommst, wo du dreidimensionale Objekte hast. Das hab ich noch nicht so ganz ein Gefühl dafür, wie das bitte funktionieren soll. Aber wenn du dir zum Beispiel anguckst, wie die Settings App aussieht, das sieht halt total aus wie die Settings App auf iOS und inzwischen auch macOS. Wir haben ja letztes Jahr, letztes Mal gerantet.
Ja also zu Tims Punkt nochmal mit der Privacy zurück. Ich glaube wo sie wirklich totale Paranoia vorhaben ist, dass sie in irgend so ein Glasshole Ding wieder reinkommen. Ja also wir erinnern uns Google Glasses, diese Brille die man halt mit so einem halbtransparenten Display über einem Auge hatte und wo man also auch diverse Informationslayer reinblenden konnte und wo aber eben auch eine Kamera verbaut war und irgendjemand hat dann dieses Wort Glasshole in die Welt geworfen und von da ab war dieses Produkt komplett tot. Das heißt also, dass jetzt Apple von Tag 0 an sagt, hier Privacy ganz, ganz wichtig und alles ist on device und da haben sie ja eine gewisse Street Credibility, muss man ja mal sagen. Das glaubt man denen an der Stelle auch. Was ich mich dann aber im Nachhinein gefragt habe, das eigentliche Glasshole-Problem haben sie aber nicht angesprochen. Das heißt, sie zeigen ja, wie ich meinen Kindergeburtstag in 3D mit dem Headset filmen mit allen Details und das dann als super immersive, da denke ich immer an hier diesen einen Film, na wie heißt das, wo man seine ganzen Erinnerungen speichern und hinterher wieder, Robin Williams? Strange Days, ja unbedingt angucken.
Also das war eins meiner dystopischen Momente in dem Video, vor allem auch wenn der Vater nämlich in seiner Geburtstagssituation dieses Ding auf hat und nicht dieses von wegen, Du bist hinter der Kamera und bist nicht Teil des Erlebnisses. Die Idee von Apple ist, dass du dadurch, dass du die Augen siehst und so, dass das ja so eine durchlässige Erfahrung ist, aber im Moment ist es noch überhaupt nicht so mit diesem riesen Ding da dran und ich finde das, das fand ich echt creepy dann, nur damit du es aufnimmst, bist du dann in dem Moment, wo die Kerzen ausgepustet wird, mit dem Ding am Start. Und zwar als dein Hauptgegenüber.
Ja, aber das ist eine reine Gewöhnungssache. Ja eben, ich will mich daran gewöhnen. Moment, kurz, nicht im Sinne von gewöhn dich an die Unterjochung, das meine ich nicht, sondern das ist so ein bisschen vergleichbar mit dem Aufkommen von Videorekordern. Was waren die ersten Videorekorder? Das waren so riesige, klobige VHS-Kassettenteile, also bevor es dann auch noch die kleineren Systeme gab, so Hi8 und sowas. Vorher war glaube ich, also schon immer war eine Kamera, erinnere dich mal, wie Kameras angefangen haben, das waren sowieso so scheunengroße Kisten, mit denen du durch die Gegend nicht mal laufen konntest, sondern die so fest aufgebockt waren und dann sukzessive immer wieder kleiner wurden. Diese Situation war dann schon immer explizit, jetzt Aufnahme. Und genau das ist das, was du in der Situation auch hast. Das heißt, wir haben das so gesehen in dem Film mit, oh die Kinder werden jetzt hier so von diesen Aliens beobachtet und gleich fressen sie auf. Nee, das ist sozusagen, die Kinder wissen ganz genau, Papa setzt jetzt die tolle Kamera auf und dann können wir uns das danach anschauen. Also das ist wahrscheinlich überhaupt nicht kriegbar. Sondern ganz im Gegenteil, da stellen sich alle noch extra auf und ziehen sich noch mal ein sauberes Hemd an, damit irgendwie diese Erinnerung ist und mal ehrlich, wenn du eh weißt, jetzt passiert gleich was verdammt irre tolles, Wo es nur einmal ist, weil Taylor Swift Konzerte und alle haben so ein Teil auf, weißt du? Nee, aber keine Ahnung, Feuerwerk, Silvester und dann schaust du dir das nochmal so total immersiv wieder an. Das ist halt auch krass. Also es ist einfach ein krasses Recording, was du für bestimmte Momente haben möchtest. Ich glaube nicht, dass das jetzt ein Hauptgrund ist, diese Kamera zu kaufen. Aber ich glaube, das ist definitiv etwas, was alle sofort mal ausprobieren werden. Und wenn das nur so halbwegs so gut rüberkommt danach, wie man es so normalerweise sieht, dann wird es echt interessant.
Also was ich da sagen wollte, es hat sich für mich ein bisschen auch gedreht im Laufe der Zeit jetzt von seit der Keynote gucken. Also beim Keynote gucken war das eine meiner dystopischen Geschichten. Der Vater soll das nicht so machen und das ist blöd. In der Art und Weise, wie es zum Beispiel Craig und wie heißt der andere gleich nochmal, in der Talkshow dann beschrieben haben, ist es schon ein bisschen weicher geworden. Weil wenn du so ein bisschen so diese Idee von, das ist halt so ein Family Recording, so wie du es jetzt auch wieder beschrieben hast, weil sich die Leute schon freuen drauf und dann hat man halt diese geile Erinnerung, die man gerne hätte, die man angucken kann, so auch in der Geschichte und dann hat es was, hat es was Positives. Ich weiß nicht genau, wo ich da lande. Emotional war das auf alle Fälle in dem Promo-Video ein massiver Downer, wo ich mir gedacht habe, so totale Ablehnung in mir an der Stelle für diesen Anwendungsfall. Ich verstehe es, man will es dafür auch hernehmen. Aber das war trotzdem so die Bauchreaktion, die sich mit der Zeit gewandelt hat, also, und die sich auch wandeln wird, je weniger creepy diese Dinger sind, so in Summe, ja, also.
Also ich sehe ja noch ein technisches Problem, weil beim Abspielen dann einer solchen 3D-Immersionserinnerung hast du selber dann ja keine Kontrolle mehr über die Kamerabewegung, sondern du sitzt dann ja vermutlich oder stehst und vor dir läuft und bewegst sich aber gleichzeitig durch so einen 3D-Film durch. Das heißt, die ganzen Tricks, die ich ihnen abnehme, dass es gut funktioniert, mit irgendwie alles schnell gerechnet und so weiter, an der Stelle werden sie, glaube ich, an eine natürliche physikalische Grenze kommen. Ich vermute, dass sie es so lösen, dass du eben nicht dann ein 180-Grad-Immersions-Video daraus machst, sondern dass es das vor dir auf so eine 3D-Leinwand projiziert wird. Das also quasi ist, als ob du den 3D-Film anguckst auf einer Leinwand, aber nicht, als ob du wirklich nochmal in dem Moment wirklich drinnen bist.
Das haben sie beschrieben, also sie haben es beschrieben und sie haben es beschrieben, als wäre das so ein bisschen so Harry Potter-Style in das Bild dann eintauchen, ein bisschen. Aber schon, dass du passiv bist dabei dann. Also du gehst praktisch, das kommt so, das ist so eine Erinnerung, wie so, wie so, wie so einen, hast du das bei Harry Potter im Kopf noch, wie diese Silberfäden so aus dem… Genau, so haben sie es gemacht von der Idee her auch, haben es beschrieben, wie sie es gemeint haben. Das heißt, du kommst in so ein Unschärfes und dann bist du da in so einem, nicht in einer Leinwand, aber ein bisschen in so einem Schaukasten, aber der trotzdem, du bist trotzdem drin. Also es ist jetzt nicht einfach nur der 3D-Film, es ist viel mehr als das, aber es hat irgendwie genug Fuzzy Render oder sowas, dass du weißt, es ist eine Erinnerung. Also sie haben es Erinnerungen dann auch genannt. Ich bin gespannt wie das aussieht, ich glaube das muss man erleben, das kriegst du halt nicht in einem Video.
Tim ich glaube das nicht und sie haben es auch nicht gezeigt. Ich glaube du hast immer eben so eine Grenze, die dich selber nochmal in deiner anderen Welt verankert, damit dir nicht schwindelig wird, weil sonst fangen die Leute wirklich sofort an zu kotzen, weil das ist das Hauptproblem, dass deine Augen eine ganz andere Lage Informationen bekommt als dir dein Restkörper vermittelt, vor allem dein Innenohren.
Da ist auch meine Frage, wie haben sie das umgesetzt? Wir haben in der letzten Sendung ja so ein paar Use Cases mal ersponnen, die es haben könnte. Und eine der Punkte, die ich ja gemacht hatte, war so dieses Sehnsuchtsorte. Das heißt also ich möchte irgendwo jetzt arbeiten, an einem Ort, der mir besonders am Herzen liegt und mit dem ich besonders viel verbinde, was weiß ich, irgendein Rooftop in New York, die Meta-Ebene, whatever, ja.
Und Apple ist jetzt bekanntlich hingegangen und hat eigenes Kamera Equipment entwickelt, um so eine 360 Grad Immersions Setting filmen und aufnehmen zu können. Aber so wie ich es verstehe, ist es dann an der Stelle eben auch nur ein Film. Das heißt also, du sitzt dann zwar irgendwie auf einer Bergkuppe und es ist alles 3D und es ist alles geil, aber ich kann eben nicht vernünftig einen Meter nach links gehen und es verschiebt sich. Sondern du bist halt in einem 3D 360 Grad Film drin. In einem Panorama. In so einem 3D Panorama, wo ich mich auch frage, sind sie da auch noch den Schritt weiter gegangen und machen so eine 3D Simulation, zumindest von 5 Quadratmetern am Boden, dass man so ein bisschen nach links und rechts und alles verschiebt sich perspektivisch exakt, weil sie genug 3D Information haben. Das wird glaube ich ganz spannend.
Es wird eine Menge Content geben, der nicht funktioniert und die Leute werden Bungee Jumping damit machen und alles mögliche und YouTube wird voll davon sein, meine neue Vision Pro, hier habe ich mich vom Wolkenkratzer gestürzt, jetzt fliege ich mal im Jet mit und so weiter, Zugfahrten durch deutschland mit der vision pro also das werden wir alles sehen und.
Und dieser basketball geschichte ich hab sie gerade mal in den chat reingeworfen wo du also jetzt hier so eine replay cam plötzlich hast und die komplette szene aus der spielsituation bei dir in 3d auf dem tisch projiziert hast und das ist natürlich fantastisch ja wenn ich mir das so vorstelle jetzt ein fußball länderspiel und du hast die ganze zeit Wirklich das ganze Fußballfeld vor dir auf dem Tisch und kannst dir irgendwie die kleinen Oellikons da rumlaufen, also das ist natürlich dann wirklich Harry Potter in Reinkultur.
Das hier ist nämlich auch Replay, wenn man nämlich im Feingedruckten nochmal nachliest, steht dort nicht, dass das ganze Spiel so übertragen wird, sondern es ist immer nur so ein Replay Moment, das heißt es kann auch sein, dass das dann nochmal nachgerendert und nachgeschärft und weiß der Geier was ist und dass ihre Kameratechnik nicht gut genug ist, um das in Echtzeit quasi irgendwo von irgendwo live rüber zu bringen, unklar. Aber das Potential ist da und wenn es die Generation nicht kann, dann kann es halt die nächste Generation, dann wird alles super.
Also ein Stadionbesuch wird das nach wie vor nicht, aber es gibt ja mittlerweile, also es ist ja so super krass, so ist das ja bei den High Value Leaks und so weiter, mittlerweile so in England wird das gemacht, ich weiß nicht mehr ganz genau wie verbreitet das ist, aber mittlerweile wird ja mit einer, Manche Spiele werden mit einer super hohen Anzahl von Kameras gefilmt, also ohnehin schon für alles mögliche, man will ja viele Perspektiven haben, aber sie machen ja dann mittlerweile auch so Bullet-Time-Effekte, das heißt du hast so Flanke von rechts, Spieler steigt hoch, köpft und in dem Moment so ratatatatatatat wird dann einfach mal die Perspektive geändert und dann siehst du das. und... Könnte schon interessantes futter sein für so eine ausspielung das ist zwar jetzt in der 2d ausspielung auch schon ganz gut aber wenn du dann eben sozusagen die möglichkeit hast dann auch diese perspektiven selber.
Was einerseits eine gute Idee war, andererseits war es schon sehr cool das erste iPhone, auch wenn es damals irgendwie ohne Jailbreak und hast du nicht gesehen und einmal tief in alle Kisten greifen, Man damit gar nicht telefonieren konnte, was es auch nicht wirklich gut konnte, aber das ist nur am Rande. Also vieles hat schon beim ersten iPhone gut funktioniert, aber telefonieren war… Also was du uns sagen möchtest, du wirst ja eins kaufen. Sagen wir mal so, ich hab wenig Ausrede.
Ich bin schon auch irgendwie ein pathologischer… Anders gefragt, abgesehen von der reinen Neugier und Developer Interesse, hast du ne Anwendung, siehst du ne Anwendung für dich wo du das Ding wirklich meinst, ob das dann so ist, nochmal ne andere Frage, aber wo du jetzt so dir vorstellen könntest so, ja damit könnte ich x machen was ich derzeit nicht machen kann oder damit kann ich x machen was ich derzeit schon tue aber besser oder anders.
Also ich hatte das zweite iPhone, das erste iPad und die erste Watch. Ich fand schön, was 343max gesagt hat jetzt im WMR Podcast, nämlich er hat sich das erste iPhone gekauft und die Entscheidung ernährt ihn heute noch. Also eben ich bin eben auch in einem Job drin irgendwie Bereich Innovationsmanagement wo es schon dazu gehört sehr früh von sowas einen vernünftigen Eindruck zu haben und ich habe einen sehr billigen Deal mit meiner Frau Wortkomplex ausgehandelt, ich muss nur den Wohnzimmerschrank neu organisieren dann könnte ich sie mir vielleicht kaufen. Ich glaube in der Tat, dass ich auch mehr als genug Anwendungsfälle habe als jemand, der mittlerweile signifikant im Homeoffice arbeitet. Ich glaube, dass das also für Arbeitssituation und mein 9 to 5 Job schon mehr als genug gute Anknüpfungspunkte hat. Ich habe etwas Angst vor der Vereinzelungsanlage in der Tat, dass man in eine Situation kommt, wo man eigentlich jetzt den Film gerne darüber gucken möchte, weil es einfach nochmal viel geiler ist, als auf dem schon tollen, aber immer noch nicht eben 200 Zoll Screen und Frau auf der Couch guckt aber halt in die Röhre. Da sehe ich also noch irgendwie so Reibungsfläche was das angeht, dass es eben doch derzeit mir ein sehr vereinzelndes Gerät erscheint und dass ich das als Familienmensch eigentlich nicht so cool finde.
Also ich habe den ganz stupiden Displayfall eigentlich, finde ich glaube ich ganz gut, So, einfach als diese Rechtfertigung, also das müsste funktionieren, wenn es Retina ist. Ich habe natürlich das Interesse selber, das alles mal zu erleben, um eben mitzuwissen, wie man so Interaktionen, die über eine Kombination aus Augen und Gesten funktionieren sollen, wie man die gescheit macht. Also das will ich von vornherein gleich, da will ich dabei sein. Und ich will meine, ich mache so eine Farbmusik-Kram, also ich will wissen, ob man damit zum Beispiel am Klavier Spaß hat.
Ja, das ist so. Ich bin schon seit Jahren so einem Farbmusiksystem verfallen, was so ein bisschen funktioniert wie eine Piano-Roll und einem, ähm, also, ja. Es ist immer schwer zu schreiben, es gibt immer so Einsteigerfarben, Notationssysteme und ich habe eins, das finde ich toll, habe ich mir in der App geschrieben, läuft auf iPad, die würde ich gerne da so schreiben und dann kommen halt die Noten so rausgeflogen aus dem Klavier oder reingeflogen, wenn ich sie spielen soll und man legt sich halt dann diese UI so stabil aufs Klavier, auf die Tasten, damit man, wenn man die Tasten drückt, was soll sich. Und ich glaube, das könnte gut funktionieren, mit dem, also mit der Quest funktioniert es nicht, der Einfallswinkel ist zu klein und das, was die Apps da so gemacht haben bisher, also ich hab mir das immer angeguckt, das war auch bei einem, sag ich schon, bei einem, sag ich mal, bei einem Meta-Video, war auch eine App, die sowas gemacht hat. Und wenn du es da wirklich davor sitzt, dann ist es ganz blöd im Blickwinkel, dann hast du überhaupt keinen Vorteil dadurch, weil du anstatt, dass du auf ein schönes DIN A4-Blatt guckst, wo du alles erkennen kannst, auf die volle Breite vom Klavier siehst und dann siehst du nicht mal die Noten, die du spielen sollst, wenn die so reinfliegen, das macht alles keinen Sinn. Aber mein System macht Sinn und das würde ich da gerne auch in der 3D-Welt außenrum haben und das würde ich gerne ausprobieren. Also das will ich machen. Benutzen würde ich es auch gerne, wenn es jemand anders schon gemacht hat, aber ich glaube nicht, dass es jemand anders vorher so macht, dass ich es benutzen will. Deswegen so ein bisschen in die Reihe. Und ansonsten brauche ich es nicht, aber ich will dabei sein.
Das ist, glaube ich, meine ehrliche Antwort. Zugegebenermaßen, das mit dem externen Display, das kann ich mir sogar auch noch vorstellen, dass man für so eine mobile Anwendung, wenn man seinen Laptop dabei hat und will ein bisschen mehr Screenspace haben, Dass man das Ding dann noch da einsetzt. Keine Ahnung. Weiß ich nicht. Müsste man mal ausprobieren, ob das wirklich was bringt. Im Zweifelsfall oder nicht. Ansonsten, ganz ehrlich, nee. Also für mich wär's schon einfach herauszufinden, was passiert da. Was sind da die neuen Möglichkeiten oder wie fühlt sich das an, einfach damit rumzuspielen, einfach ein Gefühl dafür zu kriegen.
Geschichte, die kommt da mit rein. Also das ist halt ein Gerät, das einfach, das kann man eigentlich auch nochmal betonen, das ist wahrscheinlich das persönlichste Gerät, was Apple je rausgebracht haben wird. Also bei einer Uhr musst du zwischen groß und klein unterscheiden und dann kannst du ja noch irgendwie dein Armband aussuchen und das war's dann im Wesentlichen, aber hier hängt es halt sehr von deinem Körper ab. Und zwar nicht nur was die Linsen betrifft, sondern ja auch die Gesichtsmuffe, aber auch das Strapband gibt es ja in verschiedenen Varianten. Es gibt übrigens auch noch so ein Band optional oben auf dem Kopf. Das haben sie in ein, zwei Einstellungen mal so kurz nebenbei fallen lassen, haben aber nicht drüber geredet. Also von daher, der Bestellprozess wird sicherlich sehr speziell sein und das Ding wird mehr als 3.500 Euro kosten, das müssen wir uns auch mal klar machen, weil 3.500, Dollar ist halt jetzt erstmal der US-Preis, dann haben wir nochmal Konvertierung, dann kommt da Umsatzsteuer dazu, dann musst du noch zwei Linsen kaufen, die irgendwie irgendeinen dreistelligen Betrag pro Stück wahrscheinlich aufrufen werden. Also man kann mal locker davon ausgehen, dass man so bei 4, 5 oder sowas landet.
Oh stimmt der Akku der kommt auch noch dazu. Man gibt ein 5er aus ne. Aber das haben wir ja gesehen das geht ja auch für so ein Mac Studio und das Ding ist ja im Prinzip auch eine Computing Plattform also man kann da eben Software drauf laufen lassen und ist komplett eigenständig. Womit es sich ja auch sehr von den anderen Dingern unterscheidet, ich weiß nicht wie heißt dieser Quest, ist die komplett stand alone? Ja? Okay gut aber das ist auf jeden Fall wie ein Mac oder wie ein iPad ist es ja.
Aber es ist genau, mit Betonung auf R. Jetzt muss ich auch nochmal sagen, würde ich mir eine kaufen. Also ich bin ehrlich gesagt davon ausgegangen, dass das jetzt so die erste Produktkategorie ist, die mich nicht sofort erfasst. Ich meine das erste iPhone habe ich mir zwar nicht gekauft, aber ich war Feuer und Flamme für das iPhone von Tag eins an. Also als ich diese Keynote gesehen habe, da wusste ich, das Ding wird die Welt beherrschen und was ist es geworden? Das erfolgreichste Produkt, was es jemals gab. Also insofern war mein erster Eindruck hier auch ganz interessant für mich und der war vor allem erstmal geprägt davon, dass ich recht geschockt war, wie viele Dinge sie wirklich bedacht haben, die für mich so totale Dealbreaker waren. Und von daher ist mein Interesse jetzt auf jeden Fall geschärft. Anwendung für mich sehe ich tatsächlich lustigerweise in diesem Bildschirm unterwegs in Isolationshaft, weil das ist in der Tat eine Situation, in der ich mich öfter befinde, wenn ich auf Podcastreisen bin, dann hänge ich halt in so einem Hotel rum oder halt in der Bahn und hab dann oft so dieses Ding mit, hab ich jetzt einen Tisch in der Bahn, wo ich meinen Laptop ordentlich draufstellen kann. Wie groß ist der Laptop, kann ich da jetzt mal einen Podcast drauf schneiden? Also wenn man damit einen Podcast schneiden kann, dann ist das für mich schon wirklich interessant, weil ich dann auf einmal einen großen Bildschirm, weil das brauchst du für Audio, brauch ich einfach einen großen Screen, deswegen hab ich hier so Riesenbildschirme irgendwie, also hier ist er jetzt nicht ganz so groß, aber mein größter ist halt 38 Zoll und der ist mir eigentlich schon zu klein. Da wollte ich jetzt auf 40 gehen.
Ja Reaper für Vision Pro und ich meine wenn ich das, wenn ich also quasi einfach auf mein Macbook schauen kann und dann habe ich halt irgendwie das Ding, wobei die Frage ist, muss ich den Laptop eigentlich vor mir stehend aufgeklappt haben um das benutzen zu können oder kann ich den auch zuklappen wie man das normalerweise beim externen Bildschirm auch macht.
Ich glaube es ist ein Dell, ich weiß es nicht genau. Auf jeden Fall das Ding ist ja für alles was eine Timeline hat, ist das ja super. Ja, absolut. Und da wäre mir die Auflösung, wenn man die dann irgendwie auf die Vision Pro machen könnte, dass man halt nicht so viel Höhe aber ganz viel Breite hat, das wäre natürlich auch cool.
Nee, aber ich hätte gerne diesen Panorama Viewer, den sie da so für ihre Panorama Fotos gezeigt haben, das als Bildschirm möchte ich ja knaller haben. Aber mal gucken, wie gesagt, unklar, aber das ist schon so etwas, wo ich mir dachte, wow, da hätte ich aber jetzt mal wirklich einen Nutzen davon, weil das Ding relativ kompakt zu tragen ist, also mitzuführen ist, weil es nimmt ja schon auch noch ein bisschen Raum ein, es ist ja auch ein klobiges Teil, die Frage, wie kompakt kriegst du das Ganze, so Einzelteile zerlegen, du musst es auch immer wieder assemblen, also das ist auch etwas, das war immer alles fertig da. Aber das Ding hat natürlich auch noch so einen gewissen Handling Faktor, du musst es mit dir führen in Einzelteilen zusammenbauen.
Genau, also ich denke das geht schon, aber alles was man mitführen muss, ich meine es kommt ja zusätzlich zu dem Computer was ich bisher habe, es ist halt nochmal extra was was man dabei haben muss, es ist extra was wo man was vergessen kann, wo man ein Kabel nicht dabei hat, damit es einen Nutzen hat muss es halt auch immer alles beisammen sein, das ist ja so das Problem was man mit bedenken muss.
Was ja alle noch rätseln, was auch noch nicht aufgelöst ist, ist dieses Szenario, ja du kannst dich in der Bahn hinsetzen, hast aber natürlich eigentlich den Sessel vor dir so ziemlich im Gesicht und dann projizierst du deinen Monitor genau wohin. Eigentlich willst du ja einen Meter Abstand haben, da sitzt dann ja aber wer anders. Das kannst du natürlich alles rausrechnen, aber wie wird das visuell aufgelöst, dass du also auf der einen Seite noch irgendwie im Zug drin sitzt und dein Monitor an einer Stelle ist, wo er physikalisch überhaupt nicht sein kann. Unklar, ob man dann also automatisch in so einen rein virtuellen Modus switchen muss, einfach an der Stelle.
Es gibt wohl einen Travel Modus, der anders funktioniert, ist so die grundsätzliche Antwort auf diese Frage gewesen, dass du praktisch in einem, ich bin jetzt, Es gibt zwei Geschichten, die damit einspielen. Das eine ist, das Ding funktioniert eh nicht, wenn du dich selbst zu schnell bewegst, was im Flugzeug auch der Fall ist. Also da gibt es einfach einen anderen Modus, in dem die ganze Kiste läuft. Sehr spannend aber. Sehr spannend.
Was man natürlich argumentieren kann, wenn man sich das iPhone anguckt und auch das iPad anguckt, dass es wahrscheinlich sinnvoll ist auf die zweite Generation zu warten. Weil wahrscheinlich gerade in der ersten Generation Apple am meisten lernt und wahrscheinlich auch am meisten Fehlannahmen ausbügelt.
Nein, nein, ich brauche keine Ausrede. Ich sehe das schon so, es ist eine signifikante Investition, wenn ich jetzt irgendwie 5K raushaue, das mache ich jetzt auch nicht mal so eben. Mit dem Macintosh warte ich ja jetzt auch schon seit 10, 12 Jahren. Nur beim Überlegen was sozusagen Anwendungen sind und zwar sowohl für mich als auch im Allgemeinen, glaube ich gibt es eine Zielgruppe, die wird Apple sofort vom Tag 1 an die Bude einrennen, die nicht Developer sind und das ist halt alles was mit Architektur zu tun hat. Weil so in so hoher Qualität und dann auch sowohl mit dem AR-Aspekt als auch dem VR-Aspekt, also stell dir mal vor du bist jetzt so Kirchenrestaurator oder sowas ja und du machst den 3D-Plan, wie das dann in Zukunft mal aussieht und dann läufst du in der Kirche selber rum und siehst, kannst du sozusagen mit dem Rädchen zwischen alt und neu hin und her schalten. Also das wäre so ein bisschen mein Tipp für eine der Business-Anwendungen, die sehr schnell kommen wird. Also alles, was so mit Architektur draußen, 3D-Modellen zu tun hat, diese Zusammenführung, da passt das irgendwie wie Arsch auf Eimer. Und er hat es ja schon mal angedeutet, jetzt ist ja Chaos Communication Camp in sechs Wochen mittlerweile. Puh, die Zeit naht.
Genau, okay. Und ich habe ja wieder ein kleines Projekt zusammen gerufen und wir machen auf dem Camp eine Lichtinstallation. Und hatte ich schon mal angedeutet, aber kann ich ja vielleicht mal ein bisschen erzählen, weil mittlerweile wissen wir auch, dass es funktionieren wird. Da gibt es nämlich diese ganzen Ziegelei-Gebäude und das eine Ziegelei-Gebäude, das hat irgendwie zehn Fenster, die vor drei Jahren mit Glasbausteinen nachgerüstet wurden. Das heißt, da ist dann so eine Pixelmatrix, quasi so eine natürliche und davon gibt es zehn Fenster, die jeweils acht mal acht Pixel haben. Also 640 Pixel sollte ja für alle reichen und wir waren jetzt sehr fleißig in den letzten Wochen und Monaten und haben solche Lichtkästen gebaut, die wir jetzt quasi hinter die Dinger installiert haben, das steht da schon und funktioniert auch und machen halt mit LEDs quasi diese Glasbausteine farbig. Und es ist jetzt gerade der totale Pain, das sozusagen zu visualisieren. Es gibt zwar einen sehr schönen webbasierten Simulator, der das auch ganz hübsch macht, aber es ist halt nochmal was komplett anderes, wenn du wirklich diese Situation jetzt echt mal so richtig dreidimensional immersiv machen könntest. Also wenn du wirklich sozusagen auf dem Gelände stehst und dann auch die Tageszeit simulieren kannst, sozusagen die Lichtverhältnisse ändern könntest. Mit einem anderen Rädchen, das Rädchen selber macht ja sozusagen ARVR, aber für solche Sachen, also Kunst, Messebau, alles was in irgendeiner Form so mit der Schaffung von Werken im öffentlichen Raum zu tun hat, da ist diese Brille einfach der totale Arsch auf Eimer, also ich glaube da wird es sehr schnell Bewegung geben in diesem Bereich.
Aber das ist letztendlich ein bisschen das, was auch Dom gerade gesagt hat, mit seinem quasi Musikinstrument lernen oder unterstützen so. Ich glaube in dem Bereich ist noch viel zu holen. Wo du also plötzlich mit einem digital physischen Objekt, mit einem echten realen Objekt interagierst und dort aber eben nochmal eine digitale Ebene drüber legst, die was auch immer anstellt an der Stelle.
Übrigens, wenn du gucken willst, wie das mit den Beleuchtungsverhältnissen und so weiter und Tag und Nacht und so ist, dann solltest du vielleicht einen Blick auf Unreal Engine 5 werfen, weil das hat glaube ich so, Die bis jetzt beste Beleuchtungsimmersion, die du haben kannst. Also mit Tagesverlauf und.
Es ist halt schon Arbeit. Also wenn du dann, sagen wir mal, jemanden in Berlin zeigen willst, so wird's aussehen im Ziegleipark, musst du natürlich dann eben schon irgendwie ein 3D-Rendering dieser Szene haben, damit jemand darin rumlaufen kann. Ansonsten hast du immer nur dieses so guckst dir einen 3D-Film an.
Aber das ist ein Anwendungsfall, den man halt nicht gesehen hat, der aber denke ich mit der Hardware vielleicht möglich ist. Also es gibt ja für das iPhone schon diverse Apps, wo du das einfach nur nimmst und kreuz und quer durch den Raum nimmst und danach bekommst du ein hinreichend okayische 3D-Modellierung. Dieses Raumes. Wenn du da jetzt mit dieser Kamera durchläufst, die also das x-fache an Auflösung und an Rechenpower hat, werden sie irgendwann mal einen Modus anbieten, so geh irgendwo hin und virtualisiere quasi diesen Raum und ab da kannst du den irgendwo anders nutzen, obwohl du gar nicht da bist. Also das, was ich auch eben gesagt hatte, weg von diesem, ich gucke mir einen 3D-Film an, hin zu einem, ich bin in einer echten 3D-Umgebung, in der ich mich auch wirklich im Raum vernünftig bewegen kann und bewegt sich vernünftig mit. Ist aber alles nicht so ganz ganz trivial, weil wenn da ein Tisch ist und in deiner, also wenn in der aufgezeichneten Realität ein Tisch irgendwo steht und in deiner Abspiel-Realität kein Tisch ist, oder umgekehrt noch schlimmer, rennst du halt plötzlich irgendwo gegen, wo du gar keinen Tisch siehst. Also das hat so seine Issues. Aber grundsätzlich, da wird noch was passieren, glaube ich.
Stell dir mal vor du bist Küchenbauer und du würdest jetzt so einen Auftrag bekommen, du sollst halt in irgendeiner Wohnung eine Küche bauen und du würdest jetzt mit diesem Headset da rein latschen und quasi erstmal in so einem AR Modus die Räumlichkeiten, Aufmaß machen. Also du nimmst sozusagen den Raum auf und zwar halt mit Video und mit seinen 3D Beschaffenheiten, dann kannst du in Ruhe deine Küche in dieses selbe Modell rein planen und dann hättest du die Möglichkeit einem Kunden, das ist jetzt wieder die Frage, Gästenmodus, hat jemand sowas und so weiter, aber in irgendeiner Form könntest du eben die, also erstmal kannst du es dir selber anschauen und damit zufrieden sein Auf welchem Weg auch immer das präsentieren. Ausdrucken und per Fax. Ausdrucken und per Fax, genau. Schland. Ich glaub das ist dann vielleicht auch wieder Fax für die das ein Objektdrucker hat. Apple Fax Pro. 3D Fax. 3D Fax.
Ja also da ist schon Musik drin, aber genauso wie man glaube ich bei der Apple Watch am Anfang noch nicht so richtig sagen konnte welche dieser Pitches die sie da so gegeben haben am Ende am meisten Pudding an die Wand bringt ist das hier glaube ich auch so. Aber ich kann mir nicht vorstellen, dass das Ding nicht zumindest erst mal kräftig gekauft werden wird und so weit ich gehört habe sind ja auch diese Displays erst mal gar nicht so hoch verfügbar, also die werden wahrscheinlich gar nicht beliebig viele davon herstellen können, es kann gut sein, dass sie einfach alles verkaufen werden, was sie überhaupt produzieren können im ersten Anlauf.
Mindestens zwei Timer. Eine Kleinigkeit, die ich noch hatte zum Thema, worüber wurde nicht gesprochen, fand ich sehr spannend. Sie hatten über die, was war die Engine, über die Sie gesprochen hatten? Unity. Unity, sie hatten über Unity-Engine gesprochen, sie haben aber nicht über die Unreal-Engine gesprochen, was irgendwie klar ist, weil sie mit Epic fürchterlich im Clinch liegen und ich finde es wird mal Zeit, dass Apple und Epic sich irgendwie mal, irgendwie einkriegen und, und.
Im Prinzip schon, und du kannst die Unreal Engine auch auf dem Mac benutzen, über diesen Epic Dingstar Launcher. Es ist nur, wenn, sagen wir mal so, ab einem bestimmten Komplexitätsgrad wäre es gut, wenn sich Firmen so weit gut verstehen, dass sie halt auch hauptwegs zusammenarbeiten und nicht gegeneinander. Und das ist halt etwas, wo die beiden Firmen, bin ich der Meinung, dann mal irgendwie was klarkriegen müssen. Ob sich jetzt Apple und Nvidia auf die Dauer irgendwann mal verstehen werden, weiß ich nicht. Keine Ahnung, das ist vielleicht nicht ganz so wichtig. Auch wenn Nvidia halt bei dem ganzen Machine Learning den Fuß so unglaublich in der Tür hat, zumindest behaupten sie es. Und danach ist der Markt dann auch, hat sie, bewertet sie danach, weiß ich nicht. Also es gibt halt auch kein Fortnite mehr auf dem Mac. So viel zum Thema Spielen auf dem Mac. Also gut, ob man jetzt Fortnite gut findet oder nicht, muss auch jeder selber wissen. Aber, also, keine Ahnung.
Ich meine, sie haben VR gezeigt, weil technisch ist es eine VR Brille, weil sie ja komplett abschließt und sie haben auch einen Modus, den man eigentlich als VR bezeichnen könnte, der halt dann Full Immersion heißt. Aber es geht immer alles von AR aus. Es geht immer davon aus, dass du in Verbindung bist mit deiner Umgebung. Und ich glaube das ist ein ganz ganz wichtiger Punkt, den man gar nicht oft genug betonen kann und deswegen haben die ja auch so drauf eingehämmert mit all ihren ganzen Demonstrationen. Einerseits. Andererseits sagt es halt auch aus, dass Apple offensichtlich in dieser ganzen VR-Geschichte so auch erstmal gar nicht das Potenzial sieht, was ich ganz putzig finde, weil über diese Headsets seit ich denken kann, immer als VR-Device gesprochen wird. Das hier Jean-Ren Lannier auf der CeBIT schon irgendwie einem links und rechts um die Ohren geballert hat. In den 90er Jahren ging das ja schon los, immer da mit ihrer Datenhandschuhe und Brille und so weiter, VR, Metaverse, ich bin hier irgendwie komplett drin. Und der Zuckerberg, der hat ja irgendwie die Pille auch gefressen und will ja auch irgendwie sozusagen seine Vision vollständig in der Virtualität platzieren. Du bist so rum im abgeschnittenen Tor so, wie so ein alberner Comicfigur.
Ja hurra, okay dann baumeln noch irgendwas dran, aber du bist trotzdem halt nur so ein Abklatschdeiner selbst so und sollst dann irgendwie mit allen anderen rumsocheln und totale Katastrophe. Und Apple zeigt eigentlich Facebook komplett den Stinkefinger und sagt, sorry, aber ihr habt das alles komplett falsch verstanden. Wir gehen mal hier von der echten Interaktion aus. Der soziale Raum, da nehmen wir doch einfach den, den wir sowieso schon haben und sorgen dafür, dass diese Technologie denen so wenig wie möglich beschneidet. Aber auch gleichzeitig diese Integration zu machen. Das ist irgendwie, denke ich, schon so ein bisschen das Rezept.
AR ist halt auch schwieriger. VR kann jeder, der irgendwie einen Gyro und einen Accelerometer ordentlich hinkriegt und irgendwo so eine Lightbar irgendwo hinstellt, dann hast du ein brauchbares VR. Aber dieses AR, zusammen mit dem ich beleuchte meine Fenster richtig, bla bla bla, das ist halt nochmal eine Entwicklungsstufe. Ich glaube, dass da einige auch tief durchgeatmet haben, in anderen Firmen, die das gesehen haben, weil was Apple da gezeigt hat, das ist technologisch schon ganz schön abgefahren.
Dauert glaube ich auch zu lange, bis klar ist, was der eine Anwendungsfall dafür ist, weil es wird, glaube ich, eine lange Zeit geben, wo das, was die Apple Vision Pro jetzt macht, so wie sie es macht, genau so wie sie es macht, sinnvoll ist. Aber kein einzelner Bereich davon wird jetzt einfach auf eine andere Brille zu übersetzen sein und macht da jetzt, also so wie es beim Telefon war, alle müssen jetzt Touchscreen haben, naja, glaube ich nicht. Ich glaube, das passiert bei dem Produkt nicht. Das ist jetzt schon mehr der Mac damals. Und das andere ist Windows. Und das ist halt anders. Oder DOS noch nach wie vor. Und das wird jetzt eine Zeit lang so bleiben. Und wenn sich was ganz Klares herauskristallisiert, so ein Unterbereich daraus, dann wird es auch eine Kopie davon geben. Aber bis dahin nicht, weil das ist einfach viel zu viel Aufwand und viel zu teuer, ohne zu wissen, dass es erfolgreich ist. Das trauen sich die anderen nicht nachzuziehen bevor sie es nicht wissen.
Aber ich glaube du hast jetzt eine neue Plattform, also da ist ein Betriebssystem und da hast du Anwendungen drauf und es ist eigentlich eine neue Plattform und ich denke es wird einen zweiten Spieler geben in dem Bereich der das gleiche tun wird, erst mal nicht so gut und und und hakelig und weiß ich nicht was und wahrscheinlich dann auch nicht so einfach dafür software zu schreiben aber es wird den zweiten spieler geben das wird das sein bleibt doch nur microsoft also die quest 3 probiert ja schon genau das jetzt also die haben dann ja quasi am tag nach der keynote ein irres.
Propagandafeuerwerk abgefeuert ihr müsst gar nicht warten bis ihr das kommt sondern hier für 400 euro kriegt ihr das alles schon im herbst, weil die ja dann eben auch diesen pass-through-modus jetzt in farbe machen und angeblich höher aufgelöst und so weiter und sagen so ist eigentlich alles genauso gut. Also Facebook ist da schon dran so an der Idee.
Ich weiß nicht ob es Facebook sein wird oder ob es Google sein wird oder ob es Microsoft sein wird oder ein Player den wir alle noch nicht auf dem Plan haben, den dann einer von den großen kaufen wird, so wie Android ja auch nur von Google gekauft wurde, ich meine das haben sie ja nicht selber entwickelt. Keine Ahnung das wird man sehen.
Lecker lecker kauf ja oder ilan kauft meta da finden sich die richtigen da können sie sich dann wirklich was interessant wird ist ob der druck jetzt auf den auf so technischen specks wie auflösung und blickwinkel jetzt so hoch wird dass er auch die normalen vr headsets jetzt unter druck bringt. Ob man jetzt sagt so okay es darf einfach nirgendwo mehr ein pixel zu sehen sein und ich möchte keine leihrende mehr sehen und keine taura brille nur wenn es erfolgreich ist und das wissen sie erst zu spät also das die auslösung.
Also ob du jetzt das Video, das du jetzt in der AR-Brille von Apple so da rein präselst auf einer Retina-Art und Weise oder ob du eine komplett virtuelle Welt generieren musst, die so funktioniert mit dem Headset und dem anderen, also du hast eine andere Ausgangsposition. Ich bin mir nicht sicher, dass sich da viel befruchtet, außer dass es ein bisschen die Leute, die es schon gibt, die machen halt Konkurrenz und die sagen halt, wir können das schon lange und das ist alles goodie, aber die können halt nicht das, was Apple daraus gemacht hat. Also das, ich weiß nicht.
Das sag ich ja auch nicht. Ich glaube aber, dass es Follower geben wird. Also ob die jetzt fast oder eher slow sind, das wird man sehen. Also es wird auf jeden Fall Firmen geben, die werden versuchen so etwas ähnliches zu machen. Und dann gibt's ein bisschen Hauen und Stechen und dann wird sich einer durchsetzen, der halt dann hinterher läuft. Und ich meine Android hat gezeigt, sie sind lange hinterher gelaufen, bis sie irgendwann den Punkt erreicht haben, wo man sagen kann, Okay, das nimmt sich jetzt nicht mehr so viel, ob man jetzt Apple-Fan oder Android-Fan ist. Ich glaube, man kann schon sagen, dass das so halbwegs auf dem gleichen Level ist. Aber das hat ja jetzt dann auch fast 15 Jahre gedauert. Und das kann durchaus sein, dass es bei den Brillen genauso ist, dass das dann 10 Jahre dauert, bis der beste Follower irgendwie auf dem gleichen Stand ist. Aber ich denke, das wird passieren.