38C3 — Roborock — Nvidia — Nintendo — Atari ST — Volkswagen — Cursor — Apple Vision Pro
Das Jahresende war für uns alle Congress-Zeit und so berichten wir von unseren persönlichen Eindrücken vom 38. Chaos Communication Congress (38C3) in Hamburg und gehen dann auch noch auf Euer Feedback ein. Wir schauen zurück auf die Ära des Atari ST und was er speziell in Deutschland ausgelöst hat und nehmen uns dann noch mal ganz viel Zeit über das Programmieren mit LLMs und wir haben auch noch mal einen längeren Block Apple Vision Pro dabei, weil uns Dom allen mal sein Gerät geliehen hat und wir die Gelegenheit hatten, das Teil im aktuellen Zustand der VisionOS Software zu testen.
Dauer: 3:56:52
Für diese Episode von Freak Show liegt auch ein vollständiges Transkript mit Zeitmarken und Sprecheridentifikation vor.
Bitte beachten: das Transkript wurde automatisiert erzeugt und wurde nicht nachträglich gegengelesen oder korrigiert. Dieser Prozess ist nicht sonderlich genau und das Ergebnis enthält daher mit Sicherheit eine Reihe von Fehlern. Im Zweifel gilt immer das in der Sendung aufgezeichnete gesprochene Wort. Formate: HTML, WEBVTT.
Transkript
Shownotes
-
dortania.github.io OpenCore Legacy Patcher
-
-
theinsnider.de TIS061 - Mein erstes Mal Congress #38c3
-
chaos.social Ralf Stockmann (@rstockm@chaos.social)
-
decisivetactics.com Serial - Connect your Mac to Anything - Decisive Tactics, Inc.
-
decisivetactics.com Compatible Devices - Decisive Tactics, Inc.
-
sites.fastspring.com Decisive Tactics Store
-
-
-
CCC Event Blog Chaospat:innen auf dem 38C3
-
arduino.stackexchange.com How to install FTDI Serial Drivers on Mac?
-
-
-
media.ccc.de Ultraschall Workshop
-
chaos.social Ultraschall (@ultraschall@chaos.social)
-
media.ccc.de Der ultimative Rodecaster Pro II Workshop
-
-
Roborock Deutschland Official Site Saros Z70 - Erobere die Zukunft mit Intelligenz.
-
-
ntower - Dein Nintendo-Onlinemagazin Nintendo Switch 2 – Zubehörhersteller verrät weitere Details zur Hardware - ntower - Dein Nintendo-Onlinemagazin
-
-
-
-
-
-
-
infinitemac.org Infinite Mac
-
-
-
-
-
netzpolitik.org Zuckerbergs Kehrtwende: Meta goes MAGA
-
-
-
-
-
-
-
-
-
-
milan.kovac.cc my Atari software archive
-
YouTube Bolo for ATARI ST
-
-
media.ccc.de Wir wissen wo dein Auto steht
-
-
cursor.com Cursor - The AI Code Editor
-
drawthings.ai Draw Things: AI-assisted Image Generation
-
-
-
dynamicland.org Dynamicland FAQ
-
Apple Newsroom (Deutschland) Apple stellt heute den ersten Film nach Drehbuch vor, der in Apple Immersive Video aufgenommen worden ist,
-
-
fifthstarlabs.com Fifth Star Labs
-
c't Magazin Display-Technik: Mikro-OLED in Apples Vision Pro
-
-
Das Kraftfuttermischwerk Butt Plug für ein besseres Schachspiel zum Selberbauen
-
loona.vision Loóna for Apple Vision Pro
-
-
Tatsächlich gibt es neben den Heralds noch zusätzliche Stagemanager. Auf den kleinen Bühnen waren das in diesem Jahr immer zwei, im Saal 1 entsprechend mehr.
Die Heralds sprechen vor dem Talk mit den Speaker*innen ab, was sie in der Ankündigung sagen. Die Idee ist also schon, dass eine Vorstellung stattfindet, mit der sich die Speaker*in gut angekündigt fühlt. Dass das nicht unbedingt in die Aufzeichnung muss, finde ich aber auch. Ich persönlich hätte sogar überlegt, mich als Herald zu melden; aber dass die Introduction gefilmt wird, hat mich am Ende davon abgehalten.
Das Stagemanagement ist eine Art Schnittstelle zwischen allen am Talk beteiligten Engeln (Evac, Door, AV, Herald, c3lingo) und ggf. dem Heaven. So klären die Stagemanager beispielsweise ab, in welche Sprachen es Übersetzungen gibt und wie sich die Door-Angel verteilen. Es trifft die Entscheidungen zwecks Crowd-Control, macht das Zeitmanagement während der Talks (halten die Schilder hoch, das ist normalerweise nicht im Aufgabenbereich der Angels) und geben im Himmel Bescheid, falls etwas fehlt – das können technische Gerätschaften, aber auch Evac-Engel sein. :-)
Kurzer Hinweis: In der ARD Audiothek findet man aktuell den Klassiker »Per Anhalter ins All« *), aus dem der Herr Tim regelmäßig zitiert, als Hörspiel vorliegen.
https://www.ardaudiothek.de/sendung/per-anhalter-ins-all-scifi-hoerspiel-klassiker/13948887/
oder hier
https://www1.wdr.de/radio/hoerspiel/podcast/peranhalterinsall/index.html
*) 1981 traf eine Delegation des Vogonen-Dichtkunstrates auf der Erde ein und empfahl, den Begriff „Galaxis“ aus sämtlichen Überschriften literarischer Werke zu entfernen.
Mein Tipp zur Apple Vision Pro:
Man muss sie länger benutzen, um sich an Seheindruck und Tragekomfort zu gewöhnen. Es gibt eine starke Lernkurve. Die ersten 2 Wochen habe ich immer wieder überlegt, ob ich sie zurück gebe.
Tragekomfort:
1,5 Stunden am Stück sind zurück gelehnt mittlerweile problemlos möglich.
Der Unterschied zu dem Tragekomfort anderer Geräte ist, dass man sich überhaupt zurück lehnen kann. Da macht mir eine längere Benutzung überhaupt erst möglich.
Seheindruck:
Am Anfang sollte man Kinofilme gucken. “Der wilde Roboter” in 3D sieht zum Beispiel fantastisch aus. Das steht einem Erlebnis im IMAX in nichts nach. Ist auch für 3D hater gut zu gucken.
Die Filme sollte man immer in der Kino Umgebung schauen. Da hat Apple alles so voreingestellt, dass man als Anfänger gut zurecht kommt.
Das hilft, wie oben gesagt, sich an das Gerät zu gewöhnen.
Ein Fehler, ist Inhalte zu groß darzustellen. Im „Cinema Environment“ maximal in mittlerer Reihe sitzen. Jedes Auge einzeln sollte den ganzen Inhalt sehen können (Auge einzeln zukneifen, sehe ich den gesamten Film?). Ansonsten hat man das Gefühl man sehe alles nicht richtig, da das Gehirn die Bilder nicht übereinander legen kann. Das ist der Grund warum viele am Anfang denken, es wäre unscharf.
Wenn man sich gewöhnt hat, kann man auch gut ausprobieren. 3D Filme gucke ich mittlerweile nicht rausgezoomt in den Environments, sondern 1-2 Meter entfernt, da der 3D Eindruck dadurch deutlicher wird. Wirkt wie ein Fenster in die Filmumgebung.
2D Filme und Serien gucke ich immer im Kinomodus.
Dinge, die man ausprobieren sollte:
Bei immersive Videos hat Apple selbst noch eine starke Lernkurve.
Die neueren sind besser, als die alten.
Es lohnen sich:
Musik Video von The Weekend
NBA Match
Concert for one: RAYE
Nicht zu empfehlen:
Die meisten anderen
Generell sollte man immersive Videos öfter schauen. Man gewöhnt sich auch da stark an den Seheindruck.
Die Fotos App wurde von Euch nicht erwähnt.
3D Fotos sind deutlich spannender als 3D Videos. Das hat bis jetzt jeden umgehauen, der das bei mir gesehen hat. Gerade das man alle alten Fotos konvertieren kann.
2 Punkte zu Ralf:
1. Das mit den Augen „hin und her geschaue“ gewöhnt man sich unterbewusst mit der Zeit ab und man stellt sich den Inhalt nicht zu groß ein.
2. Die Bildqualität von den Meta Geräten ist bei weitem nicht so gut. Das ist einfach eine ganz andere Klasse. Man darf da nicht 1:1 die Pixel-Dichte nehmen, bei der die AVP ja schon viel besser ist. Meta rendert meines Wissens nicht mal im Ansatz die gesamten Pixel.
Apropos kostenlose LLMs fürs Coding:
Mit Deepseek-V3, QwQ-32B-Preview und Qwen2.5-Coder-32B-Instruct gibt es schon jetzt einige offene („open weight“) Modelle, die in jeder Hinsicht besser als GPT-4o, Gemini Advanced & Co. sind (und erst recht als alle kostenlosen Angebote der Big Player). V.a. Deepseek-V3 liefert konstant spürbar bessere Ergebnissse als Alles, was OpenAI derzeit anzubieten hat (o3 evtl. ausgenommen) und kommt der Qualität von Claude 3.5 Sonnet imho so nahe wie kein anderes LLM – egal ob offen oder kommerziell.
Problematisch sind momentan eher die Hardwareanforderungen, d.h. unterhalb eines 128GB M4-Macs bzw. eines Nvidia-Gaming-Flagschiffs lassen sich diese Modelle lokal kaum sinnvoll betreiben. :/
Das zeigt schon in eine richtige Richtung. Nur sind diese „Open-Source-Modelle“ nicht so wirklich FOSS. Nur der Klumpen aus antrainierten Gewichten ist frei verfügbar und das Abspielgerät.
Für privates antrainieren einer vorhandenen Grundbasis gibt es von IBM – man höre und staune – ein Modell namens „Granite“ derzeit in Version 3.0. Da liegt dann im Prinzip alles als Apache-2.0-Lizenz vor. Man erhält also eine vortrainierte Grundbasis für die Sprache und allg. Wissen, vorgeprägte Sicherheitseinschränungen und eine Mixtur von Experten. Lokale Daten, die man nicht veröffentlichen möchte oder eigentlich überhaupt kann man dann seine eigenen Daten lokal dran- bzw. drauf-trainieren mit einer speziellen Technik, die besser oder zumindest anders ist als LoRA (Low-Rank Adaptation (Fine-Tuning)).
Der Matthew Berman erklärt das gut: https://youtu.be/PoA3VG6EneQ
Danke fürs teilen, was kannst du denn für ein Modell bei M4 Max 64GB fürs Coden empfehlen? Was für eine Toolchain nutzt du? Ollama -> Continue ? -> VSCode
Mit „OpenCore Legacy Patcher“ habe ich auf dem alten MacBook 5,1 (13″, Alluuuminuuum Unibody, late, Mac OS X Leopard 10.5) aus 2008 eines der letzten macOSes, Ventura 13 aus 2022, draufgespielt. Neuere Versionen gingen wohl auch, habe ich aber nicht ausprobiert. Nahezu alles funktioniert wie gehabt, nur das Mousepad wird nicht mehr unterstützt, weil die alten USB-Treiber (noch) nicht eingebunden werden können. Mit einer externen Mouse funktioniert es aber, und zwar in einer Geschwindigkeit, die dem Neugerät gleichkommt. Dieses MacBook ist dann aber auch die unterste Grenze. Außerdem hatte ich es von 2 auf 8 GB Ram hochgepimpt und die HDD durch eine SSD ersetzt.
Vorher hatte ich immer das Tool „macOS (Catalina…) Patcher“ von DosDude verwendet (https://dosdude1.com/software.html). Ab 2019 ging das aber nicht mehr.
Bei den alten Apple-PC-Notebooks kann es vorkommen, dass man ein s. g. NVRam mehrmals nacheinander resetten oder aufbritzeln muss, um einen geblockten „Grey-Screen“ loszuwerden – keine Ahnung. Dazu muss man während des Startens vier Tasten gleichzeitig drücken, also beide Hände mit gespreitzten Fingern + Nasenspitze verwenden. Die mystische Tastenkombination lautet „[Command]+[Alt]+[P]+[R]“ (https://www.macwelt.de/article/968438/reset-von-pram-nvram-und-smc-am-mac.html).
Wenn ihr dann noch OpenSource-Standard-Software schnell in einem Schwung draufspielen wollt, dann könnt ihr euch auf der Webseite https://macapps.link/ durch Anklicken entsprechender Auswahlknöpfe ein Script erstellen lassen und dieses ausführen. Das sieht dann bspw. so aus:
curl -s ‚https://api.macapps.link/de/firefox-chromium-torbrowser-libreoffice-sublime-macvim-transmission-keka-keepassx-vlc-inkscape-gimp-handbrake-adium-jitsi‘ | sh
Die AMD CPUs sind richtig gut und auch richtig effizient. Zwar haben sie als APU nur relativ geringe bis Spiele Perfomance, die nur für ältere oder casual Spiele reicht. Aber immer noch deutlich besser, als was Intel liefert. Für mehr Spiele Performance bieten sich eher externe Grafikkarten an. Die sind bei AMD auch sehr effizient, vor allem IDLE. Unter Volllast und High-End sind Nvidia besser.
Apple geht leider einen schlechten Mittelweg. Sie haben zwar intern eine relativ hohe GPU Performance, allerdings benötigen die meisten diese gar nicht. Was man nicht vergessen darf ist der hohe Aufwand mit denen diese M4 produziert werden. Die Einsparungen im Betrieb werden bei vielen Nutzern gar nicht zu einer positiven Lifecycle Bilanz bezüglich dem Energieaufwand führen.
Also Ich persönlich als Anfänger, der sich gerade mit Algorthmen beschäftigt, wollte mal ausprobiren, ob Cursor für mich zum jetzigen Zeitpunkt schon ein wertvolles Tool sein kann.
Für alle hier mit Sicherheit totaler Kinderkram, aber ich habe mir eine grafische Windows-Anwendung (GUI) erstellen lassen, die den Bubble-Sort-Algorithmus visualisiert.
Die Sortierung läuft schrittweise ab, sodass man ich den Bubble-Sort-Algorithmus in Aktion beobachten kann. Ich weiss, gibt es im Netz bereits in Hülle unf Fülle, aber ich wollte mal testen was Cursor für mich tun kann. Cursor hat mir alle Files: Visual Studio Projekt, Solution File erzeugt. Dann bin ich in VS 2022 rein, Projekt geöffnet und Run gedrückt und BOAH … alles lief sofort; ich war/bin von den Socken. Jetzt habe ich richtig Blut geleckt und bin motiviert. Natürlich will ich den Code komplett verstehen.
Man merkt, dass Tim seit Jahrzehnten keinen richtigen Computer mehr genutzt hat und einfach alles schluckt, was Apple einem vorwirft. Dieser Disconnect zur Realität ist schon echt verblüffend.
Ach, weil Tim anfangs von ARM PCs und Windows PCs gesprochen hat, dann bitte Konsequent sein und auch MacOS PCs sagen. Sind am Ende ja auch nur PCs mit ARM. Äh, sorry, *Apple-Arschkriecherei an* Apple-Silicon.
Er ist halt schon seit 20 Jahren ein Apple-Fanboy und erkennt nicht die schleichende Enteignung der proprietären Software.
Klar erkennt er die – aber er findet die Alternativen (Windows? Linux?) halt noch grausliger. Dass ihr Nerds einfach nicht anerkennen könnt, dass es viele verschiedene (und valide) Kriterien und Vorlieben gibt, mit denen man an die Nutzbarkeit von Software verknüpft, stimmt mich schon seit 20 Jahren traurig.
Notschlachtung SOFORT!
Tel.: 555-Abdecker
Hat jemand schon Erfahrungen ob das mit Apple Vision Pro und ähnlichem bei Kunstlinsen funktioniert?
Mit Kunstlinsen meine ich keine Kontaktlinsen, sondern die Implantate, die man zb. bei der Grauen Star Op eingesetzt bekommt. Diese habe für gewöhnlich eine feste Brennweite die auf „unendlich“ eingestellt wird, so dass man danach entweder eine gute Gleitsichtbrille oder zumindest eine Lesebrille für die Nähe benötigt, da das Auge nicht mehr scharf stellen kann. Kann man dann mit einer VR-Brille überhaupt etwas sehen oder kann man das dann per Software irgendwie ausgleichen?
Mich würden vor allen Dingen konkrete Erfahrungen interessieren, die über „müsste“ und „sollte“ hinausgehen ;-)
In meiner Funktion als Leiter des Institutes für globale Staubsaugerroboterintegrität und insbesondere in meiner Tätigkeit im Bereich Research & Development für Staubsaugerroboter mit Roboterarm kann ich lobend anerkennen, dass die manigfaltige Expertise Roddis in diesem Feld eine befruchtende innovative Rückwirkung in all den mir anvertrauten Zuständigkeiten nach sich zieht. Nicht nur seine Formulierungen sind gewählt und präzise, auch die darin enthaltenen analytischen Erkenntnisse sind nahrhaft und tragen maßgeblich zum Fortschritt in der Staubsaugerroboterarmtechnologie bei. Es ist auch hier wiederum erkenntlich, dass er die ihm anverliehenen Testate beziffert mit Höchstnoten bezüglich seiner hervorragenden Leistungen nicht zu Unrecht innehält.
· Roddi · [(RE)APPROVED]
#Roddi100
Hallo
auch hier in Nordhessen kann ich mich mit einer Applewatch am EC-Automaten der Sparkasse, authentifizieren und sogar ohne Plastikkarte, Bargeld abheben
Bzgl. AI und der Kritik wegen künstlich generierter Bilder (oder Inhalte generell): Roddy meinte da (sinngem.), das anlernen der LLMs durch existierende Werke sei ja nichts viel anderes, als wenn Menschen durch abschauen lernen. Das blendet aber die sozial-gesellschaftliche Dimension völlig aus, das in dem einen Fall einzelne Menschen über Jahrzehnte ihre Skills trainieren, um davon leben zu können und auf der anderen Seite stehen Konzerne, die mit der Arbeit anderer „per Knopfdruck“ ihre Models trainieren und damit Geld verdienen.
Und dann ist es momentan auch noch so, das die von KI erstellten Werke oft als solche zu erkennen sind, was sie für mich ziemlich unattraktiv macht. Vielleicht liegt es nur daran, was für Stile sie bisher oft generieren, aber ich finde das meistens langweilig (weil die KI nur macht was es schon oft gibt) bis abstoßend (weil sie nicht *weiß* was sie tut) und ich hatte erwartet das sich das schneller ändern würde, aber es scheint da tatsächlich ein Plateau in der Weiterentwicklung zu geben.
Das die Technik da ist und nicht mehr weg geht ist klar, ich sehe total auch den Nutzen, aber insbesondere in einer kapitalistischen Welt, sind da noch viele Fragen offen, die viel lauter diskutiert werden müssten. Und ich bin sogar eher ein Gegner des Urheberrechts – trotzdem sehe ich die Nutzung von existierendem Material durch Unternehmen momentan als ein großes Problem. Das ist kein Argument gegen die Technologie an sich, aber diese Technik existiert nunmal in einem größeren Kontext.
Ich frage mich manchmal in welch einer Traumwelt Tim lebt. Leistung der CPUs alleine zwischen X86 und dem M4 da ist der Pro in maximal Ausstattung gerade mal auf dem Leistungsniveau auf dem Ryzen 5900x was weder eine aktuelle noch die größte Cpu ihrer Generation ist. Der M4 Max ist gegenüber den Ryzen 9 der 9000er Generation noch weniger Relevant als ein Intel.
Da fragt man sich doch wer baut denn aktiuell den Leistung/Watt Sieger? Ach ist auch ein x86er das ist ja doof und das der mit seinen 192 Kernen auch noch viel effizienter als der direkte Arm Mitbewerber der sogar gleich viele Kerne hat ist jetzt aber doof. Amd mit ihren Ryzen und Epic macht in Wirklichkeit einen Mega Job und die 2 Jahre sind in Realität 4 Jahre die Amd Vorsprung hat.
Das Problem bei der ganzen Kiste ist, das Apple und auch jetzt Nividia den Kunden gerne für dumm verkaufen. Warum stell Nvidia ihr Framegen so dar alsob es toll wäre. Ich weiß welche Fehler sie schon in der 4000er Serie mit sich brachte und da ich als Applefanboy von vor derer Schwurbelei sofort von Bildirritationen getriggrert bin, habe ich es immer deaktiviert. Ich würde einen Teufel tun die 4090er zu verscherbeln um dann so einen 5080er Krüppel mir ins Haus zu holen.
Aber auch Apple mit seiner Schwurbelei, Ai mässig sind sie mit dem M4 endlich auch da angekommen wo Nvidia mit der AdaLovelace schon war. Appel und Spiele ist ja ein ganz anderes Thema, wenn man mir auf einer Keynote so 30 Frames geruckel zeigt wird mir ganz anders.
Apple hat aber einen Vorteil gegenüber der X86er Technologie, aber dafür können Sie nichtmal was. 3090 + 4090 24GB Ram, 5090 32GB Ram.
Und Apple hat wenn es auch Shated Memory ist eben da mehr zu bieten mit den 128GB
Aber da muss man sich auch nicht mehr über Nvidias Preise aufregen.
Das, was ihr mit dem Light Seal bei der AVP gemacht habt, wird übrigens bei der Quest 3 schon lange gemacht. Die Konstruktion ist dort nämlich sehr ähnlich. Das dort „Facial Interface“ oder „Gasket“ genannte Stück sitzt da zwischen der eigentlichen Brille und dem Kopfband und liegt standardmäßig einfach auf dem Gesicht auf. Man kann es aber relativ einfach herauslösen und dann ohne dieses arbeiten.
Damit das Ganze dann vernünftig auf dem Kopf sitzen kann, gibt es, als Alternative zu dem mitgelieferten weichen Kopfband, Headstraps von Drittanbietern, die nach dem sogenannten „Halo“-Prinzip funktionieren. D.h. das Gewicht liegt ausschließlich auf der Stirn und dem Hinterkopf (und wahlweise noch auf einem zusätzlichem Verbindungsband oben auf dem Kopf). Die Quest-Brille selbst wird bei dieser Konstruktion dann in einem einstellbaren Abstand vor dem Gesicht gehalten, berührt dies aber nicht.
Ich bin selbst Brillenträger und finde das sehr komfortabel. So kann ich die Quest problemlos viele Stunden nutzen – und tue dies inzwischen auch ausschließlich ohne das Facial Interface. Zusätzlich beinhalten diese alternativen Headstraps meist noch einen sehr nützlichen Zusatzakku für die Quest, der magnetisch am Hinterkopf-Teil des Headstraps befestigt wird. Der Akku hilft dann zusätzlich dabei, das Gewicht Richtung Hinterkopf zu verlagern, was es nochmal deutlich angenehmer macht. (Ich kann in diesem Zusammenhang das Halo-Strap von KKCOBVR nur wärmstens empfehlen – gut und günstig.)
Wie ich gerade rausgefunden habe, gibts es diese Art Halo-Headstraps auch für die Vision Pro. Vermutlich eine lohnenswerte Investion, wenn man länger mit der Brille arbeiten will.