38C3 — Roborock — Nvidia — Nintendo — Atari ST — Volkswagen — Cursor — Apple Vision Pro
Das Jahresende war für uns alle Congress-Zeit und so berichten wir von unseren persönlichen Eindrücken vom 38. Chaos Communication Congress (38C3) in Hamburg und gehen dann auch noch auf Euer Feedback ein. Wir schauen zurück auf die Ära des Atari ST und was er speziell in Deutschland ausgelöst hat und nehmen uns dann noch mal ganz viel Zeit über das Programmieren mit LLMs und wir haben auch noch mal einen längeren Block Apple Vision Pro dabei, weil uns Dom allen mal sein Gerät geliehen hat und wir die Gelegenheit hatten, das Teil im aktuellen Zustand der VisionOS Software zu testen.
Dauer: 3:56:52
Für diese Episode von Freak Show liegt auch ein vollständiges Transkript mit Zeitmarken und Sprecheridentifikation vor.
Bitte beachten: das Transkript wurde automatisiert erzeugt und wurde nicht nachträglich gegengelesen oder korrigiert. Dieser Prozess ist nicht sonderlich genau und das Ergebnis enthält daher mit Sicherheit eine Reihe von Fehlern. Im Zweifel gilt immer das in der Sendung aufgezeichnete gesprochene Wort. Formate: HTML, WEBVTT.
Transkript
Shownotes
-
dortania.github.io OpenCore Legacy Patcher
-
-
theinsnider.de TIS061 - Mein erstes Mal Congress #38c3
-
chaos.social Ralf Stockmann (@rstockm@chaos.social)
-
decisivetactics.com Serial - Connect your Mac to Anything - Decisive Tactics, Inc.
-
decisivetactics.com Compatible Devices - Decisive Tactics, Inc.
-
sites.fastspring.com Decisive Tactics Store
-
-
-
CCC Event Blog Chaospat:innen auf dem 38C3
-
arduino.stackexchange.com How to install FTDI Serial Drivers on Mac?
-
-
-
media.ccc.de Ultraschall Workshop
-
chaos.social Ultraschall (@ultraschall@chaos.social)
-
media.ccc.de Der ultimative Rodecaster Pro II Workshop
-
-
Roborock Deutschland Official Site Saros Z70 - Erobere die Zukunft mit Intelligenz.
-
-
ntower - Dein Nintendo-Onlinemagazin Nintendo Switch 2 – Zubehörhersteller verrät weitere Details zur Hardware - ntower - Dein Nintendo-Onlinemagazin
-
-
-
-
-
-
-
infinitemac.org Infinite Mac
-
-
-
-
-
netzpolitik.org Zuckerbergs Kehrtwende: Meta goes MAGA
-
-
-
-
-
-
-
-
-
-
milan.kovac.cc my Atari software archive
-
YouTube Bolo for ATARI ST
-
-
media.ccc.de Wir wissen wo dein Auto steht
-
-
cursor.com Cursor - The AI Code Editor
-
drawthings.ai Draw Things: AI-assisted Image Generation
-
-
-
dynamicland.org Dynamicland FAQ
-
Apple Newsroom (Deutschland) Apple stellt heute den ersten Film nach Drehbuch vor, der in Apple Immersive Video aufgenommen worden ist,
-
-
fifthstarlabs.com Fifth Star Labs
-
c't Magazin Display-Technik: Mikro-OLED in Apples Vision Pro
-
-
Das Kraftfuttermischwerk Butt Plug für ein besseres Schachspiel zum Selberbauen
-
loona.vision Loóna for Apple Vision Pro
-
-
Tatsächlich gibt es neben den Heralds noch zusätzliche Stagemanager. Auf den kleinen Bühnen waren das in diesem Jahr immer zwei, im Saal 1 entsprechend mehr.
Die Heralds sprechen vor dem Talk mit den Speaker*innen ab, was sie in der Ankündigung sagen. Die Idee ist also schon, dass eine Vorstellung stattfindet, mit der sich die Speaker*in gut angekündigt fühlt. Dass das nicht unbedingt in die Aufzeichnung muss, finde ich aber auch. Ich persönlich hätte sogar überlegt, mich als Herald zu melden; aber dass die Introduction gefilmt wird, hat mich am Ende davon abgehalten.
Das Stagemanagement ist eine Art Schnittstelle zwischen allen am Talk beteiligten Engeln (Evac, Door, AV, Herald, c3lingo) und ggf. dem Heaven. So klären die Stagemanager beispielsweise ab, in welche Sprachen es Übersetzungen gibt und wie sich die Door-Angel verteilen. Es trifft die Entscheidungen zwecks Crowd-Control, macht das Zeitmanagement während der Talks (halten die Schilder hoch, das ist normalerweise nicht im Aufgabenbereich der Angels) und geben im Himmel Bescheid, falls etwas fehlt – das können technische Gerätschaften, aber auch Evac-Engel sein. :-)
Kurzer Hinweis: In der ARD Audiothek findet man aktuell den Klassiker »Per Anhalter ins All« *), aus dem der Herr Tim regelmäßig zitiert, als Hörspiel vorliegen.
https://www.ardaudiothek.de/sendung/per-anhalter-ins-all-scifi-hoerspiel-klassiker/13948887/
oder hier
https://www1.wdr.de/radio/hoerspiel/podcast/peranhalterinsall/index.html
*) 1981 traf eine Delegation des Vogonen-Dichtkunstrates auf der Erde ein und empfahl, den Begriff „Galaxis“ aus sämtlichen Überschriften literarischer Werke zu entfernen.
Mein Tipp zur Apple Vision Pro:
Man muss sie länger benutzen, um sich an Seheindruck und Tragekomfort zu gewöhnen. Es gibt eine starke Lernkurve. Die ersten 2 Wochen habe ich immer wieder überlegt, ob ich sie zurück gebe.
Tragekomfort:
1,5 Stunden am Stück sind zurück gelehnt mittlerweile problemlos möglich.
Der Unterschied zu dem Tragekomfort anderer Geräte ist, dass man sich überhaupt zurück lehnen kann. Da macht mir eine längere Benutzung überhaupt erst möglich.
Seheindruck:
Am Anfang sollte man Kinofilme gucken. “Der wilde Roboter” in 3D sieht zum Beispiel fantastisch aus. Das steht einem Erlebnis im IMAX in nichts nach. Ist auch für 3D hater gut zu gucken.
Die Filme sollte man immer in der Kino Umgebung schauen. Da hat Apple alles so voreingestellt, dass man als Anfänger gut zurecht kommt.
Das hilft, wie oben gesagt, sich an das Gerät zu gewöhnen.
Ein Fehler, ist Inhalte zu groß darzustellen. Im „Cinema Environment“ maximal in mittlerer Reihe sitzen. Jedes Auge einzeln sollte den ganzen Inhalt sehen können (Auge einzeln zukneifen, sehe ich den gesamten Film?). Ansonsten hat man das Gefühl man sehe alles nicht richtig, da das Gehirn die Bilder nicht übereinander legen kann. Das ist der Grund warum viele am Anfang denken, es wäre unscharf.
Wenn man sich gewöhnt hat, kann man auch gut ausprobieren. 3D Filme gucke ich mittlerweile nicht rausgezoomt in den Environments, sondern 1-2 Meter entfernt, da der 3D Eindruck dadurch deutlicher wird. Wirkt wie ein Fenster in die Filmumgebung.
2D Filme und Serien gucke ich immer im Kinomodus.
Dinge, die man ausprobieren sollte:
Bei immersive Videos hat Apple selbst noch eine starke Lernkurve.
Die neueren sind besser, als die alten.
Es lohnen sich:
Musik Video von The Weekend
NBA Match
Concert for one: RAYE
Nicht zu empfehlen:
Die meisten anderen
Generell sollte man immersive Videos öfter schauen. Man gewöhnt sich auch da stark an den Seheindruck.
Die Fotos App wurde von Euch nicht erwähnt.
3D Fotos sind deutlich spannender als 3D Videos. Das hat bis jetzt jeden umgehauen, der das bei mir gesehen hat. Gerade das man alle alten Fotos konvertieren kann.
2 Punkte zu Ralf:
1. Das mit den Augen „hin und her geschaue“ gewöhnt man sich unterbewusst mit der Zeit ab und man stellt sich den Inhalt nicht zu groß ein.
2. Die Bildqualität von den Meta Geräten ist bei weitem nicht so gut. Das ist einfach eine ganz andere Klasse. Man darf da nicht 1:1 die Pixel-Dichte nehmen, bei der die AVP ja schon viel besser ist. Meta rendert meines Wissens nicht mal im Ansatz die gesamten Pixel.
3D Fotos habe ich in der Tat nicht erwähnt, daher hier nachgeliefert: gut ist die direkte Integration in Fotos für die on-the-fly Konvertierung. Die ist in der Qualität (nach meinen A/B Tests) aber etwas schlechter als das, was ich auf dem Mac mit Spatial Media Toolkit ebenfalls binnen Sekunden (und im Batchberieb) rendern lassen kann.
Die Präsentation ist dann ordentlich, vor allem das Positionieren im Raum ist cool – aber eine dezidierte App dafür wie Immergallery auf der Quest fehlt schmerzlich.
Apropos kostenlose LLMs fürs Coding:
Mit Deepseek-V3, QwQ-32B-Preview und Qwen2.5-Coder-32B-Instruct gibt es schon jetzt einige offene („open weight“) Modelle, die in jeder Hinsicht besser als GPT-4o, Gemini Advanced & Co. sind (und erst recht als alle kostenlosen Angebote der Big Player). V.a. Deepseek-V3 liefert konstant spürbar bessere Ergebnissse als Alles, was OpenAI derzeit anzubieten hat (o3 evtl. ausgenommen) und kommt der Qualität von Claude 3.5 Sonnet imho so nahe wie kein anderes LLM – egal ob offen oder kommerziell.
Problematisch sind momentan eher die Hardwareanforderungen, d.h. unterhalb eines 128GB M4-Macs bzw. eines Nvidia-Gaming-Flagschiffs lassen sich diese Modelle lokal kaum sinnvoll betreiben. :/
Das zeigt schon in eine richtige Richtung. Nur sind diese „Open-Source-Modelle“ nicht so wirklich FOSS. Nur der Klumpen aus antrainierten Gewichten ist frei verfügbar und das Abspielgerät.
Für privates antrainieren einer vorhandenen Grundbasis gibt es von IBM – man höre und staune – ein Modell namens „Granite“ derzeit in Version 3.0. Da liegt dann im Prinzip alles als Apache-2.0-Lizenz vor. Man erhält also eine vortrainierte Grundbasis für die Sprache und allg. Wissen, vorgeprägte Sicherheitseinschränungen und eine Mixtur von Experten. Lokale Daten, die man nicht veröffentlichen möchte oder eigentlich überhaupt kann man dann seine eigenen Daten lokal dran- bzw. drauf-trainieren mit einer speziellen Technik, die besser oder zumindest anders ist als LoRA (Low-Rank Adaptation (Fine-Tuning)).
Der Matthew Berman erklärt das gut: https://youtu.be/PoA3VG6EneQ
„Echte“ FOSS-Modelle (=offenes Training Set+Code+Gewichte) gibt es durchaus (bspw. OLMo 2), nur leider ist deren Performance noch relativ weit vom aktuellen State-of-the-Art entfernt – v.a. im direkten Vergleich mit „Reasoning“-Modellen wie o1, R1 & Co.. Bei R1 ließe sich trefflich darüber streiten, ob es „echtes FOSS“ ist. DeepSeek’s Technical Report enthält quasi alle Details (zu Methodik/Algorithmen, Training Set und dem Generieren der synthetischen Daten), um das Modell zu reproduzieren.
Danke fürs teilen, was kannst du denn für ein Modell bei M4 Max 64GB fürs Coden empfehlen? Was für eine Toolchain nutzt du? Ollama -> Continue ? -> VSCode
Auf ’nem 64 GB-Mac würde ich es mit DeepSeek-R1-Distill-Qwen-32B (Q4_K_L, evtl. auch Q8_0) versuchen. Ich nutze das momentan (unquantisiert) in einer etwas *hüstel* „eklektischen“ Kombi mit Qwen2.5-Coder-32B-Instruct und Cursor. Insofern hätte ich Bauchschmerzen damit, daraus irgendeine generelle Empfehlung abzuleiten.
Zu Mac-Spezifika kann ich wenig sagen (nutze „vanilla“ llama.cpp auf ’ner dedizierten Linuxkiste), aber Ollama sollte natürlich genauso funktionieren.
Continue hängt gerade etwas hinterher, allerdings dürfte sich das relativ schnell erledigt haben (u.a. weil es für die JetBrains/Android Studio-Community immer noch der Goldstandard ist).
Die Hardware zum Trainieren des eigenen KI-Modells kann man sich z. B. bei Anbietern wie VAST.AI zusammenklicken. Dort werden Rechenstunden pro genutzter GPU/A100/H100 angeboten.
https://vast.ai/
Das Open Source Text-To-Speech-Modell namens Kokoro-TTS, das nur 82 Millionen Parameter benutzt (super klein, schnell, super Qualität), wurde dort gerechnet. Es läuft sogar auf der eigenen CPU ab (ohne GPU). Die Macher schreiben slebst: „Kokoro v0.19 was trained on A100 80GB vRAM instances for approximately 500 total GPU hours. The average cost for each GPU hour was around $0.80, so the total cost was around $400.“.
https://huggingface.co/spaces/hexgrad/Kokoro-TTS
(bei about/changelog klicken)
Probiert es auf Huggingface aus. Dann versucht es bei euch auf dem eigenen Notebook/PC zu installieren. Das geht unkompliziert mit dem KI-Player Pinokio (Linux, Mac, Win).
https://pinokio.computer/
Momentan gibt es nur en/ch/ja/ko/fr Stimmen. Da das Ding gerade durch die Decke geht, ist Deutsch wahrscheinlich schon Morgen™ mit dabei.
Mit „OpenCore Legacy Patcher“ habe ich auf dem alten MacBook 5,1 (13″, Alluuuminuuum Unibody, late, Mac OS X Leopard 10.5) aus 2008 eines der letzten macOSes, Ventura 13 aus 2022, draufgespielt. Neuere Versionen gingen wohl auch, habe ich aber nicht ausprobiert. Nahezu alles funktioniert wie gehabt, nur das Mousepad wird nicht mehr unterstützt, weil die alten USB-Treiber (noch) nicht eingebunden werden können. Mit einer externen Mouse funktioniert es aber, und zwar in einer Geschwindigkeit, die dem Neugerät gleichkommt. Dieses MacBook ist dann aber auch die unterste Grenze. Außerdem hatte ich es von 2 auf 8 GB Ram hochgepimpt und die HDD durch eine SSD ersetzt.
Vorher hatte ich immer das Tool „macOS (Catalina…) Patcher“ von DosDude verwendet (https://dosdude1.com/software.html). Ab 2019 ging das aber nicht mehr.
Bei den alten Apple-PC-Notebooks kann es vorkommen, dass man ein s. g. NVRam mehrmals nacheinander resetten oder aufbritzeln muss, um einen geblockten „Grey-Screen“ loszuwerden – keine Ahnung. Dazu muss man während des Startens vier Tasten gleichzeitig drücken, also beide Hände mit gespreitzten Fingern + Nasenspitze verwenden. Die mystische Tastenkombination lautet „[Command]+[Alt]+[P]+[R]“ (https://www.macwelt.de/article/968438/reset-von-pram-nvram-und-smc-am-mac.html).
Wenn ihr dann noch OpenSource-Standard-Software schnell in einem Schwung draufspielen wollt, dann könnt ihr euch auf der Webseite https://macapps.link/ durch Anklicken entsprechender Auswahlknöpfe ein Script erstellen lassen und dieses ausführen. Das sieht dann bspw. so aus:
curl -s ‚https://api.macapps.link/de/firefox-chromium-torbrowser-libreoffice-sublime-macvim-transmission-keka-keepassx-vlc-inkscape-gimp-handbrake-adium-jitsi‘ | sh
Die AMD CPUs sind richtig gut und auch richtig effizient. Zwar haben sie als APU nur relativ geringe bis Spiele Perfomance, die nur für ältere oder casual Spiele reicht. Aber immer noch deutlich besser, als was Intel liefert. Für mehr Spiele Performance bieten sich eher externe Grafikkarten an. Die sind bei AMD auch sehr effizient, vor allem IDLE. Unter Volllast und High-End sind Nvidia besser.
Apple geht leider einen schlechten Mittelweg. Sie haben zwar intern eine relativ hohe GPU Performance, allerdings benötigen die meisten diese gar nicht. Was man nicht vergessen darf ist der hohe Aufwand mit denen diese M4 produziert werden. Die Einsparungen im Betrieb werden bei vielen Nutzern gar nicht zu einer positiven Lifecycle Bilanz bezüglich dem Energieaufwand führen.
Also Ich persönlich als Anfänger, der sich gerade mit Algorthmen beschäftigt, wollte mal ausprobiren, ob Cursor für mich zum jetzigen Zeitpunkt schon ein wertvolles Tool sein kann.
Für alle hier mit Sicherheit totaler Kinderkram, aber ich habe mir eine grafische Windows-Anwendung (GUI) erstellen lassen, die den Bubble-Sort-Algorithmus visualisiert.
Die Sortierung läuft schrittweise ab, sodass man ich den Bubble-Sort-Algorithmus in Aktion beobachten kann. Ich weiss, gibt es im Netz bereits in Hülle unf Fülle, aber ich wollte mal testen was Cursor für mich tun kann. Cursor hat mir alle Files: Visual Studio Projekt, Solution File erzeugt. Dann bin ich in VS 2022 rein, Projekt geöffnet und Run gedrückt und BOAH … alles lief sofort; ich war/bin von den Socken. Jetzt habe ich richtig Blut geleckt und bin motiviert. Natürlich will ich den Code komplett verstehen.
Man merkt, dass Tim seit Jahrzehnten keinen richtigen Computer mehr genutzt hat und einfach alles schluckt, was Apple einem vorwirft. Dieser Disconnect zur Realität ist schon echt verblüffend.
Ach, weil Tim anfangs von ARM PCs und Windows PCs gesprochen hat, dann bitte Konsequent sein und auch MacOS PCs sagen. Sind am Ende ja auch nur PCs mit ARM. Äh, sorry, *Apple-Arschkriecherei an* Apple-Silicon.
Er ist halt schon seit 20 Jahren ein Apple-Fanboy und erkennt nicht die schleichende Enteignung der proprietären Software.
Klar erkennt er die – aber er findet die Alternativen (Windows? Linux?) halt noch grausliger. Dass ihr Nerds einfach nicht anerkennen könnt, dass es viele verschiedene (und valide) Kriterien und Vorlieben gibt, mit denen man an die Nutzbarkeit von Software verknüpft, stimmt mich schon seit 20 Jahren traurig.
Notschlachtung SOFORT!
Tel.: 555-Abdecker
Hat jemand schon Erfahrungen ob das mit Apple Vision Pro und ähnlichem bei Kunstlinsen funktioniert?
Mit Kunstlinsen meine ich keine Kontaktlinsen, sondern die Implantate, die man zb. bei der Grauen Star Op eingesetzt bekommt. Diese habe für gewöhnlich eine feste Brennweite die auf „unendlich“ eingestellt wird, so dass man danach entweder eine gute Gleitsichtbrille oder zumindest eine Lesebrille für die Nähe benötigt, da das Auge nicht mehr scharf stellen kann. Kann man dann mit einer VR-Brille überhaupt etwas sehen oder kann man das dann per Software irgendwie ausgleichen?
Mich würden vor allen Dingen konkrete Erfahrungen interessieren, die über „müsste“ und „sollte“ hinausgehen ;-)
Auch wenn nicht gewünscht, ein Ansatz mit „müsste und sollte“: die Spezifikationen der ganzen Headsets geben an, dass die „virtuelle Entfernung“ der Displays um die 60 Zentimeter vor den Augen liegt, darauf wird also fokussiert. Das ist jetzt ziemlich weit weg von Unendlich, daher wäre der m.E. sehr begründete Verdacht: wird deutlich unscharf.
In meiner Funktion als Leiter des Institutes für globale Staubsaugerroboterintegrität und insbesondere in meiner Tätigkeit im Bereich Research & Development für Staubsaugerroboter mit Roboterarm kann ich lobend anerkennen, dass die manigfaltige Expertise Roddis in diesem Feld eine befruchtende innovative Rückwirkung in all den mir anvertrauten Zuständigkeiten nach sich zieht. Nicht nur seine Formulierungen sind gewählt und präzise, auch die darin enthaltenen analytischen Erkenntnisse sind nahrhaft und tragen maßgeblich zum Fortschritt in der Staubsaugerroboterarmtechnologie bei. Es ist auch hier wiederum erkenntlich, dass er die ihm anverliehenen Testate beziffert mit Höchstnoten bezüglich seiner hervorragenden Leistungen nicht zu Unrecht innehält.
· Roddi · [(RE)APPROVED]
#Roddi100
Hallo
auch hier in Nordhessen kann ich mich mit einer Applewatch am EC-Automaten der Sparkasse, authentifizieren und sogar ohne Plastikkarte, Bargeld abheben
Bzgl. AI und der Kritik wegen künstlich generierter Bilder (oder Inhalte generell): Roddy meinte da (sinngem.), das anlernen der LLMs durch existierende Werke sei ja nichts viel anderes, als wenn Menschen durch abschauen lernen. Das blendet aber die sozial-gesellschaftliche Dimension völlig aus, das in dem einen Fall einzelne Menschen über Jahrzehnte ihre Skills trainieren, um davon leben zu können und auf der anderen Seite stehen Konzerne, die mit der Arbeit anderer „per Knopfdruck“ ihre Models trainieren und damit Geld verdienen.
Und dann ist es momentan auch noch so, das die von KI erstellten Werke oft als solche zu erkennen sind, was sie für mich ziemlich unattraktiv macht. Vielleicht liegt es nur daran, was für Stile sie bisher oft generieren, aber ich finde das meistens langweilig (weil die KI nur macht was es schon oft gibt) bis abstoßend (weil sie nicht *weiß* was sie tut) und ich hatte erwartet das sich das schneller ändern würde, aber es scheint da tatsächlich ein Plateau in der Weiterentwicklung zu geben.
Das die Technik da ist und nicht mehr weg geht ist klar, ich sehe total auch den Nutzen, aber insbesondere in einer kapitalistischen Welt, sind da noch viele Fragen offen, die viel lauter diskutiert werden müssten. Und ich bin sogar eher ein Gegner des Urheberrechts – trotzdem sehe ich die Nutzung von existierendem Material durch Unternehmen momentan als ein großes Problem. Das ist kein Argument gegen die Technologie an sich, aber diese Technik existiert nunmal in einem größeren Kontext.
Ich frage mich manchmal in welch einer Traumwelt Tim lebt. Leistung der CPUs alleine zwischen X86 und dem M4 da ist der Pro in maximal Ausstattung gerade mal auf dem Leistungsniveau auf dem Ryzen 5900x was weder eine aktuelle noch die größte Cpu ihrer Generation ist. Der M4 Max ist gegenüber den Ryzen 9 der 9000er Generation noch weniger Relevant als ein Intel.
Da fragt man sich doch wer baut denn aktiuell den Leistung/Watt Sieger? Ach ist auch ein x86er das ist ja doof und das der mit seinen 192 Kernen auch noch viel effizienter als der direkte Arm Mitbewerber der sogar gleich viele Kerne hat ist jetzt aber doof. Amd mit ihren Ryzen und Epic macht in Wirklichkeit einen Mega Job und die 2 Jahre sind in Realität 4 Jahre die Amd Vorsprung hat.
Das Problem bei der ganzen Kiste ist, das Apple und auch jetzt Nividia den Kunden gerne für dumm verkaufen. Warum stell Nvidia ihr Framegen so dar alsob es toll wäre. Ich weiß welche Fehler sie schon in der 4000er Serie mit sich brachte und da ich als Applefanboy von vor derer Schwurbelei sofort von Bildirritationen getriggrert bin, habe ich es immer deaktiviert. Ich würde einen Teufel tun die 4090er zu verscherbeln um dann so einen 5080er Krüppel mir ins Haus zu holen.
Aber auch Apple mit seiner Schwurbelei, Ai mässig sind sie mit dem M4 endlich auch da angekommen wo Nvidia mit der AdaLovelace schon war. Appel und Spiele ist ja ein ganz anderes Thema, wenn man mir auf einer Keynote so 30 Frames geruckel zeigt wird mir ganz anders.
Apple hat aber einen Vorteil gegenüber der X86er Technologie, aber dafür können Sie nichtmal was. 3090 + 4090 24GB Ram, 5090 32GB Ram.
Und Apple hat wenn es auch Shated Memory ist eben da mehr zu bieten mit den 128GB
Aber da muss man sich auch nicht mehr über Nvidias Preise aufregen.
Das, was ihr mit dem Light Seal bei der AVP gemacht habt, wird übrigens bei der Quest 3 schon lange gemacht. Die Konstruktion ist dort nämlich sehr ähnlich. Das dort „Facial Interface“ oder „Gasket“ genannte Stück sitzt da zwischen der eigentlichen Brille und dem Kopfband und liegt standardmäßig einfach auf dem Gesicht auf. Man kann es aber relativ einfach herauslösen und dann ohne dieses arbeiten.
Damit das Ganze dann vernünftig auf dem Kopf sitzen kann, gibt es, als Alternative zu dem mitgelieferten weichen Kopfband, Headstraps von Drittanbietern, die nach dem sogenannten „Halo“-Prinzip funktionieren. D.h. das Gewicht liegt ausschließlich auf der Stirn und dem Hinterkopf (und wahlweise noch auf einem zusätzlichem Verbindungsband oben auf dem Kopf). Die Quest-Brille selbst wird bei dieser Konstruktion dann in einem einstellbaren Abstand vor dem Gesicht gehalten, berührt dies aber nicht.
Ich bin selbst Brillenträger und finde das sehr komfortabel. So kann ich die Quest problemlos viele Stunden nutzen – und tue dies inzwischen auch ausschließlich ohne das Facial Interface. Zusätzlich beinhalten diese alternativen Headstraps meist noch einen sehr nützlichen Zusatzakku für die Quest, der magnetisch am Hinterkopf-Teil des Headstraps befestigt wird. Der Akku hilft dann zusätzlich dabei, das Gewicht Richtung Hinterkopf zu verlagern, was es nochmal deutlich angenehmer macht. (Ich kann in diesem Zusammenhang das Halo-Strap von KKCOBVR nur wärmstens empfehlen – gut und günstig.)
Wie ich gerade rausgefunden habe, gibts es diese Art Halo-Headstraps auch für die Vision Pro. Vermutlich eine lohnenswerte Investion, wenn man länger mit der Brille arbeiten will.
Oha. Gleich mal bestellt, werde berichten, vielen Dank!
Kurzer Faktencheck (da dies ja auch ein Thema in der Sendung ist):
Emagic ist keine Ausgründung von Steinberg, sondern eine Fortführung der Fa. C-Lab und deren deren Sequenzersoftware Creator SL (Vorläufer des Notator SL).
Beide Firmen (Steinberg und C-Lab / Emagic) sind Hamburger „Gewächse“ und waren bereits vor Markteinführung des Atari ST im Bereich Musikproduktion / Sequencing tätig.
Cubase war nicht der erste Sequencer von Steinberg, los ging es wimre mit dem Twelve, danach der Twenty-Four (den habe ich selbst genutzt), und dann kam erst Cubase.
Aber danke für die Erwähnung des Atari ST. 40 Jare, :eek: Verdammt, ich bin alt.
Cursor Revisited
Ich denke, dass über kurz oder lang die „Syntax-Programmierung“ nicht mehr stattfinden wird.
Was ich damit meine: Programmiersprachen (PS) wurden als komfortable Schnittstellen zwischen Computer und Menschen geschaffen. Sie sollen die Unmengen an Mikrobefehlen, die die jeweiligen Architekturen ausmachen, in handhabbare Strukturen zusammenfassen. Hinzu kommt, dass mit PS nicht nur die Form der Syntax, also das Geschriebene, gemeint ist. Die Semantik einer PS, das Paradigma, ist eine fast noch wichtigere Eigenschaft. Das sind die impliziten Methoden, die zur Runtime verwendet werden, um die Ressourcen Zeit oder Speicher optimal zu verwalten. Die äußere, dem Menschen zugewandte, PS der Zukunft wird einfach die natürliche menschliche sein. Diese wird von den KIs erfasst und entsprechend formalisiert und optimiert in den entsprechenden Computerarchitekturen umgesetzt. Weiterhin wird es dazu kommen, dass der Begriff „Programm“ (App) sich auflöst. Eine mächtige KI kann on-the-fly eine Ausführungskette in ihrem internen Netzwerk repräsentieren und nach Ablauf wieder verwerfen, um Ressourcen zu sparen. Diese Ausführungsketten sind dann das, was eben noch Programme waren – Spiele, Standardsoftware, Kommunikationsanwendungen. Intern ist aber alles das gleiche neuronale Netz.
Hat Tim nicht Ewigkeiten kein retina (oder wie man außerhalb der Apple-Bubble sagt: hochauflösend) Display gehabt und jetzt stören die Pixel bei der Quest? Äh ja sicher. Tim stört, dass da Meta und nicht Apple dran steht.
Sich die Sachen schön reden, weil andere können das ja nicht. Wie oft man nicht gehört hat, dass nur Apple sowas richtig umsetzen kann und sonst sowas. Leider ist Tim hier komplett engstirnig.
Die Vision pro ist keine Tech Demo. Die war lange genug in Entwicklung und Apple dachte scheinbar, dass die Leute das Zeug wirklich kaufen. Aber hey, selbst die Kollegen von ATP sehen mittlerweile ein, was für ein schlechter Witz das ist.
Außerhalb der Apple-Bubble wurde von Anfang an gesagt, dass das eine Totgeburt ist, da wird auch nicht mehr viel kommen. Apple will keine Spiele drauf haben, hat keine Controller und bietet auch sonst nur Arschtritte, wenn man für die Plattformen entwickelt. Wieso sollte sich das jemand antun wollen?
Die Meta Quest ist die bessere AR Brille. Sie mag technisch nicht so übertrieben sein, aber sie ist in der Gesamtheit überlegen. Schade nur, dass sie zu Meta gehört…
Dass ich kein „Retina“ Display hatte hatte nichts damit zu tun, dass ich das nicht wollte, sondern damit, dass die entsprechenden Geräte entweder nicht in meiner Kategorie (immer MacBook Air statt MacBook Pro) lag bzw. dann die Geräte wg. der Tastatur unkaufbar waren. Auf dem Desktop war es erst mit meinem Mac Pro und meinem alten iMac keine Option und später bin ich auf sehr große Bildschirme (38-40″) gegangen. Mein erster Retina-Mac (und einziger) war also das MacBook Air M1. Damit ist auch alles in Ordnung.
Aber so einen Non-Retina-Bildschirm trägt man eben auch nicht auf der Nase, eine Brille schon. Und dass mich das Fliegengitter stört ist nun mal so. Ich habe auch nach wie vor Vorbehalte der gesamten Produktkategorie gegenüber (und spielen interessieren mich in der Regel nicht). Mag ja sein, dass die Quest für Dich oder Ralf interessant und akzeptabel ist, für mich ist da nichts dabei, was mich interessiert.
Das gilt weitgehend auch für die Vision Pro, die definitiv noch nicht da ist, wo man sagen kann, hier hat ein neues Zeitalter des Computings begonnen. Trotzdem ist mit der okayen Auflösung (ohne Fliegengitter-Effekt) das Schauen von Filmen okay und halbwegs okay ist auch der Macintosh-Bildschirm-Modus. Ohne eine Halbierung des Gewichts und des Preises wird das natürlich keine Killer App, aber zumindest kann man einen Nutzen davon haben.
Ich glaube diese ganzen Reaktionen auf LLMs, wie z.B. „Aber der Energieverbrauch“, „Aber das Urheberrecht“, „Aber die Fakenews“ usw. sind in Wirklichkeit Abwehrreaktionen von Leuten, die tatsächlich ihre Jobs in Gefahr sehen.
Gleichzeitig ist momentan völlig unklar, ob deren Jobs wirklich substantiell in Gefahr sind oder ob LLMs nur Hilfsmittel bleiben werden. Es ist unklar, ob LLMs einfach diese Jobs erleichtern werden – oder eben überflüssig machen werden. Es ist auch umklar, ob wir uns in eine brutale Abhängigkeit von großen LLM-Betreiberkonzernen begeben werden oder ob es eine Technologie wird, die demokratische Teilhabe sogar befördert.
Ich glaube diese massiven neuen Ungewissheiten schürt letztlich dann die Ablehnung bei vielen Leuten. Und das in einer Zeit, die ohnehin extrem ungewiss geworden ist.
Da ihr über die Nutzung der nicht mehr ganz so häufig eingesetzten seriellen Schnittstelle RS232 gesprochen habt, und ich das noch beruflich einsetzen darf (in der Medizintechnik und bei Messgeräten ist das noch häufig vorzufinden) habe ich einen Tip, falls man das mal wirklich produktiv einsetzen will. Da USB-A/USB-C-Adapter da ja wirklich keinen Spaß machen, und die Geräte, die man Steuern will ja gern irgendwo außerhalb einer Computerreichweite stehen, kann man auch „Netzwerk-zu-Seriell“-Adapter einsetzen. Die Dinger heißen Device-Server oder Terminal-Server (der Name ist aus der Zeit, als man mit seriellen Terminals ins Netzwerk wollte und so ein Gerät dann mehrere serielle Terminals ins Netz gebracht hat) und sind z.B von Lantronix (UDS-1100), Moxa (NPort 5110A) oder Perle (Iolan DG1) als 1-Port Gerät oder natürlich auch als Geräte mit mehreren seriellen Ports zu haben. Wenn so ein Ding im Netz hängt, braucht man auch keinen Treiber, sondern kann im einfachsten Fall einfach nen TCP-Connect auf den Device-Server machen und ist dann mit der seriellen Schnittstelle verbunden. Das läuft dann wirklich gut und stabil.
Es gibt auch zum Teil auch Treiber, die dann ein tty bereitstellen, aber da ist meine Erfahrung wirklich lange her.
Wenn sich aber die Schnittstellenparameter wie Baudrate und so nicht ändern, man nur die Daten abgreifen muss und nicht direkt die RTS/CTS/DSR/DCD/DTR-Leitungen bespielen muss, ist die TCP-Connect-Variante meiner Meinung nach die einfachste. Je nach Modell kann das dann auch mit TLS abgesichert werden.
Cursor mal getestet, aber den Hype kann ich noch nicht nachvollziehen. Ja, ist witzig, wenn der Agent da ein Refactoring quer durch die Codebasis lostritt. Von der Idee her gut. Das Ergebnis war okay. Ja, mag am noch zu schlechten Prompting liegen.
Was ich aber nicht nachvollziehen kann: Warum ignoriert das Teil meine Anweisungen? Ich sage ihm (kleinschrittig): „Tu dies und das.“ Und danach: „Tue nichts anderes, insbesondere nicht jenes!“ Das LLM (das gepriesene Claude) macht trotzdem, was es will, von Kommentaren ergänzen bis Refactoring.
Was ich mager fand, auch wenn noch im Experimentierstatus, war der Bugfinder. Hatte zufällig einen ungetesteten Branch rumliegen. 8 Fundstellen, davon 6 Falschpositive (von hat den Code leider nicht „verstanden“ bis glatte Falschbehauptung), 1 Typo, der schnell aufgeflogen wäre, 1 kleiner Bug – immerhin.
Was mich zusätzlich kirre gemacht hat, war die Kontexterkennung. Nämlich keine? Wenn ich nicht explizit die Dateien angebe, auf denen gearbeitet werden soll, geht es drunter und drüber. Absolut unverständlich für mich: Schließe ich einen Workspace und mache einen neuen auf, wird weiterhin auf dem alten gearbeitet – sogar dann, wenn ich darauf hinweise. Sage ich explizit etwas wie „only work on the open tabs“, bekomme ich die Antwort „I only see xyz“ – eine Datei, die nicht geöffnet ist, und dann wird auf der gearbeitet.
So für mich leider noch völlig unbrauchbar.
Ja da sind noch Fallstricke, aber die lassen sich eben mit expliziter (Dateiauswahl) und impliziter (Preprompting) Kontextualisierung ganz gut in den Griff kriegen. Ich glaube allerdings auch, dass man sich mit parallel geöffneten Workspace-Dateien derzeit noch eine Menge Ärger einhandelt.
Den Bug Finder habe ich noch nicht wirklich getestet, aber alles was als Beta eingerollt kam war danach schnell viel besser. Mal sehen.
Mit welcher Programmiersprache hast Du die Tests durchgeführt?
Für mich ist das leider noch nicht rund genug, wenn ich alle Dateien explizit einzeln per Hand selektieren muss. Explizite Hinweise im Prompt („Nutz das: …!“) wurden halt komplett ignoriert, und dass nicht explizit erwählte, nicht geöffnete und nicht einmal mehr in einem Workspace vorhandene Dateien bearbeitet werden sollten, erschließt sich mir nicht.
Wird sicher besser, aber genau wie du ungern Halbgares (für deinen speziellen Workflow) magst …
Der Code, den ich dem Bugfinder vorgeworfen habe, war JavaScript/CSS. Da sollte es wirklich an Trainungsfutter nicht gemangelt haben. Speziell zu CSS wurde etwa behauptet, „rotate“ gäbe es nicht als Eigenschaft, ich müsse „transform“ bemühen. Das fand ich mager.
Aber ich beobachte das weiter! Den Ansatz an sich finde ich recht charmant.
Denis fehlt mir sehr in diesem Format.
Ich bin gerade etwas geplättet… ich brauchte ein einfach zu bedienendes Kontrollzentrum für syncthing – ein ähnliches Tool wie resiliosync. Das Dashboard sollte mir live und in einer dynamischen Seite anzeigen, wie der Status des systems ist, vor allem die up/download Raten. Außerdem wollte ich das System insgesamt pausieren können (also auch das Scannen der lokalen Ordner aussetzen) sowie ein globales Bandbreitenlimit UND einen Bandbreitenwochenplaner, so ähnlich wie in der Fritz!Box für die ABs. Ich hab drei Stunden mit Claude in Cursor geredet, jetzt steht die App, tut was sie soll und sieht richtig gut aus. Das hätte ich in Tagen nicht hinbekommen, allein schon die Rest API von Syncthing verstehen. Cursor ist nur einmal falsch abgebogen und hat mir Code zerstört, der funktioniert hatte – aber man kann ja einfach wieder auf einen Herstellungspunkt zurück, und man nimmt einen besser formulierten Anlauf. Tadellos.
OFF-TOPIC:
Guten Morgen Tim , Guten Morgen Linus :) !
leider war es mir mangels eines 38C3 Tickets nicht möglich, Dich mal Live erleben zu können, jedoch lief ich im Eingangsbereich nahe der FairyDust zufällig einem Deiner hochqualifiziertem, wenn nicht dem hochqualifiziertestem Podcast-Mitarbeiter über den Weg, mit welchen sich ganz spontan und ungezwungen ein sehr gutes Gespräch entwickelte, welches zeitlich, gar die magische akademische Viertelstunde übertraf. Für mich subjektiv gesehen , als quasi „Nobody in Outa Space“ gefühlt schon eine grosse Ehre, Danke nochmal dafür.
Da umschriebener Mitarbeiter jedoch von seiner Lebenspartnerin zum Essen eingeladen war / wurde , wollte ich diesem, für Ihn mit hoher Wahrscheinlichkeit, krönendem Tagesabschluss, mit Nichten auch nur in geringster Weise, durch Beanspruchung weiterer Zeitkontigente, im Wege stehen und verabschiedete mich äuserst dankbar für diesen zwar kurzen doch sehr besonderen Moment.
Aber wie sagt man so schön nach einem CCC-Event ist vor einem CCC-Event, höre bereits jahrelang Deine Meta-Ebenen Podcasts, Besuche beim ESOC in DA, RadioTeleskop Effelsberg und beiwohnen sehr guter Vorträge Live vor Ort in den Räumlichkeiten des physikalischen Vereins ( der in Mainhattan ist gemeint ;) ) finden durch Deine , in diesem Fall herausragenden Raumzeit (Continuum) Podcast obendrein noch ihren Feinschliff um meinen stetigen Wissendurst in der Frage , wo kommen wir her ? , wo gehen wir hin ? ( und gibt es dort auch genug Parkplätze ? (Zitat: Alfons aus der Anstalt ^^ Pardon Alfons das ‚ abe ich mire erlaubte.. ) zu stillen.
Lange Rede, kurzer Sinn, wünsche Dir/ Euch von ganzem Herzen viel Spass, Lebensfreude, Gesundheit & Fitness + Erfolg auf Deinem / Eurem weiteren Lebensweg….
Cya somewhere else on planet earth next time..
Bye , bye for now and cheers,
Lars aus Hamburg ehemals FFM
Zum Thema Bankkarten: Nicht jede VISA/MasterCard ist eine Kreditkarte. Beide Karten gibt es als debit und credit cards. Kreditkarten buchen nie direkt vom Konto des Inhabers ab sondern man nimmt immer einen Kredit auf, den man dann je nach Vertrag mit der Bank zurückzahlt (üblicherweise monatlich). Wenn eine Karte direkt vom Konto abbucht ist sie keine Kreditkarte, selbst dann nicht, wenn sie eine VISA/MasterCard ist. Dann ist sie eine VISA/MasterCard Debit. Manchmal steht das Wort „Debit“ irgendwo auf der Karte, ansonsten sind sie aber äußerlich nicht von „Kreditkarten“ zu unterscheiden (16-stellige Nummer, expiry date, CVV).
VISA/MasterCard Debit sind sehr ähnlich zu VPay/Maestro, aber nicht das selbe. VISA/MasterCard Debit haben gerade außerhalb Europas deutlich bessere Akzeptanz, weil sie im selben VISA/MasterCard Netzwerk abgewickelt werden das auch für Kreditkarten verwendet wird, während VPay/Maestro im europäischen EMV-Netzwerk abgewickelt werden.
Es gibt also folgende Systeme (und noch viele weitere):
* GiroCard (aka „EC-Karte“)
* VPay/Maestro
* MasterCard/VISA Debit
* MasterCard/VISA Credit (aka „Kreditkarte“)
Wie Tim richtig gesagt hat, können mehrere Systeme gleichzeitig auf einer physikalischen Karte parallel laufen. Manche POS-Terminals bieten dem Nutzer eine Auswahl, andere wählen automatisch was der Betreiber bevorzugt.
In ApplePay werden die einzelnen System als unterschiedliche virtuelle Karten abgebildet. Deshalb hat Roddi seine Girocard und VISA Debit(?) als zwei Karten in ApplePay.
Seit ihr Cursor im Dezember erwähnt hattet, bin ich ebenfalls begeisterter Nutzer davon (kannte vorher nur Tabnine). Nun habe ich wieder die Arbeit an einem alten Web/JS-Projekt, das ich vor ein paar Jahren liegen ließ, aufgenommen, und kam in zwei Tagen weiter als früher in Wochen.
Um die limitierten Fast Requests zu sparen (habe das $20-Abo), nutze ich zwischendurch GPT-4o-mini und der Unterschied zu Claude 3.5 ist gewaltig – der höhere Preis ist offenbar gerechtfertigt. GPT muss man viel deutlicher sagen, was man möchte, Claude dagegen scheint sich ohne große Hinweise/hinzufügen von Dateien genug Kontext zu erschließen. Mit „Codebase“ statt normalem Submit funktioniert auch das von Tim angesprochene Refactoring meistens tadellos.
Ich kam auch erst vor ein paar Tagen darauf, mal Composer auszuprobieren. Hab den Sinn allerdings nicht ganz begriffen, denn dieses „Aufgrund einer Projektbeschreibung Boilerplate-Kram schreiben lassen“ ging auch im Chat sehr gut (vom automatischen Erstellen der Dateien abgesehen). Aufgrund von Tims Begeisterung dafür werde ich dem aber nochmal eine Chance geben. Bin gespannt :-)
Noch ein Tipp: im Workspace-Root die Datei .cursorrules anlegen und reinschreiben, was bei jedem Befehl berücksichtigt werden soll, Priming quasi. Damit kann man das Model stets grob dran erinnern, um was es im Projekt geht, gibt Namenskonventionen vor, etc.
Weil ihr auf Deutschland als Land der Musiksoftware und Logic aus Hamburg zu sprechen kamt: Apple/Logic hat sich erst kürzlich den Hall von Quantec geshoppt, die ja auch ein deutsches Unternehmen (Münchener) sind. Ein für Apple ziemlich ungewöhnliches Vorgehen.
Der Quantec Raumsimulator (QRS) dürfte vermutlich besonders Tim etwas sagen, ist doch Kate Bush (neben anderen Koryphäen dieser Zeit) eine glühende Verehrerin des QRS-Halls. Der Freeze in „Running Up That Hill“ ist bis heute legendär.
Seit Herbst (Logic Pro 11.1) ist der QRS (ebenso wie der ebenbürtige Nachfolger Yardstick) in Logic Pro integriert. Apple hat die Hintergrundgeschichte dazu liebevoll als Easter Egg in der iPad-Version versteckt, auffindbar durch einen Tap aufs Firmenlogo.
Die offizielle Webseite media.ccc.de macht das Schauen von CCC Videos nicht gerade komfortabel: Die Ergebnisse der Suche lassen sich nicht sortieren, eine erweiterte Suche gibt es überhaupt nicht, und wenn man „Browse -> Congress“ anwählt, wird dort der 31C3 und andere ältere Sachen vor dem aktuellen 38C3 gelistet. Da ist noch Luft nach oben.
An Ralph:
Ein Thema, das mich ja mal brennend interessiert: Wie schaffst du es neben der Familie und Arbeit noch überhaupt irgendeiner Nerderei tiefer nachzugehen. Mit zwei Kindern (6 und 2) und noch dem üblichen Haushaltsgeplenkel ist hier selten vor 22h überhaupt Schluss – und weil es dann Morgens um 6.30h wieder losgeht ist dann auch meistens eher Zeit fürs Bett. (Und die Zeit dazwischen: Arbeit, Kinder abholen, Spielplatz, Essen machen, …)
Vielleicht ein sehr spezifischer Themenwunsch. Aber ich finde, dass das Thema „Nerd sein mit Familie“ durchaus viel zu wenig Würdigung erfährt. Denn diese Zeiten, in denen man mal konzentriert und ohne Unterbrechung herumcomputern kann, sind schon sehr begrenzt. (Mal abgesehen auch von der Motivation, wenn der Brotberuf einen schon vor den Bildschirm zwängt…)
Fände ich mal ein schönes Thema für die Freakshow ;-). Interessant wären ja manchmal schon so die Eckdaten aus dem Tagesablauf: Wieviel Zeit nimmt Arbeit, Familie usw. eigentlich bei euch in Anspruch?
(Und bitte nicht falsch verstehen – ich bin natürlich sehr gerne Papa und würde das nie tauschen wollen und finde mit dem größeren Kind auch gelegentlich gemeinsame Zeit zum herumnerden… also soll keine Jammerrunde werden – sondern eher mal ein Austausch über die Möglichkeiten und Herangehensweisen…)
Ich habe auch noch etwas zum Thema Wasserkocher beizutragen. Ich versuche gerade einen Wasserdocher (Xiaomi Smart Kettle 2 Pro with ESPHome) mit ESPHome (ESP32) zum laufen zu bekommen.
https://community.home-assistant.io/t/xiaomi-smart-kettle-2-pro-with-esphome/837741/4
Etwas late to the party, aber ich muss doch nochmal eine Lanze für Atari ST, my first love, brechen: Der Hackvalue von dem Ding war deutlich höher, als alles andere, was man für normales Geld Mitte der 80er kaufen konnte: Da gab es Programmiersprachen, mit denen man wirklich was anfangen konnte: GfA Basic, ja, das wurde auch zum Amiga sortiert, später, war wirklich sehr mächtig und eigentlich kein Basic, da ohne Zeilennummern und dafür mit vernünftigen Schleifen und es kam mit einer damals sehr brauchbaren IDE. Da habe ich wirklich viel mit gemacht, zB eine Audiosampler-Software, mit der man auch Schneiden und Effekte machen konnte (GfA Basic + etwas Assembler), ich habe mal für R.SH, ein Privatradio, eine Wahlhochrechnung gemacht und generell viel Spaß gehabt. Von Application Systems Heidelberg gab es dann auch einen sehr brauchbaren C Compiler (zumindest, wenn man eine Festplatte und nicht nur eine Ramdisk hatte). Die Textverarbeitung Signum hat auf Nadeldruckern wirklich hochauflösend gedruckt, das war damals auch revolutionär. Es gab vernünftig brauchbare Hardware Schnittstellen, ich habe da viel Fischertechnik und sowas dran betrieben, aber andere Leute haben damit auch schon Ethernet gemacht. Und mit etwas Extrahardware konnte man damit sogar einen Mac draus machen (man brauchte nur die ROMS, aber einen EPROM-Brenner hatte man ja damals auch), der auch einen abgerundeten Bildschirm hatte, aber mit deutlich mehr Pixeln :-P. Nur die komischen Mac-Disketten konnte man nicht lesen, da das Diskettenlaufwerk PC kompatibel war (mit konstanter Umlaufgeschwindigkeit). Für den Nerd hat der damals wirklich viel geboten, während die Amiga Leute immer nur gespielt haben und sich das Bild von der Venus von Milo angeschaut haben.
Ach und zu Geldkarten auch noch etwas Senf: Wie andere ja schon gesagt haben, gibt es von Visa und Mastercard ja inzwischen auch Debitkarten, zT als default von den Banken. Die sehen auch erstmal aus wie Kreditkarten und fühlen sich auch so an, bis man merkt, dass ihnen ein Feature fehlt: Man kann damit keine Kaution hinterlegen, also eine potentiell spätere Abbuchung vorher autorisieren. Bzw kann man sogar das, aber wenn die dann später gezogen werden soll, kann die platzen, wenn das Konto leer ist. Das Hotel oder die Autovermietung, wo man die Kaution hinterlegt, hat also keine Sicherheit (bzw Versprechen), dass sie den Betrag in Zukunft auch wirklich abrufen kann, das steht immer unter dem Vorbehalt der Deckung. Das ist bei echten Kreditkarten anders (die geben ja eben den Kredit). Deswegen kann es einem vor allem im Ausland passieren, dass man Schwierigkeiten beim Hotelcheckin oder beim Autovermieter bekommt, weil die sich eben ihre Kaution sichern wollen.