FS254 Chat Roulette Business Edition

Talking Heads — Konten und Banken — M1 und Wintel — Internet Tips — pretix — venueless — pretalx — Virtuelle Events — Videotechnik — Mikrofone und Headsets — Licht — Ethernet

Heute dreht sich alles um Events. Wir begrüßen rami als Gast in der Sendung, der das Projekt pretix losgetreten hat, dass ein Ticketing-System für Veranstaltungen aller Art ist. Wir sprechen über Online-Events und in was von der Pandemie-Zeit übrig bleiben wird, wenn wir uns wieder in der Realität treffen können. Dazu gibt es noch eine Reihe von Tips für Technik zur Durchführung von Audio- und Videosessions.

Dauer: 3:30:42

avatar
Tim Pritlove
avatar
Letty
avatar
rami
avatar
Rainer
avatar
Studio Link On Air

Für diese Episode von Freak Show liegt auch ein vollständiges Transkript mit Zeitmarken und Sprecheridentifikation vor.

Bitte beachten: das Transkript wurde automatisiert erzeugt und wurde nicht nachträglich gegengelesen oder korrigiert. Dieser Prozess ist nicht sonderlich genau und das Ergebnis enthält daher mit Sicherheit eine Reihe von Fehlern. Im Zweifel gilt immer das in der Sendung aufgezeichnete gesprochene Wort. Formate: HTML, WEBVTT.


Shownotes

Als Amazon-Partner verdiene ich an qualifizierten Verkäufen.

47 Gedanken zu „FS254 Chat Roulette Business Edition

  1. Bin ja ganz bei Tim, was die arm-macs angeht. Bei allem ausser Spielen.
    Aber zum gaming möchte ich erstmal die Ergebnisse eines Doom eternal benchmark in 4k mit ultra Einstellungen sehen, bevor wir das Thema weiter erörtern.
    Von raytracing reden wir dann danach.

    Gruß, Hannes

  2. Ach, Nerds <3
    Machen sich Gedanken, ob Sie jetzt ein 500€ oder 800€ Mikrofon für nen Videocall kaufen sollen.
    Ich wäre schon froh, wenn bei mir auf der Arbeit die Leute ein 30€ Headset nutzen würden, statt das Laptopmikrofon BEI ZUGEKLAPPTEM BILDSCHIRM zu nutzen und dabei noch 4 m weit weg sitzen….

  3. Lieber Tim,
    was glaubst du wie viel Prozent der Kommunikation auf der verbalen Ebene stattfindet und wie viel auf der nonverbalen?

    Grüße H.

  4. Ich hab auch das tolle M1 – Air und im Moment macht mich der Rechner einfach nur wahnsinnig. Der fährt oft einfach nicht runter, der Bildschirm wird schwarz aber man sieht, dass die Hintergrundbeleuchtung noch an ist. Und wenn man ihn durch langes drücken der Powertest abwürgt, dann fährt er später ohne meckern hoch und wenn man wartet, 10-20 Minuten, bis er wirklich ausgeht, dann kommt eine Fehlermeldungen, dass der Rechner wegen eines Fehlers neu starten musste… ?????!??

    • So, und jetzt war auch ein kompletter Ordner weg. Konnte ihn aus dem Backup wiederherstellen, ich habe den bestimmt nicht bewusst gelöscht. Weiß jetzt natürlich nicht, was sonst noch so fehlt. Aber bei diesem System stimmt was grundsätzlich nicht …

      • Ha, und der viel gelobte Affinity Designer, der schoooonnnn nativ auf dem M1 läuft stürzt beim PDF-Export einer mässig großen Datei von ca. 130 MB immer, die Betonung liegt auf immer, ab. Nun gut, jetzt erreichen wir beim M1 wirklich langsam frickel Niveau. Hoffentlich wird das noch besser. Wahrscheinlich zwei Wochen bevor MacOS 12 oder 11.1 k.a. erscheint … Die ständigen Abstürze beim Runterfahren könnten mit Time Machine zu tun haben, zumindest lassen sich eingebunden Backups nicht entfernen, habe TM erstmal komplett aus gemacht, kann mich aber auch täuschen.

        • Na super, jetzt stürzt die M1 Kiste schon im zugeklappten StandBy Modus ab und beim Filesystemcheck gibts danach seltsame Fehlermeldungen
          error: invalid dstream.default_crypto_id (0x0) on encrypted volume, given apfs_fs_flags (0x100)
          error: xf 1/2: INO_EXT_TYPE_DSTREAM: invalid dstream
          error: inode_val: object (oid 0x371949): invalid xfields

  5. Es muss doch irgendwas zwischen den LED Lichtern geben die so simple, und praktisch sind wie die Elgato Key Light Dinger (nicht verfuegabar und relativ teuer) und diesen China Lichtern von Neewer etc. die 1000 Feature haben die kein Mensch braucht und mit billigen Stativen daher kommen. Gibt es Tipps?

    • Wenn es dir von der Größe ausreicht, dann schau dir mal das Aputure AL-MC an. Ist ein mini RGB-LED Light mit Akku und Stativgewinde. Wird von viele Filmern als Zusatzlicht genutzt. 1-2 davon sollten aber am Schreibtisch ausreichen. Natürlich nicht günstig, aber sehr vielseitig einsetzbar.

  6. Darf ich ganz laut ENDLICH rufen? Endlich ein paar wirklich gute Tipps für Videocalls, die ich alle nur unterstreichen kann. Das fängt bei HDMI Grabbern, externen Mics und vernünftigen Cams und alles an einem oder mehreren Boom-Armen und das geht runter bis zum guten alten Ethernet. Es ist wirklich zum Verzweifeln, als ob die Menschen vom ersten Lockdown gar keine Lernkurve hätten. Solchen kann ich keine Unwissenheit mehr unterstellen sondern einfach nur Ignoranz oder Faulheit. Direkt angesprochen antworten diese dann auch frech: Wieso? Ich habe keine Ton- oder Videoprobleme im Videocall gehabt. *wie-Picard-mit-der-hand-an-die-Stirn-klatsch*

  7. Ich glaube verstehe gut die Begeisterung über das tolle Performance-zu-Leistungsverhältnis der neuen M1-Chips; man bekommmt „State-of-the-Art“ Laptop-Performance bekommt mit „Next-Level“ Energieverbrauch. Ein Grund zum Feiern, keine Frage!

    Was ich aber nicht verstehe ist, wieso davon ausgegangen wird, dass sich die Performance dieser Chips noch weiterhin großartig steigern lässt, so dass Apple auf Dauer einen signifikanten Vorsprung vor der Konkurrenz hat. Was sind denn die Anhaltspunkte dafür?

    Es spricht im Gegenteil aber viel dagegen, das es jetzt steil Richtung „0-Latency-Computing“ geht:

    – Moore’s Law ist doch nach wie vor am Ende, oder? (zumindest in der Performance-Interpretation). Der Sprung auf 5nm ist vielleicht nur Moores letztes Röcheln… und warum sollte AMD diesen Sprung in nächster Zeit nicht auch schaffen? (Intel hat wohl inzwischen bewiesen, dass sie es tatsächlich nicht schaffen werden :P)

    – Viele Applikationen lassen sich nach wie vor nur sehr begrenzt parallelisieren. Mehr Kerne bringen also irgendwann auch nichts mehr für die „Personal-Computer-Experience“

    – Das sich x86 so leicht in aarch64 übersetzten lässt sollte zu denken geben.. x86 an sich kann also nicht das große Problem sein.

    – Bleibt noch die „Unified-Memory-Architecture“ vs „Diskrete CPU“.. mir ist unklar, warum das dieser Unterschied im Vergleich zum 5nm-Sprung eine große Rolle spielen soll. Effektiv braucht M1 immer noch Caches und Busse und DDR4 RAM ist immer noch langsam im Vergleich zu einem CPU-Kern.. Komplexität geht erstmal nicht weg, nur weil man alles auf einem Chip hat. Hier muss man mal abwarten wie groß der Unterschied zu „modularen PCs“ ist, wenn dort CPUs und GPUs bei 5nm sind.

    Für mich sieht es so aus, als hätte M1 die Latte also hoch gehängt… springt aber nach wie vor vom Boden ab, wie alle anderen auch, anstatt ein Trampolin mitzubringen, oder?

    • Moore’s Law mag in der alten Form nicht mehr existieren, aber dass Apple es seit 10 Jahren schafft, ihre Performance mindestens linear ansteigen zu lassen, ist in Hardware dokumentiert. 5nm sind hier noch nicht das Ende der Fahnenstange, TSMC hat ja gerade seinen 2nm Prozess angekündigt.

      Was man nicht vergessen darf: es ist keine reine Geschwindigkeitssteigerung, die man hier sieht. Das bemerkenswerte ist, bei welchem Stromverbrauch diese stattfinden. Deswegen ist hier noch viel Luft nach oben, denn der Die des M1 ist sehr klein. Apple wird relativ mühelos das Prinzip auf größere Dies übertragen (reine Kostenfrage) und die Zahl der Cores für CPU, GPU, NPU bzw. die Größe der Caches erhöhen und ggf. auch noch weitere Funktionseinheiten unterbringen können, Ohne dass ihnen irgendwas wegschmilzt. Bei Intel und AMD muss man jetzt das ganze schon in einen Kühlschrank bauen, damit es überhaupt läuft.

      Eine Parallelisierung mag keine lineare Steigerung der Performance mit sich bringen, allerdings wird die Liste der Anwendungen, die direkt und unmittelbar von mehrere Cores profitiert, auch immer größer. Aber die Parallelisierung findet nicht nur auf CPU-Core Ebene statt. Von mehr NPU- und GPU-Cores profitiert auch Single-Core-Software.

      Aber auch CPU-Performance selbst lässt sich so noch steigern: während bei X86 derzeit bei 4 Instruktions-Dekodern das Ende der Fahnenstange erreicht zu sein scheint, kommt der M1 mit 8 Dekodern daher und die ARM-Architektur macht es mit ihren leicht, das noch weiter aufzumachen. 16 oder mehr parallele Dekoder sind denkbar bis wahrscheinlich und würden die Core-Performance weiter nach oben treiben. Mit genug thermal headroom.

      Unified Memory erspart eine Menge Overhead, da Daten, die in der GPU gebraucht werden, nicht über einen wie auch immer gearteten Bus übertragen werden müssen. Der kann noch so schnell sein, es gibt immer eine Bestrafung für die Aufteilung. In der Unified Memory Architecture kann alles jederzeit im Wechsel unmittelbar auf die Daten zugreifen: CPU, GPU, NPU, Image Processing, Codec Accelerator: alles kann unmittelbar die Daten an die nächste Komponente übertragen und das spart teilweise eine Menge Zeit.

      Und mal ehrlich: es wäre ja wohl sehr überraschend, wenn Apple ausgerechnet mit dem M1 am Ende der Entwicklung wäre und nur mal eben so drauf wettet, dass es schon irgendwie klappen könnte. Bei einer Timeline von zwei Jahren bis zur Ersetzung aller aktuellen Systeme dürfte klar sein, dass die Technik, um einen Mac Pro von Intel zu befreien und dabei mindestens deutlich bessere Performance zu bieten, jetzt schon im Regal vor sich hin summt.

      • Hm.. ja interessante Überlegungen. Die ARM vs x86 Unterschiede muss ich mir mal genauer anschauen..

        Das mit der Unified Memory Architecture überzeugt mich immer noch nicht vollständig; es gibt doch nach wie vor einen Bus, nämlich den Memory-Bus. Der mag bei M1 besonders gut sein, aber es ist doch das gleiche Prinzup. (Und wieso kann man das nicht auf einem Mainboard machen? Wegen der räumlichen Entfernung?) Und die CPU/GPU-Kerne werden auch irgendwie eigene Caches haben die mit dem langsamen DDR4 Speicher synchronisiert werden müssen… solche fundamentalen Probleme verschwinden doch nicht einfach.

        Wir werden sehen.. ich bin gespannt.

        • Es ist ja nicht nur der Memory Bus, sondern die Versorgung läuft ja im Falle einer diskreten GPU mit eigenem VRAM über den PCI-Bus. Da nimmt man natürlich immer den Stecker mit den meisten Lanes oder (in alten Modellen) sogar spezielle GPU-Sockel, aber das kommt natürlich alles nicht an die DRAM-Busse ran, die direkt am SoC hängen. Dazu kommt immer noch die Latenz durch das Hin und Her, egal wie schnell das Hin und Her dann läuft.

          Außerdem erlaubt das Unified Memory auch die parallele Bespielung des RAM durch alle Komponenten. Während die GPU das RAM benutzt können CPU, NPU, Image Processor und Codec Processors das RAM gleichzeitig benutzen. Nichts muss kopiert werden. Das spart eine MENGE Zeit.

          Das SoC ist das neue Mainboard. Alle zeitkritischen Komponenten sind dort versammelt. Außerhalb befinden sich die Dinge, die auch „langsam“ sein dürfen. Ein MacBook Air M1 besteht eigentlich zu 95% aus dem SoC, der Rest ist die Verbindung nach draußen.

          • Du siehst leider nur die eine Seite der Medallie, das alle Komponenten den gemeinsamen Speicher nutzen können und man damit Kopieraktionen wegfallen ist richtig. Das bedeutet aber auch das sich alle Komponenten den Speicherbus und dessen Bandbreite teilen müssen. Deine proklamierte „parallele Bespielung des RAM durch alle Komponenten“ ist auch nur Wunsch und nicht Wirklichkeit. Die Daten- und Adressleitungen zum RAM existieren nur einmal und damit kann auch nur ein Datum zur selben Zeit übertragen werden. Die einzelnen Komponenten müssen sich mit ihrem Wunsch nach Speicherzugriff also anstellen und warten bis sie dran sind. Apple versucht dieses Problem etwas zu entspannen indem es die Caches recht groß macht, gegenüber z.B. einem Zen 3 sind sie 4 bis 6 mal so groß, pro Core gerechnet. Auch das Konzept des Unified Memory, auch genannt Shared Memory, ist in der x86-Welt schon seit einigen Jahren im Einsatz, jeder x86-Prozessor mit integrierter Grafik arbeitet nach diesem Prinzip. Meist sind diese integrierten GPUs aber ziemlich schwach auf der Brust und eher für den preiswerten Office-Rechner optimiert als für opulente 3D-Grafik. Wie das selbe Prinzip auch in Leistungsfähig geht, zeigen die aktuellen Konsolen XBox Series X und Playstation 5 mit Zen 2 Cores und RDNA-2 GPU. Auch Apple wird nicht um extra RAM für die GPU herumkommen wenn sie sie soweit hochskalieren das sie auf dem Niveau der großen GPU-Boliden von NVidia und AMD rauskommen. Auch ein mehr an CPU Kernen wird den Flaschenhals Speicherbandbreite noch verschärfen. All diese Rechenwerke wollen mit Befehlen und Daten gefüttert werden die aus dem RAM kommen, um ihre Power auch auf die Straße zu bekommen. Apples M1 ist eine beindruckende Leistung, aber weder revolutionär noch die Zukunft des Computing. Ich bin extrem gespannt was Apple beim Hochskalieren von CPU und GPU noch abliefern kann.

          • Moin,
            An der Stelle würde ich noch zwei Aspekte zum Thema „AMD & Intel“ anbringen, den ich sehne diese beiden Firmen in deutlich unterschiedlich aufgestellt bezüglich der von dir in der Folge dargelegten Entwicklung. Bezüglich Intels absteigenden Ast stimme ich dir weitestgehend zu, bei AMD gibt es jedoch nich einige Aspekte, die sie aus meiner Sicht deutlich besser in einer „SoC-Welt“ überleben oder sogar wachsen lassen könnten:
            Zum einen hat AMD seit Jahren eine sehr erfolgreiche Semi-Custom-Sparte die primär genau SoCs baut für unter anderem alle relevanten Spielekonsolen der letzten Dekade und auch die aktuellen Inkarnationen, die mit eben solchen Unified Memory aufwarten. Sprich AMD hat bereits Jahr Erfahrung eben solche SoC mit Unified Memory Architekten zu bauen.

            Darüber hinaus verfügt AMD bereits über eine ARM-Lizenz und hat in der Vergangenheit bereits experimentelle ARM-Prozessoren gebaut und ist über die letzten Jahren damit beschäftigt, FOGA-Hersteller und anderen IP für in SoCs integrierbare Bausteine aufzukaufen.

            Zusammen kommt das dann in der Infinity Fabric Architektur, in der seit einigen Jahren alle aktuellen AMD-Prozessoren gebaut werden und die ähnlich des „Fabrics“ beim M1 ist. Dieses Fabric würde es auch AMD ermöglichen einen SoC mit beliebigen Kernen, sei es ARM oder x86 oder (zumindest auf Hardwareebene, Softwareunterstützung wäre eine andere Geschichte) gar beiden auf dem gleichen Fabric zu bauen und beliebige weitere Komponenten wie Grafikprozesssoren, FPGAs, Neural-engines oder beliebige anderen IP-Bausteine in einem Unified Memory Raum zu vereinen.
            Auch Intel unterhält Entwicklungen in diese Richtung, ist jedoch Jahre hinter AMD zurück.

            Kurzum sehe ich über die kommenden Jahre in der nicht Apple-Welt eher die Entwicklung eines „AMD-M1“, sei es mit x86 oder Arm-Kernen. Technisch und know-how-technisch in der Lage dazu wäre AMD bereits jetzt, bezeihungsweise baut derart Chips ja bereits seit Jahren im Semi-Custom und custom-Bereich.

            So, nur als Ergänzung, jetzt warte ich auch erstmal darauf endlich mein M1-Air in der Hand zu haben.

      • Moore’s Law mag in der alten Form nicht mehr existieren, aber dass Apple es seit 10 Jahren schafft, ihre Performance mindestens linear ansteigen zu lassen, ist in Hardware dokumentiert. 5nm sind hier noch nicht das Ende der Fahnenstange, TSMC hat ja gerade seinen 2nm Prozess angekündigt.

        Nun ja, ich muss Lu an der Stelle zustimmen: ich finde es auch naiv, wie anscheinend alle Welt davon ausgeht, dass Apple diese mindestens lineare Performancesteigerung einfach unbegrenzt fortsetzen kann. Dass sie das bisher konnten, war kein Wunder: Apple kam von einem deutlich niedrigeren Performance-Niveau – der A4 z.B. war weit langsamer als die damals gängigen x86-Laptop-CPUs und hätte auch nicht „einfach so“ mit mehr TDP auf Äquivalenz hochskaliert werden können. Wenn ich gegenüber dem Rest der Welt am Aufholen bin, dann geht es naturgemäß schnell voran, denn ich kann die ganzen niedrig hängenden Früchte noch ernten, die der Rest der Welt schon geerntet hat, während derjenige an der Spitze sich mit dem Dilemma der Diminishing Returns herumschlagen muss. Jetzt ist Apple an der Spitze, und ich bin gespannt, wie lang es dauert, bis das Dilemma auch Apple ereilt und sich die Kurven abflachen.

        Die Process-Shrinks sind natürlich ein Faktor, der Apple auf dem ganzen Weg geholfen hat, aber es ist nur ein Faktor, der beim Vergleich mit Intel wirklich eine Rolle spielt. AMD bekommt als guter Kunde von TSMC ebenfalls in absehbarer Zeit Zugriff auf dieselben Fertigungsprozesse (wobei Apple potenziell noch einen Arschloch-Move pullen könnte: sie haben mehr Geld locker und könnten TSMCs Top-Prozess einfach längerfristig exklusiv kaufen; das haben sie ja wie man munkelt mit dem 5nm-Prozess gemacht, was man ein Stück weit natürlich verstehen kann, denn Apples Stückzahl-Bedarf ist real, aber Apple könnte theoretisch auch dann, wenn TSMCs Kapazität irgendwann Apples Bedarf übersteigt, einfach Geld verbrennen, um sich den Prozessvorteil noch länger zu sichern). Dazu kommt, dass AMD schon bei den aktuellen 7nm-Chips (Ryzen 4800U) den M1 in Multicore-Benchmarks knapp schlägt, und das bei einem Stromverbrauch in derselben Größenordnung. Single-Core unterliegt AMD zwar klar, aber da gibt’s Hoffnung auf die Zen3-Mikroarchitektur im bald kommenden 5000U, die zumindest in den schon länger erhältlichen Desktop-Prozessoren einen derartigen Single-Core-Boost gebracht hat, dass Intel nun selbst mit seinen 5GHz-Tricksereien in dieser Disziplin kein Land mehr gegen AMD sieht. Gelänge AMD etwas vergleichbares in der Mobile-CPU-Sparte, hätte die x86-Welt einen in jeglicher Hinsicht zumindest von der reinen Performance gesehen vergleichbaren Chip zur Verfügung wie ihn Apple mit dem M1 hat, der auch in derselben TDP-Klasse spielt.

        Das nimmt Apple zugegebenermaßen natürlich nicht alle Trümpfe aus der Hand; Tim, du unterschätzt zwar glaube ich enorm die AMD-Seite der x86-Welt, die inzwischen Intel in jeder Hinsicht so dermaßen davon gerannt ist, wie das die M1-MacBooks den jeweiligen Intel-MacBooks sind, die sie ersetzen. Aber mit dem Verweis auf die höhere Integrationsdichte, die Apple bei seinen SoCs prinzipbedingt auffahren und die ihnen die modular gestaltete x86-Welt auch nicht so einfach nachmachen kann hast du natürlich einen validen Punkt – Apple hat hier ein längerfristig bestehendes Potenzial, das sie in Performance- und insbesondere auch Performance-pro-Watt-Vorteile ummünzen können, so wie sie das mit dem M1 auch schon begonnen haben. Allerdings ist die Modularität eben auch der entscheidende Faktor für den ökonomischen Erfolg der PC-Plattform gewesen, und der einzige Grund, aus dem Apple in der Lage ist, diesen Faktor jetzt zu ignorieren, ist, dass sie über die irrsinnigen Stückzahlen der A-Prozessoren für iPhones ausreichend Synergieeffekte zusammengekratzt haben, um die M-Chip-Enwicklung rentabel zu machen. Das ist schon ein ziemliches Alleinstellungsmerkmal auf dem Markt (das ist mein Argument gegen deine Annahme, dass die PC-x86-Welt bis in 5 Jahren von Apple zertrampelt werden würde), und es ist auch eine Wette darauf, dass das auch in Zukunft reichen wird, um sich an der Spitze zu halten. Denn sonst bleibt Apple nicht allzu viel übrig, als wieder einen großen Switch irgendwo anders hin zu machen. Modulare Konzepte haben es hingegen leichter, sich an sich ändernde ökonomische Rahmenbedingungen anzupassen, ohne radikale Brüche zu erzwingen. Allein schon aus diesem Grund erwarte ich noch ein langes Leben für die x86-Plattform. Gegen ein paar fruchtbare Einflüsse aus dem ARM-Lager hab ich jedoch nix einzuwenden, der M1 ist schon ein geiler Chip, und das neue MacBook Air meine gefühlt beste Apple-Anschaffung seit….na ja, seit den AirPods Pro ;-)

  8. Hier spricht die Stimme der Jugend:
    Hey,
    ich bin 19 und kommuniziere seit 5 Jahren so gut wie täglich mit Freunden über Teamspeak (proprietäres Voicechat Program). Dort treffen wir uns um zum plaudern, zum zocken aber auch zum Lernen oder Filmschaun. Ich hatte immer das Gefühl, das diese Art der Kommunikation, sehr natürlich ist, bis der erste Lockdown war und mein Bruder (5 Jahre älter als ich) mir seine Probleme mit dieser Art von Kommunikation geschildert hat. Auch solche Probleme wie „zu wenig feedback“ hab ich nicht, wenn man einen Witz macht und niemand etwas drauf sagt war es schlecht, sonnst ganz okey bis gut.

  9. Zum Thema „Mikro am Schreibtisch“: inspiriert von euren ständigen Audiodiskussionen hab ich nun auch ein ähnliches Setup wie Hukl am Laufen. Nur etwas günstiger. Also als Tipp: Rode M2 Mikro (81€), Millennium DS200 Mikrofonarm (59€, XLR-Kabel schon drin), Yamaha AG2.
    Dazu nutze ich meinen bequemen Bluetooth-Kopfhörer. Da auf dem Firmenrechner Windows läuft, hängt noch Voicemeeter als SW-Mischpult dazwischen.

    Rein aus Spaß an der Freude hab ich mir auch mal ein DT297 gegönnt. Aber ehrlich gesagt weiß ich nicht, warum der immer für seinen Tragekomfort gelobt wird. Ist schon schwer, das Kabel nervt, es quitscht bei Kopfbewegungen und nach ein paar Stunden tun mir die Ohren weh. Tatsächlich scheint mir, dass ein superleichtes Headset mit Top-Mikro eine ziemliche Marktlücke ist.

    Grüße
    Marius

  10. Wir wollten Pretix bei uns in der Firma für bezahlte Livestreams nutzen, leider fehlen dafür ein recht simpeles Feature, nämlich dass der Kunde mit seinem Ticket einen Zugang zu einer Page innerhalb von Pretix bekommt, auf die ich beliebigen Inhalt embedden kann. Dort hätte ich dann gerne den kurzen HTML/JS-Schnipsel mit unseren Player eingebunden. Bis zu genau diesem Punkt war Pretix als Lösung perfekt, dann leider im letzten Schritt so nicht nutzbar.

    Venueless habe ich mir dann auch direkt angeschaut, das war leider aber auch nicht das richtige. In meinem Fall, wo wir ohnehin schon Streaming-Infrastruktur betreiben, ist es halt recht teuer da noch ein zweites mal für Übertragungsinfrastruktur zahlen zu müssen.

  11. Alle Welt jammert über 2020, aber für Tim ist es das Beste Jahr seit Erfindung der Jahresringe, weil es endlich ARM-Macs gibt. Nur, warum plötzlich alle ihr T-View 100 verwenden wollen ist ihm weiterhin unklar…

  12. „M1 und das Ende von Wintel“ – sehr schön gesagt.

    Ich kann dem Wintel-Gespann nur die Pest an den Hals wünschen. […hier ein langer krawallwütender Text, den ich aber aus Sicherheitsgründen wieder gelöscht habe…]

    Daß Apple mit dem M1 bzgl. unified memory in eine richtige Richtung geht, ist klar. Das ist aber auch nur eine mögliche richtige Richtung. Zudem hat AMD schon seit 2013 mit ihren APUs vorgelegt. Leider hatten die auch zu der Zeit andere Probleme – Wintel. Fefe hatte die Situation von damals in seinem Blog gut zusammengefasst: „…Nach Jahren des Siechtums wird es doch noch mal spannend auf dem Hardware-Markt. … Die nächste Generation hat Shared Memory zwischen CPU und GPU, und man kann dann sogar die Paging-Mechanismen der CPU nutzen, um Speicher zur GPU zu geben. … ohne dass da tatsächlich was über irgendeinen Bus geht. … Dann könnte man GPU-Beschleunigung überall nutzen und sogar vom Compiler zurechtoptimieren lassen…“ (https://blog.fefe.de/?ts=af76fa76 Tue May 7 2013)

    Was AMD und Intel gegenüber Apple noch im Köcher haben – FPGA. Intel hat sich den FPGA-Entwickler Altera 2015 einverleibt und dieses Jahr (2020) AMD Xilinx. Das machen die nicht ohne Grund. Wikipedia schreibt z. B. zur Xilinx-Technologie folgendes: „Mit der Virtex2-Familie war Xilinx Anfang 2006 der erste Hersteller, dessen FPGAs partiell rekonfigurierbar sind. Das heißt, Teile des Chips können während der Laufzeit neu konfiguriert und damit die Funktionen ausgetauscht werden.“ Oh-ha, WTF!

    Es gibt sogar schon Technologien, die während der Laufzeit in Prozessorgeschwindigkeit rekonfigurierbar sind, also im GHz-Bereich. Man hat dann einen Chip, der nach Bedarf mal eben auf Mathe, Crypto oder Next-New-Shit-Videoencoder optimiert ist. Selbst Zuweisungen, welche Lokaltät auf dem Chip Speicher oder Rechenmaschine ist, ließe sich belibig programmieren. Das ist der Traumcomputer, den man haben will. Aber Apple hat ja ausreichend Taschengeld, um einkaufen gehen zu können. Auf jeden Fall ist endlich der Druck auf x86 da, um sich bewegen zu müssen – gut für uns (oder Skynet).

  13. Süß, ich arbeite „beim Film“ und der Magic Arm mit Uniklemmen ist seit Jahrzehnten die Universalwerkzeuges um Zeug irgendwo fest zu machen… der Zapfen passt auch in normale Stative wenn man will…. danach dann noch C-Stands Gobo Heads etc :-}

  14. Zum Thema virtuelles Treffen. Ich habe seit 1,5 Jahren eine VR Brille. Bisher für Bigscreen, im Flugzeug Filme schauen und ab und zu mal ein Game Zocken.
    Als ich vor 4 Wochen über das Bootshaus in Köln gellenden habe das es digitalisiert wurde und dort nun über die app Sansar eine VR Techno Veranstaltung stattfindet musste ich mir das anschauen. ich muss sagen das war unglaublich gut. Das beste was ich bisher in VR erlebt habe. Ein neues Level
    Die Zahlen sind au CH recht gut
    30000 Teilnehmer und eine Million Zuschauer.
    Auf YouTube gibt es die Gigs zum anschauen .
    Es kann aber nicht im geringsten das VR feeling übertragen.
    Link vom bootshaus m Formular

  15. Ethernet ist in der Tat geil! Und das schon seit 1973 als es am Palo Alto Research Center entwickelt wurde. Also ich davon zum ersten Mal las, war ich verwundert – das war doch bestimmt eine Vorstufe von dem Ding, was da heute die Bits durch die Leitung schiebt. Aber Pustekuchen, es ist wirklich schon fast 50 Jahre alt. Also sogar noch etwas älter als 80er wie Tim annahm :)
    Greets
    – David

    • ja klar ist Ethernet geil. Aber mittlerweile werden in Peripherie geräten wie Drucker und Scanner die LAN Schnittstelle wegoptimiert. Es ist echt schwierig einen guten Scanner mit LAN interface zu bekommen.

  16. Das Backmagic Azem Mini *Pro* hat im Unterschied zum „Mini“ auf dem HDMI-Out optional eine Regie-Anzeige mit allen Inputs, dem laufenden Programm, dem vorausgewählten nächsten sowie diversen Statusmeldungen.
    Zusätzlich kann es das laufende (geschnittene/gesendete) Programm auf USB aufnehmen (dann ist allerdings kein USB-Webcam-Out möglich).
    Und man kann über Ethernet zu eigentlich allem streamen was einen RTMP-Input hat.
    Alles standalone, ohne Computer.

    Das „Pro ISO“ kann zusätzlich alle Inputs aufnehmen. Multitrack und sofort passend für die DaVinci-Videoschnittsoftware.

    Falls jemand mit OBS streamen will – ich habe da mal ausführlicher was zusammengeschrieben, wie man damit selber streamen kann. Inklusive eigenem Server.
    http://www.wyae.de/docs/video-streaming/

  17. Danke für das Transcript, Tim! Ich habe gerade für meine Musikschule Hukls sehr gute Tipps weitergegeben und musste dafür nicht alles noch mal anhören um die richtigen Stellen zu finden.

  18. Ich möchte angelehnt an hukls Setup noch ein paar „lower budget“ Produktvorschläge hierlassen.
    Als Mikrofon taugen auch die günstigeren dynamischen USB-Mikrofone, wie zum Beispiel das Audio Technica ATR2100x-USB oder das Samson Q2U. Damit bekommt man locker top Qualität für Videocalls hin und kann auch mit Sicherheit einen Podcast aufnehmen, bei dem niemand über die Audioqualität meckert.
    Beide Mikrofone haben einen Kopfhöreranschluss für direktes monitoring und können auch mit XLR betrieben werden, wenn irgendwann mal ein Interface angeschafft wird.
    Ich würde von einem Kondensatormikrofon, wenn man keinen behandelten Raum hat.

    Von Samson gibt es den MBA28, ein Boomarm, der ähnlich qualitativ wie der Rode ist, aber etwas weniger kostet. Kauft bloß nicht diese Dinger, die außenliegende Federn am Arm haben. Wenn man den Arm berührt surren die noch ewig lang vor sich hin.
    Wer etwas Zeit und Bastelfreude mitbringt, kann sich auch Lichter selbst bauen. Kuchenform, LED-Stripe, Diffuser-Stoff. Anleitung gibt es hier. Ich nutze zwei davon, um bei der Online-Lehre schuckelig belichtet zu sein.

    Happy online-conferencing!

  19. Zum Thema Second Live, bzw. Videokonferenz mit Avatar: Mit Memojis in Facetime geht’s doch in die Richtung. Jetzt noch den originalen Videofeed weglassen und schon hat man viele Daten gespart und das Bild auf ein Avatar mit Mimik reduziert. (Wer’s braucht.)
    Ich persönlich finde Video weiterhin überflüssig. Das Prinzip „Telefonieren“ funktioniert gut.

    @Hukl: Den Congress-Gänsehaut-Moment finde ich auch cool und wiederholenswert. Er ist aber auch ein sehr irrationales Feedback, das zudem nicht gleichzeitig gut mit irgendeinem individuellem Feedback funktioniert. Individuelles Feedback ist „theoretisch“ digital viel leichter. Vielleicht müssten verschiedene Feedback-Spielarten angeboten werden, um es für verschiedenen Leute schmackhaft zu machen. Unmuten / paralleler Text-Chat / memojis verwenden / emoji’s ins Bild werfen / den inhaltlichen Verlauf der Veranstaltung durch textadventure-mässige Mehrheitsentscheidungen interaktiv machen / … gamification halt. (Nur bitte nicht in nervig und ohne monetization ;) )

  20. Zum online Konferenzraum in größeren Teilnehmerzahlen: unabhängig ob Video oder nicht und ob virtuell oder echtes Video, ich finde das größte Problem ist finde ich das Audio ein vollen Räumen entweder gibt es nur eine Quelle (Talk, Konzert) oder man braucht etwas wie „directional Audio“ (gab es mal vor einiger Zeit für Minecraft, je weiter weg desto leise ist der/die andere, ab bestimmter Entfernung stumm), aber hier ging glaube ich die Infrastruktur schnell bei den Teilnehmerzahlen in die Knie, wenn etwas weniger als exponentiell viele Verbindungen gebraucht werden oder der (Bereichs-)Server alles abmischen muss. Ich glaube ein audiorouting müsste der nächste innovationsschritt kommen. Dann könnte ich auch in sparsamer Gaminggraphik herumlaufennumd einzelne Leute ansprechen, ohne eine laute Kakophonie des ganzen Saals zu hören.
    Schöne Grüße,
    Tim

    • Hast du schon mal spatial.chat ausprobiert? Das finde ich ganz putzig, weil man da auch noch mit zig Teilnehmern immer nur die in seiner Nähe hört (und sieht). Da man da beliebige Hintergrundbilder hochladen kann, auf denen man sich dann positionieren kann, kann man (virtuelle) Grundrisse nutzen, um viele Teilnehmer zu Themen zu bündeln. Habe das letzt auf einer Konferenz mit >1000 Teilnehmern gesehen und da hat das gut geklappt.

  21. Volle Zustimmung zu hukl, der Magic Arm + Superclamp ist wirklich eine tolle Combo. Auch sehr vielseitig einsetzbar, ich habe damit z.B. auch schon Videos am Fahrrad aus ungewöhnlichen Blickwinkeln aufgenommen. Der kompaktere und kürzere Mini Variable Friction Arm (244mini) ist auch sehr zu empfehlen, wenn man die Länge des großen nicht braucht.

    Zum Thema iPhone als Webcam: die meines Wissens beste iOS/Mac-App-Kombination für diesen Zweck ist Camo (https://reincubate.com/de/camo/). Es gibt eine kostenlose Version, die auf 720p mit Wasserzeichen beschränkt ist. Die Vollversion mit 1080p und mehr Einstellmöglichkeiten (z.B. Nutzung der 0,5×- und 2×-Kameras des iPhones) kostet 5 € im Monat (Abo).

    Camo erzeugt wie OBS auf dem Mac eine virtuelle Webcam. Technisch realisiert ist das in beiden Fällen über ein CoreMediaIO-Plugin, eine ziemlich alte Technologie, die Apple leider nicht mehr richtig pflegt. Anders als moderne Extensions laufen diese Plugins in der jeweiligen Video-Call-App in-process und sind damit natürlich ein Sicherheitsrisiko. In den meisten Apple-Apps (Safari und Facetime) funktionieren die virtuellen Kameras deswegen leider nicht (im QuickTime Player interessanterweise schon).

    In Third-Party-Apps ist der Support gemischt. Sandboxed Apps müssen ein bestimmtes Entitlement haben (`com.apple.security.cs.disable-library-validation`), um CoreMediaIO-Plugins von anderen Herstellern laden zu können. Nicht alle Apps haben das Entitlement (z.B. Skype), was dann wiederum bedeutet, dass die virtuelle Kamera in Skype nicht auftaucht. Camo löst das Problem, indem es auf Userwunsch die originale Code-Signatur einer App entfernt, das Entitlement hinzufügt und die App dann lokal neu signiert. Das ist natürlich nur ein Hack. Bei jedem Update der App muss man diesen Prozess wiederholen (Camo automatisiert das allerdings sehr schön). Camo hat hier eine schöne Liste von unterstützten Apps (für OBS sollte die Liste identisch sein): https://reincubate.com/support/camo/camo-faq/#compatibility

    Eine Hardware-Lösung, die eine richtige USB-Webcam bereitstellt, hat also viele Vorteile. Wäre zu hoffen, dass Apple sich für virtuelle Kameras in Zukunft was besseres einfallen lässt.

  22. Tims Begeisterung für die Latenzfreiheit kann ich nachvollziehen, ist mir ebenso ergangen. Nachdem ich meinem 2012er MacBook Pro eine SSD spendiert und darauf Manjaro KDE installiert habe.
    Trauerspiel dagegen auf dem identisch ausgestatteten Zwilling mit macOS Catalina: Es zieeeht sich wie Kaugummi.

  23. @Hukl: Danke für die Empfehlung für Videohardware. Ich habe mir das ATEM Mini und eine gebrauchte GoPro Hero 7 geholt und die beiden funktionieren super im Team. Da ich mich gerne zum Elektronik-Basteln online treffe wollte ich noch eine zweite Kamera für den Arduino Schaltkreis und die LED Matrix. Einfach einen HDMI Adapter für das iPhone geholt. Das Ding hat auch eine sehr gute Kamera. Wäre doch schade wenn man die nicht nutzt. Mit dem ATEM Mini kann man wunderbar zwischen Profil- und Bastelnahaufnahme umschalten und sogar Bild in Bild anzeigen. Wenn man mal AFK ist einfach auf ein Still umschalten. So kommt man doch auch online gut durch die Pandemie :D

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.