Freak Show
Menschen! Technik! Sensationen!
https://freakshow.fm
Wir besprechen unsere jüngsten und anstehenden Reisen, reden über den technologischen Bedarf auf Veranstaltungen, den Sinn von Save Buttons, geben Feedback zum letzten Minecraft-Segment und reden dann – wie sollte es auch anders sein – wieder über AI. Dieses Mal steht aber Audio AI im Mittelpunkt und außerdem die Möglichkeiten, die Apple hat, um dem Bereich zu Relevanz und Profitabilität zu verleihen. Außerdem schauen wir auf die jüngsten Desaster im Open Source Bereich um das Tool xz und das Package Management System npm. Zum Schluss gibt es dann noch einen Ausblick auf die Formate und Standards, die in den nächsten Jahren die Basis für elektronische Rechnungen in Europa stellen.
https://freakshow.fm/fs277-das-goldene-zugpferd
Veröffentlicht am: 9. April 2024
Dauer: 4:03:24
Das stimmt. Heute ist nämlich eine Besonderheit, es ist nämlich der erste Podcast, der live während einer Sonnenfinsternis gesendet wird. Ich weiß nicht ganz genau, hier im Chat heißt es gerade gleich wird es dunkel, das heißt wir haben sozusagen genau den Punkt erwischt. Roddy Leise heißt übrigens dein Mikrofon.
Ja, nee, ja. Ich weiß es nicht. hin. Ich mache es einfach wie immer, ich drehe einfach den Stream hier sozusagen nochmal so richtig, den drehe ich so richtig auf, da kenne ich gar nichts und dann müssen die selber damit klarkommen. Anyway, da sind wir mit Ausgabe Noah, was haben wir heute? Was habe ich hier geschrieben? 277. Ausgabe der Freakshow und was soll ich sagen? Ja, wir treffen uns auf den Montag. Weil ich habe Reisepläne und da ging es nicht anders. Und ich fahre bald wieder weit weg und mache eine weitere Studienreise. Ich mache jetzt immer Studienreisen. Das ist jetzt mein Plan für dieses Jahr.
Naja, also ich meine, frei nach meiner Devise, wer interessante Podcasts machen will, muss auch ein interessantes Leben führen. Da dachte ich mir, ich muss halt sozusagen mal wieder raus in die Welt, weil da war ich zuletzt viel zu wenig. und schaue mir einfach Orte an, die ich noch nicht kenne und die ich kennenlernen möchte, so wie ich das jetzt jüngst auch mit der Ukraine gemacht habe. und ja, da drehe ich sozusagen ein bisschen mein Reisebudget ein bisschen hoch und schaue halt, dass ich...
Ja, ja, also ich meine, guck mal, also erstmal interessant ist ja eigentlich alles. Es ist halt immer nur die Frage, wie man drauf schaut Und wie gut man drauf schaut. Ich werde jetzt sicherlich auch nicht die finale Dokumentation dieses Landes liefern. Ich will einfach nur mal einen Eindruck haben. Ich hatte schon einen ersten Eindruck. Ich war schon mal in Dubai einen Tag. Das fand ich schon ausreichend weird. Also das ist auf jeden Fall so ein weirdo place.
Also ich meine, mit Sicherheit ist das auf jeden Fall so ein Fleck Erde, der jedes Maß verloren hat. Also die Maßlosigkeit ist maßlos. Also das konnte ich schon feststellen vor, weiß nicht, wann war ich da? Wann war ich da? Anyway, auf jeden Fall war ich schon mal in Dubai und Dubai ist schräg. Das war damals schon schräg und ich dachte mir so, was für ein weirder Ort. Ihr habt sie doch nicht mehr alle. Da haben sie gerade angefangen, diese komischen Palm Islands da zu bauen. also diese Aufschüttungen da in ihrem Uferbereich wo sie dann irgendwelche Villen draufgestellt haben, alles überhaupt nicht nachhaltig, alles völlig over the top alles völlig gaga und daneben und ich glaube zu dem Zeitpunkt haben sie auch schon angefangen, dass die zweite, also die erste hatten sie glaube ich fertig, die zweite haben sie, angefangen zu bauen und auch diese komische The World es gibt ja dann so Inseln da, also es gibt da glaube ich auch eine Deutschlandinsel Also es gibt da so alle möglichen kleinen Mini-Inseln, die so, wenn du da von oben drauf schaust, ich weiß nicht, ob ihr euch das schon mal angeschaut habt, wie das überhaupt aussieht.
Oh Mann, naja, okay, also auf jeden Fall, ihr seht schon, das ist so Teil des Wahnsinns, dieser ganze Inselaufschüttungs- Business, aber nachdem sie bei dieser World nicht alles losgeworden sind und ich weiß nicht, ob sie diese, also diese Palmen-Dinger, die sind wohl ganz gut weggegangen. Da hast du ja zumindest nochmal so ein Neighborhood. Das ist zwar auch alles irgendwie gaga, aber naja, also macht alles irgendwie keinen Sinn da. Und es gibt dann halt so die Altstadt von Dubai, das ist halt irgendwie ganz nett, aber das ist halt auch nur so eine Touristenfalle geworden. Da hast du halt dann so deine ein, zwei Einkaufspassagen, wo du durchlaufen kannst und dann kannst du da...
Nee, es gibt schon so wirklich die eigentliche Dubai-Altstadt. Die gibt es schon, wo du das schon an der Straßenstruktur erkennen kannst. Das hat auch schon mal so vor 100 Jahren schon so existiert. Aber das war dann halt auch im Wesentlichen alles damals. Und dann kam halt dieser Boom vor ein paar Jahrzehnten, der eben so in den letzten 10, 15 Jahren dann so richtig losgegangen ist. Als ich da zum Beispiel war, gab es also diesen Bursch Dubai gar nicht. Da haben sie diese große Straße, wo da dieser Tausenden von Hochhäusern, ein in der Nähe von den anderen, an so einer riesen Autobahn dran ist. Das hatten sie gerade erst angefangen. Da standen irgendwelche Hochhäuser im Sand. Und auch bis heute ist das alles noch nicht komplett bebaut. Und dann sind sie halt komplett freigedreht und haben halt diesen Burj Dubai. Beziehungsweise am Anfang haben sie den Burj Dubai Und dann haben sie den Burj Khalifa nach dem Kalifen, also nach dem Chef da, dem Oberzottel benannt. Naja, und das ist halt auch so ein sinnloses Projekt.
Also der ist auf jeden Fall 828 Meter. Der ist zumindest so hoch, dass bisher sich noch keiner getraut hat, was zu finanzieren, was höher ist. Und ich weiß nicht, ich glaube, dieser ganze Hochbau-Wahn ist auch gerade wieder so ein bisschen abgeflaut, sodass es gut sein kann, dass das Ding halt der höchste bleibt. Erstmal für eine absehbare Zeit. Aber das ist halt irgendwie auch alles, die haben da ja noch nicht mal ein richtiges Abwassersystem. Die fahren da die Scheiße irgendwie mit Fahrzeugen weg und so weiter. Also das sind so die Dinge, da hoffe ich davon noch mehr zu erfahren. Wenn man vor Ort ist, dann steht man ja ganz anders mit solchen Dingen in Kontakt. Werden wir natürlich vielleicht nochmal das ein oder andere anlesen, aber mal schauen.
Was mich hier gerade wundert, wir gucken gerade parallel jetzt hier auf dem Beamer Google Earth von Dubai, da sind signifikant zu wenig Hochhäuser modelliert, kann das sein? Also das, was ich irgendwie an, ich wiederhole mich, diese Apple Screensaver, da sieht das eher nach New York aus und hier sieht man jetzt vielleicht mal so 20 oder so was, die mehr oder weniger einsam in der Gegend rumstehen.
Ich glaube Fotogrammetrie nennt man das. Chad darf mich gerne korrigieren. Wo du sozusagen aus verschiedensten Fotos dreidimensionale Modelle rausrechnen kannst. Dass es hier überhaupt nicht erfolgt, warum weiß ich nicht. Entweder weil niemand das für erforderlich gehalten hat, das zu tun für VAE. Das mich ein bisschen wundert, weil ich glaube so, die hätten schon Interesse da dran und irgendwie, die haben ja so ihre Methoden, die könnten ja Google sagen, sag mal, wollt ihr das nicht mal machen? Und die so, oh nee, jetzt wird es teuer. Und die so, ja, ach, Geld ist das Problem. Das Problem kennen wir ja nicht. So, ja. Und dann gibt es natürlich so Länder wie Israel, die lassen halt nicht Flugzeuge über sich rüberfliegen.
Naja, weil auch Apple erstmal mit dem Flugzeug darüber fliegen muss, um selber die Daten zu haben, aus denen sie denn diese 3D-Modelle machen können. Und natürlich haben die sich erstmal, weil das ein relativ großer Aufwand ist und das eine Menge Daten sind, konzentrieren die sich auf die Metropolen. Vor allem die amerikanischen und die europäischen Metropolen und Japan ist glaube ich ganz gut abgedeckt und dann diese ganzen Wüstendörfer sind erstmal nicht so interessant. Ich meine, das ist ja ein Fleck, ich meine, da leben ja nicht viele Leute, so, und da fahren auch nicht so viele Leute hin, also das sind jetzt nicht so, das ist nicht Paris oder so, Der meist fotografierte Ort der Welt ist Paris. Wenn man den Auswertungen von Fotoplattformen glauben darf und das hochrechnen darf.
Naja, auf jeden Fall, ich fahre da mal hin und ich werde dann auch in der nächsten Sendung ein bisschen berichten können. Ob das dann spannend ist, weiß ich nicht. ich werde auf dem Rückweg auch noch in Istanbul vorbeikommen. Falls auch jetzt jemand das hört und falls sich irgendwelche Hörerinnen und Hörer in den VAE aufhalten in den nächsten zwei Wochen, let me know. Dann machen wir mal noch ein Hörerinnen- Treffen. Das finde ich ja ganz cool. Und auf dem Rückweg bin ich dann auch noch mal in Istanbul für ein paar Tage. Weil da war ich auch noch nicht.
Moskau ist auch sehr groß ich fand es fast schon scary, wie groß das ist aber das lag daran, dass wir damals irgendwie vom Flughafen in die Stadt, ich glaube anderthalb Stunden gefahren sind und zwar nur an so 20-stöckigen Plattenbauten vorbei, und dann auch so lange wieder aus der Stadt rausgefahren sind Istanbul hat.
Also Tokio 39 Millionen, Jakarta 35 Millionen, Delhi 31 Millionen, Manila 23 Millionen oder 24 Millionen. Dann Sao Paulo, da war ich mal, das ist auch ein Moloch, also das ist wirklich unfassbar. So 22,5 Millionen, Seoul auch 22 Millionen, Mumbai 22 Millionen, Shanghai 22 Millionen. Dann Mexiko-Stadt 21,5, dann Guangzhou, das ist da bei Hongkong, Südchina. Dann New York. 20,9 Millionen. Dann Cairo.
Ja, ja. London ist Platz 34. Paris ist Platz 35. Also das ist alles Fliegenschiss, worin wir uns hier normalerweise bewegen. Naja und so weiter dann. Kairo, Peking, Kakuta, Moskau, Bangkok, Dakar. Istanbul wird hier mit 20 Millionen angegeben und Moskau wird hier mit, hä, aber das ist nicht danach sortiert. Ah, Entschuldigung, das ist nach, ja ihr Penner, ich habe das jetzt nach Fläche sortiert bekommen, aber nach Einwohnern ist Tokio trotzdem die 1. So, aber da ist Istanbul auf Platz 22 und damit sozusagen die Größe, da habe ich doch recht gehabt, Asien, Europa.
Also was ich in Istanbul extrem beeindruckend fand, war diesen Busbahnhof mit seinen 400 Stellplätzen für Busse. Der war schon richtig krass. Also sowas habe ich vorher noch nicht gesehen Busbahnhof Naja, so ein, was bei uns der Zopp ist Der zentrale Omnibusbahnhof Wo in Berlin irgendwie 20 Busse hinpassen Ist halt dort irgendwie Ich glaube dreistöckig oder so Und halt Insgesamt 400 Stellplätze Also so, Naja, Bahnsteig, Gleise, keine Ahnung, wie nennt man das? Also halt so Dinger, wo so Bus hält und man kann da eigentlich...
Also es ist eine der Traditionsveranstaltungen, kann man mittlerweile sagen, vom CCC, vom Gras Computer Club und ist mal geboren worden, nachdem der Kongress nach Berlin umgezogen ist, gab es in Hamburg sozusagen den Bedarf, auch Veranstaltungen zu machen. Und dann haben sie den zu Ostern, weil der Club immer traditionell so christliche Feiertage bespielt.
Genau. Und dann haben sie halt das Easter Hack genannt, weil Hack. Und es gibt eine Sache, die finde ich wirklich erstaunlich an dieser Veranstaltung. Also es hat ein paar Mal in Hamburg stattgefunden und dann ist sie dann irgendwann zum zum Wanderpokal geworden. Das heißt, dann können sich halt Orte, Spaces bewerben und sagen, wir würden den gerne mal ausrichten in dem und dem Jahr und dann wird da irgendwie darüber abgestimmt und dann ist es halt da. Und dadurch tourt diese Veranstaltung die ganze Zeit durch Deutschland und bespielt, Unbetretenes Terrain, sozusagen, also für viele der Teilnehmer zumindest. Genau, und es ist aber im Prinzip wie so eine kleine Version vom Kongress, kann man sagen.
Genau, und das war an der Ostbayerischen Technischen Hochschule Regensburg, die OTH. Naja, so Uni-Hochschulgebäude, wie man sie halt so kennt. Jetzt nichts Besonderes, aber auch nicht schäbig, war schon okay. Ansonsten die Veranstaltung war nicht übermäßig groß, also wenn man Kongress kennt natürlich, in dem Vergleich Wie viele Leute.
Aber Ja, könnte hinkommen, weiß ich nicht so genau Also Also das Waffle Operation Center war aktiv. Die Studenten von irgendeiner Fachschaft haben es tatsächlich auf sich genommen, auch irgendwie den Grill anzuwerfen. Das war sehr lecker, was die da gemacht haben. Außerdem gab es das Eternal Breakfast. Also die Veranstalter da von der Binary Kitchen gab es halt rund um die Uhr quasi Frühstück. Da haben sie also Brötchen aufgebacken und es war immer so Belag aller Art da. Und Kaffee war eigentlich auch immer da, so in der Art. Also wenn man es irgendwie nicht geschafft hat, irgendwo hinzugehen, um dort zu essen, dann konnte man sich da verköstigen. Dann gab es Vorträge, davon habe ich nicht allzu viele gesehen, nein, eigentlich gar keinen.
Egal, ja, ist auch nicht so wichtig. Was ich viel spannender fand, da waren zwei Workshops, die klangen beide sehr interessant und dann habe ich mich bei beiden mal angemeldet. Und das eine war ein Workshop für KeyCut. Ich weiß nicht, ob ihr KeyCut kennt, wisst, was das ist. Das ist so ein Open-Source-Platinen-Kreierprogramm, wo man in einer Ansicht sich erst einen Schaltplan zusammenklickt mit seinen Bauteilen und dann kann man auf einer anderen Ansicht dann die Bauteile auf einer Fläche platzieren und das Routing der Leiterbahnen machen Und hat hinterher eine Platine, die man dann bestellen kann. Was dieses Programm tatsächlich auch kann und was ich nicht wusste, was total witzig ist, du kannst dir hinterher eine 3D-Repräsentation von der Platine, die du da gelayoutet hast, samt Bauteilen als 3D-Modell exportieren. Und dann war der zweite Teil des Workshops, war dann, das in Autodesk Fusion zu importieren und anhand dieses Modells der Platine dann ein Gehäuse darum zu designen, dass du dann hinterher 3D drucken kannst. Und das war wirklich cool. Also beide Programme haben eine, sag ich mal, nicht ganz einfache Lernkurve. Also besonders dieses Keycut, ohne dass der Typ irgendwie jeden einzelnen Befehl vorgemacht hätte, hätte ich das überhaupt nicht hingekriegt. Also wenn man einigermaßen verstanden hat, wie man die Dinge tut, dann wird es einfacher. Aber viele sind halt völlig... scheinbar aus der Luft gegriffene Key-Kommandos, wo man dann irgendeine Taste drückt und dann tut die halt irgendwas. Ja.
Du, keine Ahnung. Auch da ein Disketten-Symbol und wenn ich das richtig sehe, glaube ich sogar mit der verkehrt drum aufklappenden Schiebedingsie. Egal, also das ist jetzt, also dieses Keycut ist keine Schönheit, aber es ist funktional, es tut, was es soll. Und Fusion ist zwar ein professionelles Programm, aber es ist auch, meine Herren, also das muss man auch wollen, damit umzugehen, weil das auch nicht funktioniert wie normale.
Von Autodesk, genau, Autodesk Fusion. Da gibt es irgendwie eine freie Variante für Hobbyisten, die in irgendwelcher Art und Weise eingeschränkt ist. Das kann ich dir jetzt nicht runterbeten, was da genau die Begrenzungen sind, aber man kann es also in der freien Version benutzen. Was mich total wahnsinnig gemacht hat, ist, dass du bei ... Bei Fusion eigentlich immer erst den Befehl auswählst und dann das Objekt selektierst, auf den du den Befehl auswählst. Also nicht so, wie man das kennt. Man selektiert etwas und führt dann einen Befehl darum auf, sondern immer andersrum. Das hat mich am, ja, man fühlt sich wie eine rückwärts gestreichelte Katze. Also es ist wirklich ganz schlimm. Aber es tut, was es soll Gut, ich meine da gibt es viel Konkurrenz die können mehr oder weniger alles das Gleiche Was sehr geil ist, ist, dass du so eine Art, dass du so eine Art Log-File hast Also alles, was du tust, wird in so einer Art zeitlichen Log, festgehalten und du kannst dann sagen, okay, ganz am Anfang, als ich dieses Rechteck da gezeichnet habe, das soll jetzt Zentimeter kürzer sein, die eine Seite und das gesamte Design passt sich dann daran an, dass du jetzt das Ding in dem zweiten Schritt kleiner gemacht hast. Also, in Grenzen natürlich, aber ja, und das war schon ganz witzig. Witzigerweise hatte der Typ, der den Workshop gemacht hat, hatte halt die fertige Datei für das 3D-Modell der Platine ausgeteilt, aber Aber ich war ja in einem anderen Workshop, also dachte ich, nehme ich mal meine Platine, die ich gebaut habe. Oh Gott, die sah so scheiße aus. Ja, das war da sonst noch was, worüber man sprechen müsste, sollte. Habt ihr noch Fragen?
Also, keine Ahnung, man kann sich natürlich darüber streiten, ob Bedienelemente in einer Software mit der Zeit gehen müssten. Also jetzt mal angenommen, ich würde da jetzt eine M2 SSD in dieses Symbol reintun, würdest du auf Anhieb verstehen, worum es geht? Ja. Also dieses Disketten-Symbol als Symbol, um etwas zu speichern, ist so alt, dass die Leute intuitiv wissen, was gemeint ist, auch wenn es komplett anachronistisch aussieht.
Muss ich ja auch für nichts rechtfertigen. Ich meine, ich bin ja so ein Snob, so ein, Computersnob und ich wollte ja immer mit Windows nichts zu tun haben und hab das immer abgelehnt, damit zu arbeiten. Ich habe immer versucht, einen Weg zu gehen in meinem Leben, wo ich nicht auch nur in die Gefahr kam, damit zu arbeiten. Nicht, dass das jetzt das Wichtigste auf der Welt ist, das hat sich mehr oder weniger so ergeben, aber ich weiß, wäre ein Ort in irgendeiner Form in der engeren Wahl gewesen, der mich genötigt hätte, damit zu arbeiten, dann hätte ich das so nicht gemacht. Soweit ist es nie gekommen, aber ich hätte es auch nicht, ich wäre diesen Weg nicht gegangen, ich wäre nicht bereit gewesen. Wie heißt so, I have no time for that. Also das war für mich, weil für mich ist Für mich ist Windows, ich weiß, Leute sehen das anders, aber für mich war das immer so eine Art, so ein, kennst du dieses Gefühl, wenn du so ein, wenn du so ein Gefühl hast, du müsstest irgendwie dich vielleicht bald übergeben, so dieser Geschmack, der auf einmal so in den Mund hochkommt, kennst du das? Du musst sie nicht wirklich übergeben, aber du hast so das Gefühl, so eine leichte Reizung. Das ist immer so ein bisschen das Gefühl, was ich habe, wenn ich mir diese User Interfaces anschaue. Es ist wirklich schlimm für mich. Und das mit dieser Diskette ist so ein bisschen, das symbolisiert für mich auch wirklich so dieses ganze Ding, weil weißt du, welches Symbol auf dem Mac da zum Einsatz kommt? Na?
Genau, es gibt überhaupt gar keinen Save-Button. Weil, warum auch? Also, wozu sollte es dafür so einen Button geben? Das ist halt irgendwie dieses Ding. Wenn ich mir diese User Interface anschaue, papapapapapapapapap, ja, also wirklich wie so eine, wie so ein Hochregallager von Schraubenteilen. Also so knallen sich diese ganzen Symbole vor dich und das verschwimmt alles. Also bei diesem KI-Cut, als ich da eben auf diese Webseite drauf geschaut habe, auf diese Screenshots, das verschwimmt alles. Das ist wie so eine Fata Morgana, die so am Horizont irgendwie erscheint, aber so leicht ineinander wabernd und du weißt auch gar nicht, ist das jetzt irgendwie wirklich da oder ist das halt nur so eine Spiegelung aus dem Morgenland, wo du gar nicht mehr genau sagen kannst, ist jetzt dieser Button, der so Kreis mit Linie, Kreis mit Linie mit Buchstaben und daneben hast du Buchstaben mit Kreis mit Linie und dann hast du irgendwie noch drei farbige Pixel dran. Nichts an diesen Symbolen sagt irgendwie was aus. Nichts hat irgendeine Nennenswerte. Ich meine, es ist wirklich selten, dass du sofort sagen kannst, was es ist und vor allem dadurch, dass es so umrandet ist von so viel Kram. Und dann hast du sowas wie eine Diskette. Kein Mensch weiß heutzutage, was eine Diskette ist. Wenn ich anfange jetzt über Disketten zu reden, weißt du, was die dann alle sagen? Dann kommen die alle mit Boomer und alter weißer Mann redet vom Krieg.
Ja, aber es ist ein Symbol für etwas. Und das Symbol Diskette hat sich eben durchgesetzt für das Symbol, ich speichere etwas. Ob man dafür jetzt eine Schaltfläche braucht, wie es so schön heißt bei Windows, oder nicht, ist eine andere Diskussion. Und ich gebe dir recht, man braucht es nicht. Aber ich finde das Symbol Diskette zum Speichern per se jetzt nicht schlimm. Also auch wenn man heutzutage nicht mehr auf Disketten speichert.
Und meine Standardfrage ist immer, wie viele Klicks brauche ich, um wieder in der Windows 3.11 Optik zu landen? Denn es sind halt immer noch dieselben drei Klicks, wenn du irgendwo auf Geräteeinstellung gehst und dann Audio und dann erweitert und schwupps hast du wieder Windows 3.11 vor dir, so von der ganzen GUI, wo ich denke, oh Microsoft, wie viele Jahrzehnte Zeit hattet ihr mittlerweile, das auch einfach mal gerade zu ziehen? Egal. Also Also Icon-Design ist einfach ein super schwieriges Thema. Wir haben das ja auch in Ultraschall rauf und runter. Mit Malik habe ich da auch wirklich viel Zeit rein verbraten, wie machen wir unsere Ultraschall-Icons, sodass sie irgendwie Sinn machen. Und seit etlichen Jahren ist da eigentlich so der Weg, auf den sich alle einigen, ja du nimmst halt Font Awesome. Hatten wir das hier schon mal? Font Awesome?
Das ist eine gute Frage, ob wir das schon mal hatten als solches. Also Font Awesome kann man kurz sagen, ist halt so ein sehr populär gewordener Webfont, der auch ziemlich awesome ist, weil er eigentlich so alle wichtigen Symbole enthält, die man so gemeinhin in Web-User-Interfaces findet oder finden möchte.
Genau und es hat halt den Vorteil, es ist einfach mal gut designt. Es gibt etliches davon, was man frei nutzen kann. Es gibt etliches, was in der Pro-Version dann schöner oder besser oder elaborierter oder überhaupt erst vorhanden ist. Ich habe jetzt mal hier in den Chat reingeworfen, die Icons in Font Awesome Version 5. Ich glaube mittlerweile gibt es auch die 6er Version, bin ich ganz sicher. Zum Thema Save, also speichern. Die ersten vier sind Disketten. 3,5 Zoll Disketten.
Aber ich sag mal so, Allegorien für ein Icon-Design zu finden, die klar machen, was gemeint ist, findest du, wenn du auf die Homescreen vom iPhone findest, sofort jede Menge. Länge. Telefonhörer sehen nicht mehr so aus wie das Telefon-Icon. Briefe, wenn du sie physisch verschickst, sehen vielleicht noch so aus wie das Mail-Icon, aber E-Mail hat noch nie so ausgesehen. Und Kameras sehen auch nicht mehr so aus.
Danke. Und ja, weiß ich nicht. Auf die Schnelle habe ich jetzt nicht mehr gefunden. Aber was ich sagen will, ist, das Icon soll was darstellen, was man wiedererkennen kann als Allgemein-User. Und eine Diskette ist etwas, gut, das ist jetzt aus der Zeit gefallen, gebe ich zu. Ich weiß nicht, ob meine Kinder schon mal eine Diskette in der Hand hatten.
Ja, also Tim, du musst einfach mal sagen, da hat Roddy jetzt einfach mal echt gewonnen. Das war ein super Argument von ihm. Nein, aber ich meine bei… Das war so Apple höchst selbst auf seinem Homescreen von seinem Premium-Produkt. Das erste, was du siehst, sind veralterte Technologien, die es überhaupt nicht mehr gibt. Das stimmt doch gar nicht.
Damit du das Ding nicht verkehrt rum reinschiebst. Und die abgeschrägte Ecke bestimmt, in welche Richtung dann die Tür aufgeschoben werden muss. Und wo der Schlitz ist und so weiter. Also ich weiß nicht, vielleicht haben sie es inzwischen gefixt, aber es gab auf jeden Fall Word-Versionen. Da war die Tür, die du aufschiebst, damit der Schreiblesekopf an die Diskette rankommt, war verkehrtrum auf diesem Symbol drauf. auf?
Ja, trotzdem die 3,5 Zoll Diskette ist einfach etwas, das begleitet, hat uns, sagen wir mal, aktiv begleitet von, wann kam das mit Windows wirklich, also der Mac hat das halt von Anfang an gehabt, aber ich würde mal sagen, also, Ende der 80er Jahre, weil da war ja dann noch noch irgendwie 5,5 Zoll. Was?
Auf jeden Fall haben die den Namen Floppy wirklich verdient gehabt, während ja diese 3,5 Zoll war ja sozusagen Floppy in der Hidden Case. Naja, auf jeden Fall, mein Punkt ist nur, dass überhaupt das Speichern so ein eigenes Symbol verdient hat, das das fand ich schon immer völlig daneben. Also es war einfach so eine normale Funktion, die man nicht irgendwie suchen muss.
Das Problem ist halt, wenn du dann doch mal irgendwie einen Button für Speichern haben willst, ist es schwierig, was Vernünftiges anderes zu machen, weil dann landest du sofort immer in dieser Download-Ecke. Das ist auch das, was ihr bei Podlove beispielsweise habt. Da habe ich mich gerade auch mal nebenbei geguckt, ob ihr denn nicht sogar da einen Save-Button habt. Da ist natürlich ein Download-Button, weil es ja auch ein Download ist an der Stelle. Also Pfeil nach unten und dann irgendwas, wo das so reingespeichert wird. Das ist so das, was einem noch am ehesten dann als Alternative zur Diskette immer einfällt. Aber es ist semantisch meistens halt nicht exakt das Richtige. Also außer der Diskette haben wir halt auch nichts.
Ja und MacOS hat ja auch versucht, wenn auch nicht besonders erfolgreich, finde ich, das Speichern auch so ein bisschen ungeschehen zu machen. Dahingehend, dass man quasi von so einer permanenten Persistenz ausgeht, dass du gar nichts speichern kannst. Aber es funktioniert auch nur so begrenzt gut. Na gut, ich wollte das auf jeden Fall mal angesprochen haben.
Okay, dann wollte ich auf den zweiten Punkt kommen, den du getriggert hast, weil du hast halt irgendwie von Veranstaltungen gesprochen und es stehen ja jetzt auch in diesem Jahr wieder Veranstaltungen an, die ich auch vorhabe zu besuchen. Unter anderem das Electromagnetic Field in England. Also das ist quasi die englische Variante des Camps. Ich weiß nicht, ob ihr davon schon mal gehört habt. Habt ihr?
Es gab diesmal wieder eine relativ einfach gehaltene Badge von der elektrotechnischen Seite aus. Das war, wenn ich die Schaltpläne richtig gelesen habe, im Wesentlichen ein Schwingkreis mit Countern, wo dann LEDs dran waren. Aber es waren sehr viele LEDs und die Badge selber war unheimlich schön gestaltet mit so einem Hasen, der in so einer Cyberpunk-Welt unterwegs ist. Und das Platinenmaterial ist so gewesen, dass es nicht an allen Stellen durchgefärbt war, sodass wenn man die LEDs, das waren alles so SMD, so Surface Mounted LEDs, wenn man die auf der Rückseite ran gelötet hat, haben sie quasi wie durch so Milchglasfenster durch die Platine durchgeleuchtet, sodass man den Hasen hatte und so Reklame, die so blinkt und so weiter. War wirklich, wirklich schön gemacht. Und dazu gab es dann noch eine Art Schnitzeljagd, wo man dann noch weitere Teile bekommen konnte, die man dann noch oben drauf gemacht hat, sodass aus dem Hasen dann so ein Cyberhase wurde. Ich weiß nicht, wie ich das erklären soll.
Okay, so ein Badge halt. Und das ist aber so das, was ich oft sehe. Also auf diesen Veranstaltungen werden dann immer so blinkende Dinger, also in den letzten Jahren wurde viel geblinkt, Dann gab es auch mal auf dem Camp, gab es dann so, ja jetzt ist das hier so ein Software-Defined-Radio und dann kann man irgendwie krasse Sachen mit programmieren und dann ist das so ein Funk-Device und das geht dann alles so ein bisschen in diese Richtung Flipper-Zero, dass du so ein Universal-Hacker-Tool hast. Nur, was mich immer daran gestört hat ist, ich meine, wenn ich auf so ein Open-Air-Festival gehe, was ist mein Hauptproblem? Was ist das Problem, was alle Leute immer wieder auf solchen Veranstaltungen haben?
Wo ist meine Gruppe? Wo sind die jetzt hin? Ich habe sie verloren. Scheiße. Jeder hat dieses Problem. Es lässt sich mit Telefonen auch nur begrenzt lösen, mittlerweile in zunehmendem Maße besser, aber es ist immer dann schwierig, vor allem wenn diese Events jetzt nicht vom Chaos Computer Club ausgerichtet werden und du überall super funktionierendes WLAN und immer Internet und Always On hast und dann kannst du halt so hier wo ist auf deinem Telefon benutzen oder dich mit Telegram tracken oder keine Ahnung Google Maps und so weiter. Nur, wir wissen ja auch alle, diese Dienste sind dann wieder so super aufwendig und dann funktioniert es doch wieder irgendwie nicht und dann musst du aber auch irgendwie dein blödes Telefon dabei haben und so. Ich dachte mir immer so, warum gibt es denn keinen Badge? Für so eine Veranstaltung, dessen Kernfunktion ist, da ein größeres Problem zu lösen. Nämlich irgendwie datenschutzsensitiv, Privatsphäre orientiert, die Möglichkeit zu geben, meine Peergroup zu finden und auch dynamisch zu bestimmen, wer gerade meine Peergroup ist. Wer kann mich jetzt eigentlich gerade sehen? Will ich jetzt überhaupt gerade gesehen werden oder möchte ich jetzt hier mal nicht teilen, wo ich gerade bin? Kann ich auch sagen, dass ich jetzt auch gerne gefunden werden möchte? Also dass man so einen expliziten Modus angibt.
Ein Inkognito-Mode. Also ich möchte gerne, ich laufe rum und ich möchte gerne, dass alle also ich mache mich public. Also ich bin sozusagen auch vielleicht jenseits meiner Peers. Oder ich sage nur meinen Peers, ich möchte jetzt gerne gefunden werden. Oder ich sage meinen Peers, kommt mal alle hierher, wo ich bin, da ist geil. Irgendwie sowas. Und das Hauptproblem ist natürlich erstmal, dass ich immer gedacht habe, ja, aber mit welcher Technik baut man denn das? Ich habe immer gegrübelt und gegrübelt und gegrübelt und jetzt bin ich erst vor kurzem auf so ein Bastelprojekt gestolpert, wo jemand genau sowas gebaut hat und ich dann festgestellt habe, scheiße, das gibt es jetzt irgendwie auch schon seit einiger Zeit als kommerzielles Produkt ohne Ende. Was braucht man? Man braucht GPS.
Vielleicht auch noch mit Bluetooth-Beacons kann man das noch supporten, aber im Prinzip eine GPS-Location, die ordentlich funktioniert, also ein ordentlicher GPS-Empfänger tut es schon ausreichend. Also auf so einer Veranstaltung muss ja jetzt nicht auf einen Zentimeter genau geortet werden. Und wenn du nicht GPS hast, vielleicht hast du ja auch Galileo noch gleich mit drin, dann ist es halt auch gleich nochmal genauer.
Ja GLONASS funktioniert glaube ich nicht mehr so gut, aber so Galileo wäre schon ein Feature. Aber ist egal, es geht jetzt erstmal nur darum irgendwas nehmen, was halt Satellitennavigation unterstützt und diese Empfänger gibt es ja. Und jetzt ist das Problem, wie kommunizierst du das raus? Und was halt auf gar keinen Fall funktioniert, ist halt, wenn WLAN oder LTE oder ein anderes Gerät in irgendeiner Form erforderlich ist, dann kannst du das Projekt sofort vergessen.
Nee, es gibt eine viel einfachere Lösung und die heißt LoRaWAN. Wir haben hier Lorawan auch schon ein paar Mal besprochen. Ich habe jetzt gerade vergessen, wer von unseren Gästen sich da auch aktiver mit auseinandergesetzt hat. Luca war das glaube ich, der war gerade in so einem Lorawan-Projekt. Und Lorawan ist halt dieses Wide Area Networking. So, mit LoRaWAN, das ist so für kleine Sensoren, die irgendwo rumstehen und irgendwo Temperaturen oder Wasserstände messen und die mit relativ wenig Strom, ein bisschen Solar gepowert, einfach über viele, viele, viele Kilometer ihre Messdaten einfach irgendwo hinschießen und das wird dann eingesammelt. Also auch nur ein Einsatz dieser Technologie. und genau diese Festival-Tracker gibt es LoRaWAN GPS und damit ist eigentlich schon alles getan, also du musst natürlich jetzt noch in irgendeiner Form ein User-Interface, dem Ganzen hinzufügen, um sozusagen auch zu sagen, okay, mit wem will ich denn das jetzt teilen und da kann man dann ein paar tausend Sachen nachdenken und NFC und Buttons und Displays und so weiter, oder du hast halt irgendwie nur so ein, tumbes Ding bei AliExpress kriegst du solche Dinger schon für irgendwie 50 Euro zum um umhängen. Da gehört dann aber wahrscheinlich noch irgendeine Software dazu, mit der du die dann registrieren musst, IDs oder keine Ahnung.
Naja, es gibt es nicht nur für Festivals, es gibt es auch für in Fabriken lokalisieren und so weiter. Du hängst einfach irgendwelchen Leuten um und so weiter. Aber ich bin auf so ein Bastelprojekt gestoßen. Also wer Lust hat, sich mal mit sowas. Auseinanderzusetzen, hier der Orin Coates auf YouTube, der hat da so zwei Teile ähm, wo er das Ganze mit so einem ESP32 realisiert und daraus dann sozusagen so einen Festivaltracker macht. Aber das ist das, was ich mir wünschen würde, dass so eine Open-Air-Veranstaltung einfach erstmal die Probleme der Leute löst und nicht immer irgendwie die Probleme der Leute, die gerade mal geile Hardware machen wollen und dann halt irgendwie die Festivalbetreiber reden, ja hier guck mal, es blinkt ja schön. Es ist schön, ich hab überhaupt nichts gegen Badges, die blinken und es ist Alles toll. Ich finde nur, wenn man das mit der Veranstaltung kombiniert, dann sollte man halt auch wirklich darüber nachdenken, dass das Teil ein Device ist, was für die Veranstaltung arbeitet oder zumindest indirekt, indem es für die Leute was beiträgt. Und dieses Wissen, wo bestimmte Leute sind zu bestimmten Zeitpunkten, ist einfach Gold wert, weil du einfach viel Zeit, Wege und so weiter ersparen kannst und viel mehr Kommunikation hast. Und dann kann man es ja auch spielerisch angehen. Also dass man eben wirklich so dieses, keine Ahnung, ich pair mich jetzt mal mit irgendeiner random Person und dann hast du dann sozusagen so ein James-Bond-mäßiges Piep-Piep-Device und wirst halt irgendwie magisch von irgendwelchen Leuten angezogen. Keine Ahnung, also das kann man ja dann alles ausprobieren, aber dazu braucht man erstmal so eine Technologie als Basis. Ich schmeiße mal die beiden Links dann auch mit in die Shownotes. Das ist jetzt wahrscheinlich auch nicht der einzige Ansatz, den es gibt, aber es ist jetzt mal einer, der mir über den Weg gelaufen ist und wo ich halt auch sagen muss, ja das ist so in etwa der Ansatz, den man verfolgen könnte. Also eine einfache Platine, GPS drauf, ein bisschen USB, Batterie und dann hängst du das Ding um und dann hast du irgendwie eine Lokalisierung in irgendeiner Form und dann kann man das nur noch beliebig aufbauen. Für so ein Event, ich meine heutzutage ist es ja absolut normal, dass man solche Platinen produziert, wo ein kleines Display drauf ist, ein bisschen User Interface. Auch bei dem EMF-Camp hatten die ja, also bei EMF muss man dazu sagen, das hatte ich dir bestimmt erzählt, also das Besondere beim EMF ist, dass da die ganze Veranstaltung schon so gedacht ist. Also es gibt beim EMF-Camp zum Beispiel die Devise, dass jede öffentliche Infrastruktur, die da ist, also wie zum Beispiel die Bar, aber auch alle anderen Orte, der Fahrplan und so weiter, alles hat eine API. Ja, also die Bar hat eine API. Und du hast so ein Batch bekommen, den kannst du in MicroPython programmieren und natürlich konntest du dann gegen diese Web-API von dem EMF-Camp programmieren und du konntest halt mit wenigen Zeilen Python-Code auf diesem Batch einen Code machen, der abfragt, wie viele Flaschen Mate sind noch vorrätig oder welches Bier ist gerade on tap.
Du kannst es für Quick-Poll-Votings während einem Talk einsetzen. Irgendwie zu sagen, wie viel Prozent von euch sind jetzt. Klar, kannst du auch alles als mit Handzeichen machen, aber eine relativ flexible Infrastruktur, wo du sagen kannst, wie fühle ich mich gerade, bin ich irgendwie in Meinung X oder Meinung Y, was habe ich irgendwie als nächstes vor, was auch immer.
Das hat natürlich auch alles so seine Issues, also gerade wenn du dann als Vortragender dann ständig von der Seite zugeraunt bekommst, so 80% finden gerade live deinen Talk total scheiße. Vielleicht auch nicht immer so hilfreich, also da muss man auch gut überlegen, wie so eine Technik dann wieder da umschwenkt, aber grundsätzlich gerne mal nachdenken.
Aber ich finde das eine super Herausforderung, diese ganzen, also wirklich auch Wege zu finden, wie man diese Daten, also wie man sozusagen das Credo vom CCC, also private Daten schützen, aber öffentliche Daten nutzen, also da sozusagen Nutzen draus zu ziehen, ohne dass jetzt für Einzelne daraus ein Problem entstehen kann, aber dass sozusagen alle was davon haben Und, Man eben auch individuell sagen kann, okay, ich möchte mich jetzt aber soweit hier irgendwie exposen oder so. Oder was weiß ich, ich möchte jetzt ein Hörertreffen machen auf der Veranstaltung, weißt du, und dann schalte ich mich halt in den Public-Modus und Leute können dann, was weiß ich, public meinen Ort abonnieren und wenn der freigegeben wird, dann piept's halt auch.
Du kannst nochmal in Slack gucken, ich hatte tatsächlich jetzt ein Bild gefunden von der Badge, also Bild ist jetzt übertrieben, aber wenn du da den, da Blinky Parts, da kann man die Bauteile bestellen und das zweite Bild sind die beiden Badges, also es ist die Badge und das sind die Zusatzbauteile, die man nach Lösen der Schnitzeljagd noch bekommen hat. und da sieht man halt diesen White Rabbit Follow the White Rabbit, keine Ahnung, ob das eine Anspielung da drauf ist, wie er da so in dieser Cyber, Welt da steht und im Hintergrund blinken so ein bisschen die Logos von der Straße durch, und genau und die Teile, die man noch drauf machen konnte, waren halt dann, wurde so ein Cyber Rabbit aus dem Rabbit Ja, wie soll ich das nennen? Also die war wirklich, es war vor allen Dingen eine ziemliche Zitterpartie, dass die Batch noch ankommt. Nachteil an der Easter Egg war gerade in Regensburg recht offensichtlich, da sind verdammt viele Feiertage um die Feiertage. Und wenn dann Dinge im Zoll hängen bleiben, hat man ein echtes Problem, ob man sie noch kriegt oder nicht. aber irgendwie hat es der Held doch noch hingekriegt und jemand ist dann nach München gefahren, um das Zeug abzuholen.
Ich muss ja auch sagen das mit diesen das wollte ich vorhin noch erwähnen was wirklich immer super war beim Easter Egg und zwar bei jedem bisher glaube ich, jeder Easter Egg hatte ein geiles Logo also es ist ja eigentlich immer ein Hase, aber in der ganzen Geschichte des Easter Egg hat sich irgendwie noch kein Hase wirklich, zweimal gezeigt und es gab immer wieder einen geilen Take auf Hase, also es war immer immer wieder ein anderer Spin auf diesem Hasen-Logo, faszinierend finde ich das also mich mal schwer beeindruckt dass das so einen hohen Level hat also es hat mittlerweile, ich würde sagen, ein Easter Egg-Logo Logo, Design, obwohl es klar ist, was es ist. der fucking Hase, aber der Hase kommt jedes Mal wieder anders rüber und immer gut und alle sind wirklich gelungen und das kann ich noch nicht mal von Kongressdesign behaupten.
Es gibt irgendwo eine Enzyklopädie der Zahlenreihen im Internet, wo du natürlich nach diesen Zahlen suchen kannst. Ich weiß nicht genau, wie die heißt. Die ist bei Numberphile, kommt die manchmal vor. Wo sie dann irgendeine Reihe dann mal suchen und mal gucken. Ich weiß jetzt auch nicht aus dem Kopf, wie die heißt, aber es gibt diese unglaublich vielen Zahlenreihen.
Okay, ohne jetzt zu sehr vom Thema abzukommen, machen wir das Kapitel mal zu. Also Festival-Tracker, Leute, ich würde mich sehr freuen, wenn die Community da mal liefert. Also ich finde einfach, es muss so ein geiles Device geben, ohne zentralen Server funktionieren, meinetwegen mit einer Companion-App, um das Ding zu konfigurieren, idealerweise, aber halt direkt am Tracker, irgendwie Open Source und vielleicht ist ja das Projekt von dem Oren Coates auch irgendwie zum Beispiel dafür geeignet oder man überlegt sich nochmal einen anderen Formfaktor. Aber es darf halt auch nicht so fett sein. Man muss es halt irgendwie bequem an den Gürtel klemmen können. Man kann sich das gerne auch umhängen. Es darf auch gerne blinken. Aber ich finde, die Bädchen sind auch einfach zu groß geworden. Das sind ja mittlerweile komplette 30-Zoll-Fernseher, die man sich da irgendwie umhängen soll.
Ich hatte also unser ganzes Setup mit dabei, dass wir also alle vier da wieder friedlich spielen konnten. Und das hat ganz gut funktioniert. Wie überhaupt der, ich noch zu keinem Thema, was ich irgendwie mitgebracht hatte, so viel Feedback bekommen habe, wie zu der Minecraft-Geschichte letztes Mal. Allerdings das ganze Feedback immer nur auf Mastodon und ich glaube kein einziger davon irgendwie bei uns im Blog und klar gerade auf Mastodon bin ich natürlich auch gerne unterwegs und dann hat man doch schnell die Debatte, aber ich möchte bei solchen Themen, gerade weil es dann viele hilfreiche Hinweise gab, so auf, müsste man nicht nochmal XY mit erwähnen. Sowas hat natürlich eine viel höhere Halbwertszeit und einen besseren Longtail, wenn man sowas im Blog vielleicht reinschreibt. Also überlegt euch doch mal in Zukunft Wenn ihr irgendwo gerade so Verbesserungsvorschläge habt oder Hinweise auf andere Geschichten. Klar, man kann mich immer total gerne auf Mastodon anquatschen, aber bei uns im Blog zu den Folgen, da kann man halt auch in einem Jahr noch gut recherchieren. So, was war denn da eigentlich nochmal los? Vielleicht das nochmal so als Hinweis. Es hat sich aber so oder so gelohnt. Ich habe jetzt mittlerweile die 1.3 Version schon online von dem Text und ich hatte vorhin nochmal geguckt, da haben schon knapp 15.000 Leute drauf geguckt. Also es hat scheinbar einen Nerv getroffen. Das ist gut.
Zum einen ein paar Unschärfen, die ich drin hatte, wo ich also Sachen einfach zu kurz beschrieben hatte, die nochmal etwas weiter kamen. Es gab in der Tat keine, also insgesamt waren es so 20, 30 Rückmeldungen. Es gab keine einzige, die irgendwie quasi aus der pädagogischen Ecke kamen mit irgendwie, oh mein Gott, die armen Kinder und viel zu jung oder sowas. Komplett gar nicht.
Ja, scheinbar. Scheinbar leider auch sehr viel zu wenig Mütter. Ich hatte, glaube ich, sofern es denn zuordnen war, glaube ich fast ausnahmslos Väter, die sich gemeldet haben. Das finde ich natürlich etwas schade, aber kann ich jetzt hier und heute auch nicht so richtig gut ändern. dann. Es gab einen Hinweis auf quasi die Open-Source-Variante von Minecraft. Mein Test heißt die, glaube ich, wenn mich nicht alles täuscht.
So, wieso ich das denn nicht bewerben würde und das sei doch wenigstens wirklich frei und dann werden die Kinder nicht in irgendwelchen World Garden und sowas. Ja, das stimmt stimmt schon alles, aber es läuft halt nicht auf der Switch und es läuft halt nicht auf dem iPad, was halt irgendwie schon da ist. Und dann den Schritt zu gehen und zu sagen, ja, das sind halt alles keine Geräte, die in Kinderhände gehören, weil die sind ja nicht frei und die sind ja nicht offen. Das kannst du schon so machen, aber hat dein Kind an der Schule vielleicht dann auch nicht so viele Freunde, um dann zu sagen, ja, aber dann musst du die ganze Klasse... Ja. Also, wer möchte, schaut es euch an. Ich glaube, es ist in der Tat ganz cool, aber es war jetzt einfach überhaupt nicht mein Use Case, den ich halt irgendwie bearbeiten wollte da an der stelle und dann gab es noch einen den habe ich dann auch jetzt relativ prominent bei mir rein verlinkt. Der nochmal genauer beschrieben hat, wie man sich eigentlich selber mit einem Docker-Container einen eigenen Minecraft-Server aufsetzen kann, ohne dafür also jetzt irgendwie einen der Dienstleister nehmen zu müssen, sondern für die Fraktion, die es alles komplett selber unter der Haube haben möchte. Da gibt es auch eine schöne Anleitung, die ist jetzt auch in meinem Text unten drin verlinkt. Das waren die wesentlichen Ergebnisse. Und einen schönen Cheat gab es noch für diejenigen, die gerne mit Monster-Modus spielen wollen und wo alles ordentlich aufregend ist und trotzdem den Frustfaktor niedrig halten wollen. Den kannte ich auch vorher noch nicht und der ist in der Tat Gold wert. Es gibt einen Sheet, womit man nach dem Sterben sein Inventar behält. Das ist also der große Schmerz, oh mein Gott, wie komme ich jetzt wieder zu meiner Leiche zurückgelaufen und sie ist in der Lava kaputt gegangen und da ist drei Viertel der Auflösung, obwohl ich die Leiche gefunden habe, ist trotzdem nichts mehr da. Ja, diese ganzen Frustmomente, die sind dann raus, sondern man macht dann quasi einfach halt bei sich im Dorf weiter. Also das ist für Kinder, glaube ich, nochmal eine sehr gute Zwischenstation. Zwischen alles ist total easy und friedlich auf der einen Seite und alles ist ganz schrecklich und aufregend auf der anderen Seite. Das war nochmal ein total hilfreicher Tipp. Naja, Version 1.3 ist online. Schaut rein. Habt Spaß.
Ich hatte da vorher schon mal was von gehört. Das ist halt ein Framework, auf dem du dann quasi selber auch Szenarien aufsetzen kannst. Das ist natürlich schon ganz spannend. aber du musst es dann halt auch tun. Es gibt, glaube ich, auch ein quasi Add-on, was dann schon versucht, relativ genau Minecraft nachzubilden, so von den ganzen Mechanismen her, aber halt auch immer nur bis zu einem gewissen Grad. Müsste man sich jetzt aber wirklich nochmal im Detail angucken. Aber das ist, glaube ich, schon eine relativ kräge Community. Also das ist jetzt nicht irgendwie so eine Ein-Personen-Frickel-Geschichte, sondern das hat schon, wird auch an Schulen eingesetzt, habe ich nochmal recherchiert. Wo dann also dann Schulen quasi Projekte bekommen, Achtung, so mit mit meinen Tests als Grundlage machen wir jetzt XY und machen noch ein bisschen Programmierung dabei. Ich glaube, das ist schon total sinnvoll. Es passt jetzt nur einfach schlicht nicht in meinen Use Case rein.
Und ja, und der macht seit, ich glaube, etlicher Zeit macht der so, Kurzfilme eigentlich, so 10 Minuten, 15 Minuten Dinger, in denen er aber irgendwann auf den Trichter gekommen ist, eine durchgehende Geschichte zu erzählen und alle paar Monate setzt er sich hin und schneidet dann diese ganzen, Einzelhäppchen zu einem nicht nur einen, sondern mehrere abendfüllende Spielfilme zusammen. Also Spielfilm in Anführungszeichen, ja, aber er hat Musik, er schneidet, er hat. Kamerafahrten und Bewegung, die du ja in Minecraft quasi skripten kannst, mit externen zweiten Player, der dann halt irgendwelche Movements macht und sowas und er hat halt auch eine Story und eine Dramaturgie und da sind jetzt mittlerweile als Film sind dort erschienen Die Farm, Das Dorf, Die Burg, Die Mine und Das Bergdorf. Als nächstes wird rauskommen Die Insel. Und das kann man sich selbst als Erwachsener ganz gut angucken. Meine Kinder sind total geflasht und total begeistert. Weil also wirklich halt, es ist nicht ganz Game of Thrones, aber es gibt schon Intrigen und Fallen und Hinterhalte und es gibt sogar so ein richtig so ein Epic Internet Moment, wo also dann das Dorf in größter Verzweiflung ist. Sein Dorf ist niedergebrannt von den, Räuber schergen und er hat sich irgendwie da seine ganzen Truppen zusammengebaut und die taugen aber natürlich alle nichts und seine Frau schickt ihm dann Verstärkung und dann siehst du als jemand, der halt Minecraft spielt, das sind dann plötzlich echte Player. Das heißt, er hat dann plötzlich eine Riesenarmada von 30 Leuten, alle in Diamantrüstung, die also echt live auf seinem Server, während er quasi den Film mitdreht.
Das ist in der Tat ganz gut. Ich meine, diesen Trend habe ich ehrlich gesagt schon vor ein paar Jahren, da hatte der sich schon mal angedeutet, aber nie so richtig erfüllt, dass man quasi so Spielfilme mit den Fähigkeiten von Animationsprogrammen mehr oder weniger so im Handwerksmodus zu Hause baut. So. Hat nie so richtig, also gibt's, aber kam nicht in der Menge, wie ich's mir gedacht habe.
Ja, also das ufert bei ihm ein bisschen aus. Also dieser erste Teil, hier die Farm, die hat glaube ich, wie lang ist der? Zwei Stunden, jetzt sein Netz hat schon viereinhalb Stunden. Aber es ist dann auch auf so einer langweiligen Autofahrt so, kannst du Kinder glaube ich auch schlechter beschäftigen. Vor allem ist es etwas, was also beide jetzt bei mir, einer bald fünf Jahre, einer sieben Jahre und darauf konnten sie sich total verständigen. Kein Streit ums iPad. It could be worse. Okay.
Das Verkaufen war insofern schlimmer, als es eine Weile gedauert hat, bis ich einen Händler gefunden habe, der es auch haben wollte. Zumindest zu einem realistischen Preis. weiß, einen Händler zu finden, der mir ein neues Auto verkauft, ist relativ einfach. Trotzdem hatte ich gewisse Vorstellungen, deswegen ist es dann auch ein Händler in Detmold geworden. Das ist 450 Kilometer von hier, wo das genau ist, weiß ich nicht.
Ja, sag ich doch. Nein, das war jetzt ein bisschen gemein. Insofern, weil ich bin also mit dem ICE bis Bielefeld gefahren und von Bielefeld aus fuhr da nur so eine komische nicht-deutsche Bahn, Eurobahn heißt die. und dann war aber auf der Strecke waren Bauarbeiten, weil sie irgendwie eine Weiche getauscht oder eingebaut haben oder irgendwas und dann hatten sie einen Schienenersatzverkehr mit Bus und dann war für den ganzen Zug aber auch nur ein Bus und also es war schwierig nach.
Das ist ein relativ helles, es ist eine echte Farbe. Also es gab dieses Auto scheinbar nur in Weiß, Schwarz und Grau, was für mich alles drei keine Farben sind, sondern nur Grautöne. Und dieses Türkis ist halt die einzige Farbe da gewesen. Und deswegen wollte ich den halt unbedingt mit dem Türkis haben. Weiße Autos sind immer dreckig.
Genau und das Schöne an dem ID.3 First war, dass es den nur in drei Ausstattungsstufen gab. ab. Also nix Konfigurator, sondern tatsächlich nur fast so Tesla-Style. Nur drei Ausstattungsvarianten, die du aussuchen konntest. Außerdem noch irgendwie die übliche Diskussion um die Felgen und die Farbe halt. Und das kommt einem dann schon entgegen, weil wenn du irgendwie alles, was aus dieser Konfigurator-Hölle von VW rauskommt, da musst du ja genau aufpassen, dass alles das dabei ist, was du haben willst. Und so habe ich jetzt einfach gesagt, ID.3, First, Max. Max ist die oberste Ausbaustufe. Da ist halt alles drin, was sie anbieten. Fertig. Und jetzt habe ich Features entdeckt, von denen ich nicht wusste, dass ich sie haben wollte oder dass ich sie vielleicht auch je brauchen werde. Jetzt zum Beispiel Sitzmassage.
Also ansonsten jetzt im Gegensatz zur Zoe sind eigentlich fast alle Sachen besser. Also das Ding hat mehr Reichweite, macht realistisch Schnellladen, angeblich bis 130 Kilowatt, aber ich habe jetzt auf dem Rückweg von Detmold nur einmal zwischenladen müssen. Und da war das Auto auch noch nicht wirklich leer, weil ich musste halt aufs Klo und dann war da eine Schnellladesäule und deswegen hat er etwas über 50 Kilowatt gemacht, was aber auch okay war, ich musste mich trotzdem mit dem Kaffee beeilen. Naja, er hat mehr Power, jetzt hat er so Sachen wie Abstandstempomat.
Also das ist wirklich, ja, das ist glaube ich auch die einzige automatische Funktion, die man wirklich braucht. Alles andere nervt mega. Also so völliger, ich übernehme deine Steuerung, würde mich ja in den Wahnsinn treiben und was ich schon völlig, total Helikopter-Eltern mäßig finde, sind ja diese Spurhalteassistenten.
Abstandstempomat ist schon sehr geil. Also besonders auf der Autobahn, wo man halt dann einfach so schnell hinter dem anderen herfährt, wie er fährt. Und wenn er halt nicht ganz das fährt, was man eingestellt hat, dann hängt man halt hinter dem und das ist auch okay. Okay. Er hat eine bessere Rückfahrkamera und vor allen Dingen hat vorne Sensoren. Die Zoe hatte vorne keine Sensoren. Das hat eine Weile gebraucht, bis ich mich getraut habe, so weit nach vorne an ein anderes Auto ranzufahren, wie auch ging. Ich weiß noch, das erste Mal, als ich das Teil eingeparkt habe, dachte ich, du hängst dem anderen irgendwie vorne drauf, das ist jetzt echt knapp, steig aus, das ist ein halber Meter Platz.
Nee, nee, nicht auf der Autobahn. Also wenn du Einpark-Sensoren auf der Autobahn benutzt, dann, ja, okay. Ja, so Sachen wie eine geteilte Sitzbank hinten, eigentlich auch ganz praktisch. Was geil ist, sind die automatisch abblendenden Spiegel. Also wenn jemand nachts von hinten leuchtet, dann macht er die halt dunkel von alleine. Das ist schon auch sehr geil. Ja, dieses ID-Light-Lichtgedöns im Innenraum, muss man wollen, mich stört es nicht, ist halt überall bunte LED. Und dann hat man vorne diesen komischen Streifen.
Genau. Direkt unter der Windschutzscheibe ist so ein LED-Streifen, der ist jetzt nicht besonders auffällig und auch nicht besonders hell. Das ist okay. Wenn das Navi sagt, du sollst jetzt rechts abbiegen, dann läuft halt so ein blaues Leuchtlicht von links nach rechts durch, um dir anzuzeigen, dass du jetzt nach rechts abbiegen sollst zum Beispiel. Wenn du das Ding lädst, dann zeigt er dir vorne quasi einen Ladebalken an.
Nee, das tut er natürlich nicht. Er zeigt außerdem auch da Pfeile nochmal an, wenn du abbiegen sollst und solche Sachen. Da zeigt er halt Geschwindigkeit an und so Tempomat und Spurhalteassistent, diese ganze Symbolik da rundum. Genau, das ist, das war es dazu. Jetzt war deine Frage, das Menü, das User Interface, also wie gesagt, da ist ja jetzt die aktuelle Software drauf, die ist, soweit ich das bis jetzt beurteilen kann, fehlerfrei. Ich habe zumindest noch nichts gesehen, was eindeutig nach einem Bug aussieht. Ansonsten das Menü. Naja, es gibt viele Leute, die regen sich über die Tasten am Lenkrad auf. Aber da ist es tatsächlich so, dass die meisten Tasten nicht reine Sensortasten sind, sondern du musst auch drücken. und die geben dir dann haptisches Feedback, so ähnlich wie die Trackpads auf den neuen Macs, dass sie von unten gegen klopfen. Ja, man kann jetzt lange diskutieren, ob das geil ist oder nicht, aber es stört mich nicht, also es ist okay. Was tatsächlich ein bisschen weird ist, ist an dem Mitteldisplay ist, unter dem Mitteldisplay sind nochmal. Sind noch mal bedienelemente und zwar quasi so eine rinde wurde dem mit den finger rein tun kannst wurde in der mitte laut leise machen kannst du entweder außen text oder oder mit dem finger hin und her wischst in dieser ring drin und außen noch mal für die heizung jeweils wärmer kälter dinger und was da ein bisschen merkwürdig ist sie nicht beleuchtet und, Also man muss dann wahrscheinlich das Auto eine Weile fahren, um intuitiv zu wissen, wo muss ich den Finger hinlegen, dass ich die richtige, Funktion auslöse, weil sonst wird es nicht gehen, wenn du nachts fährst. Ansonsten, ja, es hat halt Carplay. Carplay ist auch erstmal gewöhnungsbedürftig. Am Anfang, es gefällt mir aber inzwischen auch sehr gut. Also das tut einfach. Und was halt wirklich schön ist, ist, dass das Navigationssystem, das eingebaut ist, eben in dieses ID-Light, diese Blinkelleiste und das Head-Up-Display und so weiter alles integriert ist, sodass du wirklich gut geleitet wirst, ohne dass du ständig irgendwo hingucken musst. Also es ist so genau das Gegenteil von Model 3, wo du irgendwie immer nach rechts gucken musst, wenn du irgendwas wissen willst, kriegst du es halt bei dem direkt vor dir einprojiziert als Head-Up-Display. Das finde ich, ja, cool. Achso und dann hat es ein Panoramadach, das wäre mir jetzt nicht so wichtig gewesen, aber das ist halt irgendwie, das ist halt mit dabei.
Ich finde Panoramadecher finde ich sehr praktisch. Gerade wenn man irgendwo sich in so einer Stadt orientieren muss und du bist auf der Suche nach etwas, was hoch ist. Also was weiß ich, ein Schild oder ein Haus oder eine Sehenswürdigkeit und so und dann kannst du halt einfach durchs Dach gucken. Ist schon okay.
Also es gibt so ein paar Sachen, ein paar Kleinigkeiten, die tatsächlich schlechter sind als bei der Zoe. Wer hätte es gedacht. Das eine ist, was mich total nervt, es ist halt kein Nasenlader. Also du hast den Ladeport nicht vorne, sondern der ist auf der Beifahrerseite hinten. Also immerhin ist auf der Beifahrerseite, nicht wie bei Tesla auf der Fahrerseite, ist ja völlig bekloppt, wenn du irgendwo am Straßenrand stehst, willst laden, musst einmal das Kabel übers Auto werfen.
Ja, wie gesagt, nur wenn du also die Ladung beenden willst und das finde ich das Absurdeste daran, es gibt weder auf dem Keyfob gibt es einen Button, noch gibt es auf dem Armaturenbrett irgendwo einen Button, sondern nur tief in, also es gibt so ein Ladescreen, aber wenn der halt nicht angezeigt wird aus irgendwelchen Gründen, ist es halt tief.
Und das ist jetzt wirklich Jammern auf hohem Niveau. Bei der Zoe hat so Gaszylinder an der Motorhaube. Also wie bei der Heckklappe, du machst sie nach oben und bleibt oben und dann drückst du wieder zu und es ist zu. Und der ID.3 hat so dieses ist es mit so einem Ding, was man so ausklappt und einhängt, damit die Motorhaube offen bleibt.
Die App ist einigermaßen okay. Sie funktioniert soweit. Zeigt den Ladestand an. Du kannst auch sagen, ich möchte mir jetzt irgendwie einen Ort aussuchen, wo ich hin navigieren möchte und dann die Navigation aufs Auto übertragen oder zumindest den Zielpunkt. Wesentlich mehr macht es nicht. Achso, doch, man kann auch die Klimatisierung einstellen und man kann sagen, hier morgen früh um acht soll das Auto bitte warm sein.
Kann ich, kann ich, also ich habe es noch nicht ausprobiert. Ja, hat er denn eine Wärmepumpe? Der hat eine Wärmepumpe, ja. Und mehr macht die App im Wesentlichen nicht. Das Einzige, was sehr merkwürdig ist, ist, wenn man die App einrichtet, wie habe ich es so schön beschrieben, also ich habe meine strategische Reserve an Zustimmungen anbrechen müssen. Weil wie oft man da gefragt wird, welche Daten jetzt an wen weitergeleitet werden dürfen, das ist...
Keine Ahnung, es war gefühlt ein Dutzend Mal. Für die Funktionen, ja, da brauchen wir aber auch ihre Zustimmung und dafür brauchen wir noch ihre Zustimmung und dafür brauchen wir, also keine Ahnung, jetzt geht's, weil es läuft, also lustigerweise kann man hier zu jeder Funktion, wenn ich jetzt, wie war denn das, wenn ich jetzt hier sage Abwärtszeiten, irgendwie gab es da so drei Punkte, die konnte man, ah ja, hier, dann gibt es hier so einen länglichen Screen, an wen diese ganzen Daten gehen. gehen. Also sie sind so fair und sagen es einem dann immer noch.
Also vielleicht liegt es auch ein bisschen daran, dass die Zoe halt auch nicht wirklich Power hatte und aber einen relativ langen Weg, den man dieses Pedal drücken konnte. Da konnte man relativ genau halt irgendwie sagen, Wie schnell oder wie viel Power man jetzt haben will und da ist es halt so, dass man da so, naja, ich weiß nicht, vielleicht ist es auch einfach nur Gewöhnungssache und in drei Monaten wundere ich mich, dass ich sowas gesagt habe. Ja, wahrscheinlich mit Sicherheit. Also ja, das, ja und wie gesagt, also bis jetzt habe ich keine, keine Bugs in der Software gesehen. VW hat es da ganz offensichtlich geschafft, das Ruder rumzureißen. Es war ja, es war ja ein großes Theater am Anfang mit ihrer Software für die ID-Flotte. Aber es ist okay. Also, Auto tut einfach.
Ich habe da mal was vorbereitet, genau. Weil es gibt ja durchaus Kritik an unseren Folgen, wo wir über die neuesten Errungenschaften der künstlichen Intelligenz, AI, irgendwelche Dinge vorstellen und diskutieren. Und wir sehen nochmal einen Audio-Podcast und dann reden wir über Bilder und versuchen es zu beschreiben und es gelingt mal mehr oder mal weniger und manchmal beschreiben wir auch einfach zu wenig. Das kann ich alles nachvollziehen. Darum machen wir jetzt mal was anderes. Jetzt hören wir uns nämlich Sachen an. Und zwar gibt es einen neuen Dienst, der heißt suno.ai. Suno ist, glaube ich, aus dem hindischen Sprachraum oder sowas. Relativ frische Bude ist das. Die gibt es seit, ich glaube, vierten Quartal 2023 Ende 2023 oder ein bisschen früher glaube ich, aber zumindest irgendwie Ende 2023 sind sie zum ersten Mal public gegangen mit ihrer Webseite. Jetzt im März ist die V3 gestartet, ihres Dienstes. Und was macht dieser Dienst? Er macht Musik. Musik. Zwar auf eine Ebene oder in einer Art und Weise, die schon ungewöhnlich ist und die wir so vorher nicht hatten. Wo ich sagen würde, das ist für die Musik jetzt der Mid-Journey-Moment. Das heißt also Mid-Journey wäre dann unsere KI-Bildgenerierung, haben wir hier besprochen. Stable Diffusion hatte ich damals. Und das, was mit Journey quasi für Bild und gestaltende Kunst ist, ich glaube, dass Suno und seine Nachahmer und seine Nachfolgegeneration genau diesen Moment ist, wo die Menschheit begreift, okay, auch im Thema Musik sind wir nicht mehr allein auf der Welt.
Hervorragend, das tun wir jetzt. Also, was macht dieser Dienst? Wenn man sich hier die Nutzeroberfläche anguckt, es gibt einen Simple-Modus und es gibt einen etwas komplizierteren, ich würde jetzt nicht sagen Experten-Modus, aber den habe ich jetzt mal angeschaltet, weil da ein bisschen klarer ersichtlich ist, was hier eigentlich passiert.
Es ist auf einer Webseite, genau, kann man jetzt einfach eintippen, suno.ai. Und als erstes kümmert man sich um den Text seines Songs. Man hat also jetzt hier ein Lyrics-Feld und da kann man entweder jetzt selber seinen Text reintippen, wenn man schon einen Text hat zu einem Lied und da nur noch Musik für braucht. Oder aber man kann Chat-GPT4-artig auch sagen, ich habe hier so einen Podcast, der heißt Freakshow, da sind drei alte weiße Männer, die über Technik reden, mach mir dazu mal einen Song. Und dann schreibt er einem einen Song dazu, zu dem, was man da gesagt hat.
Ich habe da jetzt so einiges am Start. So, also und ihr könnt euch vorstellen, so ein Tool ist natürlich in meinen glibberigen Händen. Das musste ich mal alles ausprobieren. Von daher habe ich da also jetzt sogar mal für einen Monat pro Account Geld raufgeworfen, das kostet 10 Euro, das ist gut zu verkraften und habe jetzt für die Freakshow mal ein paar Songs komponieren und schreiben lassen. Und da würde ich sagen, hören wir doch jetzt einfach mal rein.
Wir schauen mal. So, also das erste Beispiel, was ich jetzt mal reingebracht habe. Titel heißt The Neon Shadows. Der Stil, den ich vorgegeben habe, ich wollte eigentlich was haben im Stil der Depeche Mode späte 80er. Da sagt aber sofort, nein, Artists darf ich hier nicht annehmen. Das heißt also, die haben schon eine Schwelle drin, dass man zwar den Style beschreiben kann, aber du darfst keine Artists nennen.
Gute Frage. Ich habe halt nur den Rahmen vorgegeben in dem Sinne, wie ich eben gesagt hatte. Schreibe einen Song über einen Podcast, der Freakshow heißt und dann diese klassische Apple-Claim, der sich thematisch mit der Kreuzung von Technologie, Gesellschaft und Kunst beschäftigt. Das war der Prompt. Und da ist dann der Text und der Song und das Ganze halt im Stil 80s Synth-Pop-Darkwave. So, und dann fällt das dabei raus.
Nein, nein. So, das nächste ist mehr Frauen. Jetzt haben wir das Thema mal ein bisschen geändert, nämlich genau diese, ich schreibe einen Song über einen Podcast von drei alten weißen Männern, die sich über das Leben und die Technologie beklagen. Und das Ganze aber jetzt im Stil von Smooth Jazz. Und da kommt dann dieses hier raus und man achtet darauf, wie jetzt hier die Stimme umgesetzt ist.
Also was hier, finde ich, bemerkenswert ist, ist dieser quasi Turn oder diese Pointe in der letzten Zeile. But we can't help but love them, cause they say it straight and loud in the Freakshow. Das heißt also, hier hat die KI irgendwie, nachdem es vorher ja nur eine Beschreibung eben dieser Grumpy Old Man ist, wurde dramaturgisch quasi jetzt am Ende des Refrains nochmal irgendwo ein Spin eingefügt.
Ich bin jetzt bei dem Text geblieben, um auch zu gucken, wie in verschiedenen Musikstilen dann auch so die Phrasierung und Takt auf dem Text und so weiter funktioniert, um da quasi die Vergleichbarkeit hochzuhalten. Das heißt also, ihr müsst jetzt nicht mehr im Text groß rumgehen. Gucken wir doch mal an, wie das Ganze so im Reggae sich anhört. Und so weiter. Würde sich jetzt keiner beschweren, wenn man das jetzt so im Radio hören würde, oder?
Ja, pass auf. Ich finde das eine technisch verstörend gute Leistung, die ja schon abgeliefert wird. Aber was man sagen kann, es war bisher alles relativ wenig originell. Man könnte so genannt in dem, was man von generativen AIs bisher kennt, es leitet halt immer viel ab von dem, was irgendwo schon mal war und was schon mal ist. Und man hat auch im Prompt nicht so rasend viel Einflussmöglichkeiten halt darauf. Der Korridor ist relativ eng. Das heißt, sobald man anfängt, jetzt irgendwo ein bisschen spezifischer zu sagen, dann möchte ich irgendwie ein catchy Synth-Lied-Solo haben, dann kommt es halt so in einem von zehn Fällen mal irgendwie drauf vor. Aber man darf diese Diese KI ist halt dann auf der anderen Seite, glaube ich, auch immer nicht unterschätzen. Ab und zu passieren dann schon sonderbare Dinge und ich habe jetzt hier mal einen Song rausgenommen, wo ich dann doch etwas überstaut war. Du musst vielleicht ein bisschen lauter machen, mein Laptop, weil der Anfang ist etwas leise. Ich verspreche, es lohnt sich. Sag mir mal, was das jetzt für ein Musikstil ist, der jetzt kommt. Und so weiter. Das finde ich schon wild.
Metal-Volksmusik, ZDF-Fernsehgarten-Metal. Also klar, aber auch dieses Intro mit diesen drei unterschiedlich verzerrten Rap-Passagen halt. Wie kommt er jetzt da drauf? Also von daher, auch hier gilt, was ich ja häufiger sage, diese KIs müssen nicht in jedem Song perfekt sein. Wenn man nach 50 Mal drücken eine wirklich originelle Geschichte hat, ist es auch schon irgendwo ein Wert, der erreicht worden ist. Vielleicht ein bisschen zum Hintergrund dieser Firma, das sind vier Leute, die das betreiben, also keine große Bude, sondern wirklich relativ übersichtlich, die kamen vorher von einem anderen Startup und haben das jetzt in sehr kurzer Zeit hochgezogen, haben eine Menge Venture Capital angehäuft, auch in sehr kurzer Zeit, in irgendwie 53 VC-Runden, also alles irre und Microsoft ist draufgesprungen, wie die ja gerade auf so ziemlich alles draufspringen.
Wenn man sich bei Coden noch Musik generieren lassen möchte. Die Musikindustrie ist entsetzt. Es ist auch ganz interessant, sich die Rechte durchzulesen. Das heißt also, was darf man mit diesen Songs jetzt machen? Was gehört einem davon? Da ich jetzt die Pro-Version mir hier gebucht habe für einen Monat, dürfte ich damit jetzt Geld verdienen? Also ich darf das jetzt irgendwie mit einem Video-AI-Versehen auf YouTube hochladen und monetarisieren? Und die Musikindustrie ist halt jetzt natürlich in hoher Aufruhr und sagt, oh mein Gott, unsere Komponisten und so weiter. Ich glaube, die Komponisten haben derzeit, glaube ich, damit das wenigste Problem, weil also, wenn du gerade irgendwie keine Idee hast, schmeißt du halt 50 Mal das Teil an, lässt dir irgendwie was Lustiges basteln und baust dann darauf hin halt irgendwie so deinen Song. Das kannst du als Produzent ja total schnell machen heutzutage.
Vor allen Dingen, die bringen ja Sachen raus, wo dann irgendwie sechs Komponisten gelistet werden in den Credits und der Song ist komplett nichtssagend und man fragt sich, was haben die sechs denn gemacht? Wozu braucht ihr denn so viele Köche, damit der Brei hinterher nach nichts mehr schmeckt? Also das ist so.
Also es ist auf jeden Fall wieder einer dieser Momente, wo ich vor einem Monat gesagt hätte, da ist die Technik noch nicht, das ist technisch nicht möglich, sowas zu machen. Und man kann sich mit einem freien Account ohne Geld, kann man da schon ganz gut mit rumspielen, zehn Songs pro Tag kann man damit generieren lassen. Ein bisschen ähnlich wie bei Midjourney bekommt man immer zwei Varianten. Das heißt also für deinen Text und deinen Prompt und deinen Musikstil kriegst du dann zwei verschiedene Songs rausgeworfen, Was auch ein ganz guter Indikator dafür ist, so wie dann der Interpretationsrange ist. Weil also, soweit man ein bisschen auf die Dörfer geht, musst du schon Glück haben, dass einer der beiden Varianten irgendwie was taugt. Aber wie gesagt, so das Gesetz der großen Zahl setzt sich da dann durch.
Also das gerade eben, da wollte, das war die Vorgabe Ballroom Rap. Ich weiß nicht, ob es die, vielleicht war das auch der Schlüssel zum Erfolg, dass da was Ungewöhnliches bei rausgekommen ist. Ich hatte mir ursprünglich sowas im Sinne von 50 Cent eigentlich irgendwie darunter vorgestellt, aber die KI war anderer Meinung. Gospel habe ich ausprobiert, funktioniert ganz gut. Northern Soul habe ich gemacht. Alles, was so im klassischen Pop-Bereich ist, geht sehr, sehr gut.
Ja, schöne neue Welt. Es sind halt auch nur zwei Minuten immer. Und immer halt dieser Ablauf, Strophe, Strophe, Chorus. Es gibt aber eine Continue-Here-Funktion, womit man dann quasi den nächsten Songteil dann nochmal dran generieren lassen kann. Das scheint mir aber alles noch so ein bisschen brüchig zu sein. Also der nächste Welthit ist dann dann auch noch ein bisschen schwieriger damit herzustellen.
Ja, also, ja. Wir hatten uns ja vorhin, ich weiß nicht, ihr wollt dieses Video mit diesem Human-Robot auch nochmal aufgreifen. Also, das hatten wir ja hier im Vorfeld kurz geschaut. Aber auch hier kündigt sich im Prinzip, wie schon in vielen anderen Bereichen, auch nochmal so das Uncanny AI Valley an.
Also der Sound ja, also mal so. Also je weniger los ist, desto besser klingt es. Also Piano Balladen würde ich sagen, sind nahezu perfekt, aber alles leidet unter der Kompression. Das heißt also, es hört sich jetzt schon noch so an wie nicht 44 1 Kilohertz, sondern so 22 Kilohertz. Also du hast schon eine Menge Artefakte drin, wenn du das über den Kopfhörer hörst. Aber das ist halt wieder so ein klassisches Problem. Ja, sicher, die ersten Versionen von Stable Diffusion, die konnten halt keine Finger an den Händen, so mittlerweile können sie es halt. Also gib denen noch ein halbes Jahr.
Ja, ja, gar keine Frage. Das ist mir vollkommen klar. Aber wenn du jetzt bewusst hinhörst und es dir wirklich drauf ankommt, dich sozusagen damit zu konfrontieren, also das kannst du jetzt nicht irgendwie neben einem Album von Kate Bush laufen lassen und dann, sagst du so, ja, kein Unterschied festzustellen. Da fehlt dann schon noch dieser letzte Schritt. Deswegen rede ich auch vom Uncanny Valley, weil Das ist ja dieser Effekt, wer den Begriff nicht kennt, aus 3D-Animationen, wo es darum geht, Menschen zu modellieren. Und es wurde immer besser, immer besser, immer besser. Und irgendwann kam es an diesen Punkt, wo die Akzeptanz aber abgerissen ist und wo dann irgendwie auch diese letzten paar Prozent nicht so richtig überschritten werden konnten. und man dann gesagt hat, nee, ist eigentlich viel besser, wenn ich bei so animierten Kram eben bewusst nicht versuche, genau super echt zu sein, sondern so, halbecht, so wie Pixar das ja immer schon gemacht hat und andere auch, weil es dann darauf auch nicht ankommt, weil man das dann schon irgendwie so, okay, das sieht jetzt animiert aus, aber es versucht nicht, mich zu betrügen, indem es versucht, so zu sein wie echt. Und hier ähm, Gibt es auf jeden Fall auch nochmal so ein Qualitätstal, was erstmal durchschritten wird, in dem Moment, wo du eben wirklich jetzt möchtest, dass es jetzt wirklich genau perfekt ist. Aber ich glaube auch, das ist wahrscheinlich kein richtig guter Vergleich, weil das wird wahrscheinlich durchschritten werden. Wir können ja mal kurz auch dabei bleiben, bevor wir vielleicht nochmal auf diese Roboter-Sachen eingehen. Weil ich hab, ich hab jetzt gerade nochmal rausgekramt, ich kann es vielleicht auch mal kurz anspielen, das ist ein bisschen doof, es ist so ein YouTube-Video, wo ein Plugin für Musiksoftware gezeigt wird und das Plugin heißt AI Vocals, also die Firma heißt Ace Studio, A-C-E, Ace. und die haben halt so ein Plugin rausgebracht. Ich weiß nicht, ob das jetzt irgendwie das Einzige ist seiner Art oder es hat schon mehrere gibt. Ich habe jetzt nur das kennengelernt. Und bin auf so ein Video gestoßen hier von diesem Dr. Mix. Das ist halt so ein YouTuber, der halt immer etwas überdreht, aber ganz interessant verschiedene Aspekte von Musik macht. Es gibt so verschiedene Kanäle. Ich spiele jetzt hier nochmal berühmte Lieder ein und so weiter. Und hier sind sie halt irgendwie dabei, dieses Plugin zu testen. Ich kann das nochmal kurz anspielen. Ich will es nicht komplett abspielen. Das ist irgendwie so ein 15-Minuten-Ding. Nur mal so schon mal einen allerersten Eindruck zu bekommen, weil er irgendwie hier damit anfängt, erstmal so eine Melodie, eine bekannte Melodie... Einfach nur mit MIDI einzuspielen. Also du fängst mit diesem Plugin irgendwie an. Ich hoffe, ich habe jetzt die richtige Stelle hier gefunden. Warte mal, ich muss mich ja hier kundigen. Ich muss mal kurz hier übernehmen. Ja. Ja. Das hätte ich jetzt auch mal vorbereiten können. Ich kann ja nebenbei noch kurz sagen. Worauf das hinausläuft, also sie versuchen halt hier sozusagen alle Features zu machen und das Ding ist halt in der Lage, so richtig AI-Vocals zu machen und zwar sowohl auf der Basis von Midi, also du gibst einfach nur eine Noten vor und dann werden die schon gesungen und dann kannst du das, Stimmtembre so krass beeinflussen, du kannst dem alle möglichen machst spannender, leg hier eine Betonung drauf, mach hier noch eine Atempause, also all diese ganzen Elemente kannst du einbauen und das ist schon irgendwie ziemlich krass. Gut, so, dann übernehme ich hier mal kurz den Screen, um mal zu gucken, ob ich das hier, abgespielt bekomme. Wie gesagt, ich mache nur ein paar kurze Ausrisse, weil ich das jetzt nicht vorbereitet habe. Ich habe gerade mal so eine Stelle gesucht und ich hoffe, die richtige gefunden. Ich springe hier einfach mal mitten rein. Nice. Jetzt spielt er das ein. So, und jetzt wird halt dieses Plug-In darauf geworfen und jetzt kommt die Stimme, die daraus entsteht. one octave down. Also das ist jetzt so sozusagen der erste Schritt, aber das wird dann einfach unfassbar gut nach einiger Zeit. Ich versuche mal hier so ein bisschen an die anderen Stellen zu springen, dass wir jetzt nicht diesen ganzen Dialog noch mit dabei haben. Nice. So, jetzt kommen wir jetzt schon so richtig diese ganzen Pausen Pausen mit rein und so weiter und so findet also hier so ein Refine statt. Und dann kannst du halt auch den Text, also das waren ja nur die Noten, jetzt wird der Text sozusagen reingeschrieben, dass sozusagen die Software auch weiß, was sie singen soll. So und wo haben wir das? Hier. Und dann diese just. Ja. Alright, let's listen. Baby, baby, when.
So, das war jetzt einfach nur kurz direkt in die Noten in der Software reingeschrieben, die Texte und so geht es dann irgendwie immer weiter. Was halt aber auch cool ist, es geht nicht nur mit Midi, also Tombre kannst du dann noch mit einstellen, alles mögliche, wie sehr die Stimme schwingen soll, das zeigen die halt jetzt hier in diesem Video sozusagen Ich würde sagen, wir verbessern das irgendwie die ganze Zeit, springen mal so ein bisschen nach vorne, dann kriegen wir wahrscheinlich nochmal so eine spätere Version davon mit. Ja. Ein bisschen mehr Energie zum letzten... Woanders? Ja, lass uns mal sehen. Ja, das ist gut. So, aber was richtig geiles ist, später spare ich jetzt den Rest, singt er ein Lied ein und das Plugin geht auf seine Stimme und es klingt danach wie das Original. Es ist wirklich unfassbar. Also es ist wirklich krass, was dabei rauskommt. Wenn ich jetzt gewusst hätte, dass Ralf hier mit dem Thema ankommt, hätte ich das nochmal genauer rausgeschnitten. Schaut's euch an, ist auf jeden Fall sehr interessant. Da geht gerade richtig was ab. So, und wenn die sich über Suno, Suno, Suno, Suno, Suno, AI schon aufregen. Die äußern sich aber auch zu dieser ganzen Diskussion mit, was ist denn das jetzt eigentlich? Ich meine, wir sind jetzt schon wieder an so einer Stelle, wo alle sagen so, oh mein Gott, AI wird uns alle ersetzen und man braucht keine Sänger mehr und so weiter. Also gar keine Frage, dass bestimmte Jobs von AI ganz gut aufgesogen werden. Ich denke da insbesondere an so Live-Translatoren und dieser Bereich. Alles, was mit Text und Sprache selber zu tun hat, wird schon ordentlich durchgerüttelt. Aber ich glaube, die Kreativität brauchst du am Ende trotz aller Tools immer noch. Aber für Supermarktmusik, also alles, was so free ist und low cost, das wird definitiv automatisiert werden.
Genau, das meinte ich. Ist das also ein nicht endender Pool natürlich an der Stelle. Genau, und dieses Gesangsmodul, die werden da was ganz ähnliches hinterhaben wie das, was du jetzt hier eben gezeigt hast. Die Technik ist da jetzt einfach soweit. Und Musik als solches ist natürlich relativ gut verstanden. Das kannst du im Großen und Ganzen durchrechnen. Solange du innerhalb der normalen Harmonielehre bleibst, ist das jetzt nichts, was besonders komplex wäre, sagen wir mal.
Ja, können wir machen. Das ging rum vor einem Monat oder sowas. Und heißt Figure01 oder 01 wie auch immer plus OpenAI und hat den Untertitel Speech-to-Speech-Reasoning und was man dort sieht ist ein humanuider Roboter. Der, glaube ich, so mäßig flexibel ist, aber sehr gut gebaute Arme und Hände und Finger schon hat. Und in seinem Kopf scheint zumindest quasi das Standard-Voice-Modul von JetGPT-4 zu laufen. Für diejenigen von euch, die JetGPT-4 nicht haben, ich weiß gar nicht, ob wir das schon mal erwähnt haben, JetGPT-4 hat mittlerweile einen Modus, wo ich mit dem wirklich sprechen kann. Im Sinne von, ich tippe nicht mehr mein Prompt ein, sondern ich spreche einfach ins Smartphone und es wird auch zurückgesprochen. In einer wirklich auch schon ziemlich gut klingenden Stimme, zumindest auf Englisch. Auf Deutsch hatte man schon noch einiges an Akzent drin, aber auf Englisch ist es ziemlich gut. Und was die jetzt hier also gemacht haben, ist quasi ein Chat-GPT-4 mit Voice-Modul mit einer Mechatronik halt verbinden. Und dann wird halt eine Szene gespielt, wo dann also jetzt hier der Interviewer ihn fragt, so was siehst du denn gerade? Das heißt also, der Roboter ist auch mit diversen Kameras und Sensoren ausgestattet und der beschreibt dann also in einer sehr entspannten, wirklich ziemlich menschlich klingenden Stimme, ja ich sehe jetzt hier irgendwie einen Apfel vor mir und da sind irgendwie Tische, das heißt also irgendwie Teller und sowas. und dann sagt er ihm, gib mir doch mal den Apfel und dann greift er also wirklich in einer sehr natürlichen Bewegung, nicht so das, was man von früher kannte, irgendwie so und irgendwie so und der hilft, dass das Apfel irgendwie zerquetscht sondern wirklich, es sieht eine sehr menschliche.
Sehr elegant im Übrigen. Great. Can you explain why you did what you just did while you pick up this trash? Also er hat jetzt so ein paar Papierkugeln. So I gave you the apple, because it's the only edible item I could provide you with from the table. Ich mach da an der Stelle mal kurz eine Pause, weil da haben wir vorhin auch drüber gesprochen. Also was er jetzt gemacht hat, weil die Ansage war ja, er kann es mir erklären, warum du das gemacht hast mit dem Apfel, also warum hast du mir den Apfel gegeben, während du den Trash aufräumst. Und Trash war aber in dem Moment ein, Ein erst in dem Moment hinzugefügtes Element, das waren einfach drei so zusammengeknüllte Zeitungsblätter, würde ich sagen. Und der Roboter hat dann halt die genommen und in so ein Wäschekorbartiges Ding reingepackt, während er geredet hat. Und was ich persönlich am bemerkenswertesten dabei fand, er hat es nicht nur reingetan, sondern als er fertig war, hat er den Korb, den er vorher festgehalten hat, nochmal losgelassen, aber dann nochmal so nach vorne geschubst, so zu dem Gesprächspartner. So wie wir das halt machen würden, wenn man sagt, so ja hier fertig, ja hast du. Das war schon irgendwie... Das erste weirde Ding.
Also ich glaube, weiter abspielen müssen wir auch nicht, weil alles quasi, was wir zu den Diskussionen brauchen, haben wir jetzt schon gehört oder hast du beschrieben. Das Internet war dann wieder in der klassischen Aufruhr, alles gestaged. Es ist ja alles gar nicht irgendwie live und gar nicht echt. Klar, kann sein, wir wissen es nicht. Es wurde darauf referenziert, dass dort so Pausen und Füllwörter verwendet werden von der AI. Da kann ich nur sagen, ja, das ist das, was JetGPT-4 nun mal macht. Also du hast Atemgeräusche eingebaut in JetGPT-4 und du hast auch Füllwörter drin, selbst in der deutschen Version. Das heißt also, vom Text-to-Speech her würde ich sagen, das ist authentisch. Das ist also nichts, was ich jetzt nicht mit JetGPT-4 genauso hier live in der Freakshow machen könnte. Also Pausen und sowas, um es einfach natürlicher und flüssiger anhören zu lassen, wie Menschen halt einfach reden. Ich bin immer wieder schockiert, wenn ich unsere Transkripte durchlese und dann denke, meine Güte, war die Worterkennung da aber schlecht. Und dann hört man sich die Passage an und wir reden wirklich die ganze Zeit so mieses Deutsch. Das ist so deprimierend. Aber egal. Egal. Gut. Genau, diese Bewegung ist schon spooky, die der Roboter dann da macht. Und ja, das kann auch geskriptet sein, wobei ich mich dann fast fragen würde, wie kommt man dann auf die Idee, genau so eine Bewegung dann da rein zu skripten? Dazu gehört dann ja auch schon eine Menge Meta-Überlegungen quasi. Da so ein scheinbar verstörendes Element irgendwie reinzubringen. Vielleicht ist es an der Stelle dann eben doch auch wirklich emergentes Verhalten im Sinne von so, ich hatte jetzt hier eine Aufgabe und die ist abgeschlossen und damit mein Gegenüber merkt, dass ich jetzt wirklich fertig bin, schiebe ich ihm das jetzt nochmal rüber. Ich halte ChatGPT4 für fähig, so in der Art zu agieren.
Genau, und es ist ja auch immer so eine Frage, wie ist das Ding sozusagen vorgepromptet? Also das steht ja hier sozusagen nicht, also die Frage ist ja, Was ist so das Stage-Setting? Und das Stage-Setting könnte natürlich schon so etwas sein, so okay, das Ganze läuft ab wie ein Hollywood-Film und füge dem Ganzen eine gewisse Dramatik hinzu, sorge dafür, dass der robotische Akteur möglichst menschlich agiert und auch so eine Dinge tut. Weißt du, also das kann schon alles drin sein, aber die ganze Zeit locker flockig rüberkommt, aber dann trotzdem immer wieder als Roboter klar macht, dass er so der Servant of the Human ist. Und dann kann ich mir das schon ganz gut vorstellen, wenn man jetzt sagen würde, Chachipi, schreib mir ein Bühnenstück, schreib mir ein Drehbuch für so einen Kurzfilm, dass dann solche Elemente da drin sind und dann überrascht es halt auch nicht, dass die hier kommen. Und es würde mich auch mittlerweile nicht mehr überraschen, dass das dann mit diesen Responszeiten stattfindet, wie das hier im Video ist. Weil er hat ja, muss man auch dazu sagen, quasi als Gesicht so ein kleines Display, wo wenn dann immer die Frage des Menschen zur Kenntnis genommen wird, so Wölkchen, Gedankenwölkchen stehen.
Genau, das ist diese Blasen-Animation von dem Voice-Modul von JetGB T4. Ob die jetzt echt ist oder ob sie die jetzt einfach nur um zu zeigen, das läuft da gerade im Hintergrund und wir simulieren es da jetzt drauf, weiß man halt nicht. Aber das erklärt auf jeden Fall ganz gut die Latenz, weil das ist halt der Punkt, der einem als erstes irgendwie auffällt, warum wartet der so lange? Und dieses Voice-Modul von JetGB T4 hat eben genau diese Latenz auch drin. Von daher, ich halte es für möglich, dass es komplett real ist, was sie da gedreht haben. Und wenn nicht, dann haben sie das in einem Jahr.
Naja gut, wie sehr es gescriptet war oder nicht, das merkt man halt dann, wenn irgendwelche externen Leute hinkommen und mal versuchen, was geht oder nicht. Naja, du kannst halt an so einen Use Case viel Training draufwerfen und dann ist er relativ perfekt. Und kaum stellst du ihm eine Packung Zigaretten hin, weiß er nicht, was er damit anfangen soll. Klar.
Ja, also das ist ohnehin die Komponente, über die man wahrscheinlich jetzt auch am wenigsten weiß. So, was nehmen seine Kameras auf und wie bringt man quasi die Kameralogik dann wiederum in ChatGPT-4 rein an der Stelle. Das ist aber dann halt jetzt wie üblich alles Betriebsgeheimnis und wir wissen es nicht. C-Light schreibt gerade, dass dieser Voice-Modus mittlerweile auch bei GPT-3.5, also in der freien Version, schon geht. Das heißt also, da könnt ihr das einfach mal ausprobieren.
Okay. Ich hatte jetzt eh gehört, dass jetzt irgendwie, gibt es jetzt nicht eh vier auch in frei? Das war doch jetzt irgendwie noch eine Änderung. Das geht ja irgendwie alles so schnell, wie auch immer. In ein paar, Monaten, ein, zwei Monaten ist WWDC, Worldwide Developers Conference von Apple. Da ist jetzt Termin irgendwie auf Juni gesetzt worden oder so. Und ihr werdet ja sicherlich auch diesen Tweet gesehen haben, der sozusagen auf die WWDC, wer hat den nochmal abgesetzt? War das, von Apple?
Naja, sie sind jetzt so links und rechts die ganze Zeit abgewatscht worden dafür, dass sie sozusagen den buzzword-hungrigen Börsentieren kein AI-Thema zum Fraß vorgeworfen haben. Und jetzt haben sie wohl beschlossen, dass sie sich auch dem Benahmungstrend nicht mehr so verschließen können und wenn sie jetzt nicht irgendwie der Welt auch mal explizit erklären, ja wir haben jetzt auch AI und die funktioniert auch, ihr könnt unseren Aktienkurs wieder steigen lassen, dann gibt es einfach keine Ruhe.
Könnten und dann haben sie noch mal dieses in so einem anderen studie also ein paper rausgebracht, wo sie von einem system was sie m m 1 nennen wo sie so ein multimodales lm gebaut haben also dass wenn ich richtig verstanden habe unterscheidet sich das quasi von den normalen lms dahingehend dass es eben von vornherein auf verschiedenen medien typen trainiert ist also sozusagen sowohl Bild, Ton, Text etc. alles gleichzeitig und, und das kann ich aber überhaupt nicht beurteilen, sie haben da so diverse Performance-Zahlen rausgeworfen, die, wenn ich das richtig sehe, im Allgemeinen in dieser AI-Speziewelt als ganz passabel angesehen wurden, um es mal zurückhaltend zu formulieren. Das war wohl recht beeindruckend. Also alles deutet jetzt darauf hin, dass wir eben so eine erhöhte Integration haben werden. Und die eigentliche Frage, die ich mir halt stelle ist. How? Also was werden wir sehen? Mir geht es jetzt nicht so sehr um Produktvorhersage, sondern mehr um die Frage, wir haben diese ganzen Sachen, die wir jetzt hier auch schon besprochen haben, auch gerade eben und es ist halt auch alles irgendwie immer so Technology-Demo für Nerds. Du kannst dann deine Prompt schreiben, du kannst dann deine Videos machen und so weiter und da kommen beeindruckende Sachen bei raus, aber ganz ehrlich, das, was da jetzt derzeit bei rauskommt, das ist halt jetzt irgendwie nix, was jetzt jedermann jederzeit irgendwie auf dem Telefon braucht. Das sind alles ganz interessante Sachen, aber eigentlich möchten wir ja, dass es nützlich ist, hilfreich ist und einem wirklich da unter die Arme greift, wo es täglich sinnvoll wäre.
Ich würde noch einen Schritt weiter gehen, weil Apple hat immer Plattformen gebaut, auf denen Third Parties ihre Applikationen, draufsetzen und das ist etwas, was ich irgendwo naja gut, ChatGPT macht das so ein bisschen, aber so eine richtig schlaue Lösung, dass mal ein LLM eine richtige API hat, wo ich als, kleiner Programmierer was draufsetzen kann.
Ja, Voice ist dann gar nicht so der Punkt, aber also Text. Voice machen wir da nicht. Und das läuft halt über so einen Embedded-Datensatz. Das heißt also, du hast das Foundation-Model von GPT 3.5 oder 4, das das Problem ist, dass 4 kaum zu finanzieren ist, wenn du es irgendwie so large scale als Bibliothek anbieten willst. Aber das 3.5er kostet demgegenüber praktisch gar nichts, ist natürlich auch nicht so gut. Und dann lädst du quasi deinen eigenen Datensatz, deine eigene Datenbank, in unserem Fall halt einfach nur der Bibliotheks-OPAC als irgendwie geartetes, relativ flach geklopftes Datenmodell da oben drüber und dann kannst du dich halt quasi mit GPT-Intelligenz, in Anführungszeichen, damit unterhalten. So und solche Geschäftsmodelle gibt es gerade drölfzigtausend.
Das habe ich ja schon gebaut. Also ich hatte das hier mal erzählt, dieses Experiment, dass ich mal, mein Großer hört gerne Asterix und ich habe einfach ChatGBT4 gesagt, so pass auf, du machst jetzt mal im Stile von so einem einfachen Multiple-Choice-Rollenspiel, entwirfe ein Szenario, das in der Welt von Asterix handelt, das im gallischen Dorf startet und wo mein Sohn sieben Jahre ziemlich aufgeweckt mit Voice-Kommando, wo es ein kleines Abenteuer erlebt, was insgesamt 30 Schritte haben soll. Und dann macht ChatGPT4 das.
Naja, das ist so ein Konzeptvideo, also sowas macht ja Apple mittlerweile eigentlich nicht mehr, wo halt tatsächlich so eine Szene geschildert wird. Also so ein Typ kommt da irgendwie in sein Büro rein und hat dann halt auch so einen richtigen normalen Desktop, klappt dann so ein Device auf, was halt eigentlich mehr so wie so ein Aufklapp-iPad aussieht. 87, ja. Und dann tatsächlich mit diesem Computer redet.
Genau, da war das erste Mal ein iPad. Und Vertical Video. Stanley Kubrick hat alles vorher gesehen. Genau, aber hier ging es ja konkret auch dann eben um so eine Produktvision. Ich spiele mal ganz kurz an. Das ist der Computer. Also Sprachinteraktion mit dem Gerät auf dem Bildschirm begleitet mit so einer virtuellen Person, also sie ist natürlich hier eine echte Person, ist aber halt so von der Idee her. Und dann kannst du aber interaktive Fragen stellen, zum Beispiel zu deiner Tagesplanung. Wann habe ich denn noch einen Termin frei?
Naja, aber ist halt so eine alte Vision. Ich sage jetzt auch nicht, das ist jetzt das, was Apple machen wird, weil das war halt irgendwie noch nicht mal die Steve Jobs Zeit, das war halt so Skully, aber im Prinzip kommen wir jetzt genau an diesen Punkt, wo die Technologie tatsächlich, vorhanden ist, um das wirklich realistisch zu machen. Also man könnte sich jetzt dieses Video genau so mit einem iPad vorstellen und davon ausgehen, dass Siri halt jetzt so eine 2.0 Version bekommt, die halt mit den Fähigkeiten eines LLMs arbeitet und dabei, ganz wichtig, und das ist ja das, was diese erwähnten Studien und Papers von Apple-Mitarbeitern jetzt zeigen, also die Ankündigung der letzten Wochen sozusagen über ihre wissenschaftlichen Kanäle, dass sie halt ein vollwertiges Modell und dann eben auch unter Umständen dieses multimodale normale Modell, wo sie wohl besonders gute Erkennungs- und Tralala-Parameter haben. Wie gesagt, das kann ich jetzt nicht quantifizieren oder ich kann deren Quantifizierung nicht beurteilen. Aber es ist ja klar, dass sie ein Kernproblem, die diese ganzen anderen Systeme derzeit haben, sehr elegant lösen können wie kein anderer. Das Kernproblem ist, also OpenAI... Meinetwegen, die sind softwaretechnisch, modeltechnisch ganz weit vorn. Die haben auch die allerbesten Leute, gar keine Frage. Aber das, was sie da gerade machen, kostet unheimlich viel Geld. Da werden unheimlich viele Rechenzentren gerade beschäftigt und zum Schwitzen gebracht. Und das, was derzeit der Nutzen ist von den Leuten, das nehmen die nicht im Ansatz an Geld ein, gerade was da abgerufen wird.
Ja klar, weil Nvidia halt die Schaufeln verkauft für den Goldrausch. Das ist klar. Aber Microsoft ist halt derzeit die Bude, die das im Wesentlichen abfedert und quasi die ganze Rechnergeschichte bereitstellt, weil sie halt eine Wette gemacht haben auf die Zukunft und das ist auch keine schlechte Wette. Und ähnlich sieht es halt bei Google aus, also derzeit verdient noch keiner Geld damit. Vor allem, weil eben die Rechenpower so auf den Geräten, auf denen das genutzt wird, so nicht vorhanden ist, beziehungsweise so noch nicht genutzt werden kann. Bei Apple sieht das aber ein bisschen anders aus. Wenn sie also jetzt ein super effizientes Modell haben, was wirklich ein komplettes Modell auf dem Device laufen lassen kann. Auf dem iPad, auf dem iPhone, zumindest ab einer bestimmten Generation mit Apple Silicon und Pipapo, dann können sie eben auch eine ganz andere Interaktivität an den Tag legen, weil wir eben dann nicht mehr dieses, Moment, ich muss mal kurz rausfinden, welcher von den 30.000 Blade-Servern, die da irgendwo in Arizona in der Sonne stehen, jetzt gerade mal ausrechnen soll, was die richtige Antwort ist, sondern können das halt sofort einspielen. Also das ist jetzt von mir nur her spekuliert auf Basis was ist, aber ich denke, das könnte der Ansatz sein auf der technischen Seite und dieser Knowledge Navigator Ansatz ist, dass eben, wenn das alles lokal ist, natürlich dann die LLM auch wirklich on device, local, unter sozusagen allen Privatsphären, Datenschutzaspekten auch wirklich die lokalen Daten dann heranziehen kann und ich wirklich mich mit dem Ding darüber unterhalten kann. wann ich denn einen Termin frei habe oder welche. Schlag mir doch mal vor, wann ich das irgendwie machen könnte und gib mir mal für die nächsten drei Monate mögliche Termine für eine Freakshow raus, wo ich irgendwie am Abend Zeit habe. So war es, weißt du?
Also ich glaube, wir sind da auch überhaupt gar nicht auseinander, wir drei. Also jetzt auch, Roddy, ich glaube, es gibt wirklich viele gute Geschäftsmodelle schon auf Basis von ChatGPT, aber ich glaube, Apple wird genau das machen, das On-Device-Lokal als Plattform für, hier guck mal, Developer, was ihr jetzt plötzlich für ein Logal ist.
Ich glaube, Apple werden nicht die einzigen bleiben. Aber es ist so, dass AMD ja schon quasi angekündigt hat, dass die nächste Generation ihrer CPUs extrem viel AI-Beschleunigung haben wird. Also sie werden da versuchen, Nvidia den Rang abzulaufen, nicht über die Grafikkarten, sondern tatsächlich über die CPUs. Und da AMD bei den Handheld-Gaming-Dingern momentan quasi alleine dasteht, kann ich mir vorstellen, dass da auch noch ein bisschen was kommen kann.
AMD hat vielleicht die CPUs. Aber AMD hat nicht die Plattform. Eine lokale, High-Performance, AI-fähige Plattform hat nur Apple. Es gibt keine andere Plattform, wo du sagen kannst, wir haben heute, Stand jetzt, Startschuss, haben wir so viel und jetzt eine Million mit wahrscheinlich mindestens zwei, wenn nicht sogar mit drei Ziffern, so viele Devices, die jetzt sofort nach dem Software-Upgrade so ein Modell fahren können und das alle, gesteuert, vereinigt mit den Daten und dem Betriebssystem, mit dem klaren Zugriff und was wo ist, ready hat. Die einzige andere Bude, die ansatzweise auf so eine Plattform zugreifen kann, ist Google. Aber da hast du bei Leibe eben nicht diese CPU, Mindestanforderungs Geschichte und auch gar nicht die Kontrolle über die Devices und schon gar nicht diesen Privatsphärenaspekten. Außerdem ist es eine Bude, die sowieso immer alles in der Cloud macht.
Also meine totale Horrorvorstellung ist übrigens, dass Apple genau das macht, da eine super Plattform macht, wo sich wunderbar App-Developerinnen drauf setzen können. iPhone 8. iPhone 8, das ist schon ein bisschen her. Aber gut, mit der ersten wird es vielleicht dann nicht gehen. Aber sagen wir halt, mit der dritten oder vierten wäre ja immer noch die Basis breit genug. Also Apple macht das alles, aber Siri bleibt dumm wie Brot.
Sie versuchen ja jetzt schon, Siri auf, lokal zu kriegen. Und ich glaube, das geht auch in die Richtung. Also da bin ich mir relativ sicher, dass sie versuchen weiter den ganzen Scheiß lokal zu kriegen. Sie haben ja auch den Vorteil, wenn so Buden wie OpenA AI richtig, richtig Geld verbrennen, um Data Center zu bauen, nur um eine Handvoll, Requests surfen zu können und Apple macht wirklich alles bei den Usern. Auf Hardware, die ihnen nicht gehört, die die Leute auch noch bezahlen, dann auch noch deine Services laufen zu lassen.
Ja, weiß ich nicht, aber das ist jetzt nicht relevant für den Punkt, den ich machen wollte. Mir ging es ja darum, was können wir jetzt sozusagen erwarten, technisch und da war die Aussage, es gibt, Es gibt genug, also zwischen den Zeilen, also man muss nur die Zeilen lesen, die sie jetzt in den letzten Wochen veröffentlicht haben. Dann sagen sie halt, wir haben MLLM und wir haben das auf dem Device. Und das gepaart mit der Ankündigung und unserer nächsten World Wide Developers Konferenz ist All About AI. Das war ja im Prinzip die Aussage, heißt in Apple-Sprech, wir werden das überall einbauen. So und natürlich werden sie es in Siri einbauen, weil wenn sie das nicht machen, dann brauchen sie auch gar nicht so ein Tweet schreiben. Und die Frage ist halt nur, wie bauen sie es sonst noch ein und was kann es dann und was kann es dann auch wirklich tun auf eine Art und Weise, dass es jetzt nicht nur so eine Spielerei für Nerds ist, die es dann geil finden, wie wir, sondern es halt wirklich etwas ist, was du nutzen kannst. Und die einfachste Möglichkeit sowas für normale Menschen, ich finde den Begriff normale Menschen finde ich immer scheiße, für, sag mal eine andere Formulierung für Non-Nerds.
Zivilisten. Die sind doch nicht militärisch. Ich weiß schon, was du meinst, nur ich habe da halt jetzt nach dem, was Apple mit Siri bisher gemacht hat und wie sie Siri immer wieder als das beste seit geschnitten Brot versucht haben zu verkaufen, bin ich da maximal misstrauisch. Und meiner Meinung nach, wenn sie wirklich einen Durchbruch schaffen, wenn das Modell wirklich sehr, sehr gut ist, dann sollten es auch einen neuen Namen geben und nicht sagen, das ist jetzt Siri 2.0, weil Siri ist eigentlich verbrannt. Und wenn sie es weiterhin Siri nennen, dann weißt du, es wird scheiße sein.
Unser Erdbeben war wir haben die erste AI, mit der man reden konnte auf die Welt gebracht und, jetzt nach 13 Jahren gehen wir den nächsten großen Schritt und dann haben sie sich wahrscheinlich irgendwie noch ein geiles Passwort dazu ausgedacht und jetzt und dann heißt es aber immer noch Siri oder es heißt Siri Extreme oder ich hab keine Ahnung, aber ich kann Ich kann mir einfach nicht vorstellen, dass sie von diesem Brandname weggehen. Weil, klar, die Leute kriegen es kalte Kotzen, wenn sie sich mit Siri unterhalten, aber irgendwie hat es ja auch ein bisschen funktioniert für die meisten Leute auf irgendeine Art und Weise.
Vielleicht müssen sie das, aber sie werden es nicht tun. Sie werden niemals zugeben, dass es scheiße war. Das werden sie einfach nicht tun. Sie werden einfach durchmarschieren und sagen, jetzt ist es gut und ihr werdet alle vergessen, was vorher war. Weißt du, die holen diesen kleinen Men in Black Blitzstift raus und machen so und alle haben vergessen, wie es war.
Also ich glaube grundsätzlich hat Tim recht. Das ist eigentlich nicht the Apple way. Die haben niemals irgendwas zugegeben, dass irgendwas nicht gut oder nicht funktioniert hat. Auf der anderen Seite, wenn sie es Siri nennen, haben sie einfach das Problem von einer Nebenläufigkeit. Es wird eben wahrscheinlich dann doch etliche Geräte geben, die ja noch das alte Siri haben. Und du willst nicht im Alltag die Konversation, hast du noch das alte Siri oder hast du schon das neue Siri?
Nein, kein Gerät wird das alte Serie haben. Sie werden das überall haben. Und die Geräte, die es nicht selber machen können, die machen es halt nach wie vor, wie es auch bisher läuft, über das Internet. Und die neuen Maschinen machen es einfach schnell und toll und ohne Internet. Das ist der Vorteil.
Mein Gott. Deswegen schalte ich sowas von vornherein auch aus. Und ich wollte mich einfach nie mit meinem Computer unterhalten, weil ich einfach immer, weil das immer so cringe war. Und also wenn sie es schaffen, so beyond cringe zu kommen, das ist dann wahrscheinlich dieses AI Valley irgendwie. Also das ist cringe, cringe Valley, beyond cringe Valley, da müssen wir hin.
Also wenn sie es schaffen, halt auf GPT-4-Niveau ohne Latenz zu kommen, weil sie es on-device machen, dann sind sie durch. Weil also mit GPT-4 kann man sich super unterhalten. Das macht total Spaß. Das ist einfach gut. Aber diese Latenzen ja auch ein bisschen. Und man würde es gerne schneller haben, dass er schneller redet. Das ist ein bisschen behäbig. Aber wenn sie das alles irgendwie in den Griff haben, parametrisiert haben, dann kann das echt was werden.
Nee, aber anders schlimm. Also du klagst ja auch immer darüber, dass es manchmal ein Siri-Update gibt und dann funktionieren Dinge wieder nicht mehr. Bei mir ist es auch so, ich sage immer morgens Wecker aus und seit einiger Zeit kommt der Nachfrage soll ich den Wecker ausschalten? Und ich so, was habe ich gerade gesagt? So. Dom wie Brot.
Ist ja auch egal. Also zunächst einmal ist es egal. Ist eigentlich auch generell egal. Aber wie auch immer. Es gibt also eine Bibliothek, eine Library, die heißt XZ und die ist auch nicht besonders aufregend, weil alles was die macht ist, dass sie quasi so für Linux-Systeme oder Unix im Allgemeinen, Kompressionsalgorithmen bereitstellt. Also Lempel, Ziff, Markov-Kompressionen.
Genau. Und also verschiedene Funktionen bereitstellt, um damit umzugehen. Und soweit ist das auch erstmal nichts Besonderes. Und das ist halt so eine Library, die ist dann halt auch irgendwann mal fertig. Fertig. Also die tut halt irgendwie das und da gibt es dann nicht so viel Innovation in diesem Bereich. Trotz alledem ist das halt Code, der muss dann immer mal wieder irgendwie an neue Umgebungen und so weiter angepasst werden. Und wie das eben bei solchen Open-Source-Projekten ist, gibt es dann eben einen Maintainer, der heißt hier Lasse Collin und der macht das irgendwie schon seit ewigen Zeiten. Und das Problem ist, dass dieser Maintainer wohl in der letzten Zeit, weiß man nicht so genau, gesundheitliche Probleme hatte oder ich sag mal generell mal andere Sorgen hatte, als irgendwie diesen Code zu maintainen und war so mit Leben beschäftigt und so mit seiner Existenz. Und dann tauchte im Oktober 21 aber ein engagierter neuer Entwickler auf unter dem Namen Gia Tan. Und bemühte sich um diese Library und hatte halt so Code-Änderungen eingereicht, Pull-Requests gemacht und einige davon sind dann wohl auch in der Library gelandet und wurden sozusagen zur Kenntnis genommen, mit anderen Worten, diese Person hat sozusagen gezeigt, dass sie da was macht. Und dann sind andere Personen aufgetaucht und haben den Maintainer halt gebeten, doch vielleicht mal dieses und jenes auch noch zu tun und der sagte immer, ja keine Zeit, hab andere Sorgen, mal gucken, später vielleicht mal etc. pp. Und das lief dann so über ein, zwei Jahre und diese Community hat dann aber diesen Maintainer so in zunehmendem Maße dahin gebracht, dass diesem Entwickler Jiatan dann eben auch in zunehmendem Maße weitere Rechte eingeräumt wurden im Zugriff auf dieses Projekt, also quasi dann auch zum Maintainer gemacht ab 23. Und das bedeutet, dass man dann quasi Zugriff hat auf das Repository, also man entscheidet dann darüber, was da für Source-Code reinkommt, kann den selber einfach einchecken oder wenn andere Leute was vorschlagen, ist man dann die Person, die darüber entscheidet, ob das dann eben passt. Und man stellt aber auch so Builds bereit. Also man kann sie bereitstellen. Das heißt, wenn andere dann mit dem eigenen Code Systeme bauen wollen, wollen die aber vielleicht nicht unbedingt immer das auch im Source-Code machen. Das heißt, die checken nicht den kompletten Source-Code aus und lassen das nochmal durch den Compiler laufen, sondern die Maintainer stellen dann halt solche Builds bereit, die dann eben bei Distributionen, Linux-Distributionen etc. einfach gezogen werden und dann werden die halt genommen. Was heißt also nun mit diesem XZ? Dieses XZ wird in manchen Linux-Distributionen mit OpenSSL kombiniert. Das ist sozusagen diese Library, die halt SSL, also die Verschlüsselung für Webseiten und so weiter macht, aber auch für SSH spielt das eine Rolle. und. Normalerweise macht das aber OpenSSL irgendwie selber. Jetzt komme ich so ein bisschen in ein Territory, wo ich nicht so hundertprozentig genau weiß, wie es ist, aber im Kern ist es so, dass um SystemD, dieses neue Subsystem im Linux, da zu ermöglichen, aus irgendwelchen technischen Gründen, die vielleicht keine guten waren, XZ da auch mit reingenommen wurde. Und SystemD ist ja sozusagen so das System, was so alles startet. Unter anderem halt auch auch den SSH-Server. Also wenn du dich jetzt einloggen möchtest auf so ein Linux-System, dann gibt es eine Anfrage auf Port 22. Hallo hier, ich möchte gerne SSH machen. Ich habe hier einen Private Key, bla bla bla. Ich will mich hier mal einloggen. Und in dem Fall kommt halt Code zum Einsatz, in dem in manchen Linux-Distributionen auch dieses XZ mit drin ist. Und Und jetzt ist es wohl so, dass dieser GR-TAN, diese Builds, die da bereitgestellt werden, so modifiziert hat, dass sie gar nicht jetzt unbedingt genau das enthielten, was eigentlich in dem Source-Code-Repository drin ist, sondern dass noch so andere Skripte mit dabei waren, die, und jetzt weiß ich es nicht so ganz genau, das alles so modifiziert haben, um da eine Backdoor mit einzubringen. und das wurde auch im Source-Code über einen längeren Zeitraum, wie sie später herausgestellt hat, so schrittweise vorbereitet. Also es gab immer wieder so Modifikationen, wo so hier ein bisschen was, da ein bisschen was gemacht hat und mit anderen Worten, das sah ganz so aus, als ob jetzt über einen Zeitraum von zwei Jahren Code geplant wurde und das Ganze auch mit solchen, Fake- Persönlichkeiten im Netz der Metaener dazu gebracht hat.
Naja, aber das sind offensichtlich auch nur so Fake-Personen, die halt sozusagen alle nur konzertiert auf diesen Maintainer eingeredet haben, die aber nicht wirklich jetzt zwingend echte Personen sind, sondern das sind halt, Accounts im Internet, die Sockpuppets. Sockpuppets, genau. So, und diese Backdoor, die da jetzt reinkamen und die quasi nicht im Source-Code so vollständig sichtbar ist, sondern nur in diesen Bildsystemen, also in diesen Bilds, die bereitgestellt wurden, die wurden also jetzt bei ein, zwei Linux-Distributionen quasi mit eingespielt. Es gab dann noch eine Version 3.6.1, die davon betroffen war und diese Builds, bei denen war es dann eben so, dass es dann möglich gewesen wäre, sich dort, hätte man also damit jetzt einen neuen Computer aufgesetzt mit dieser neuen Version von der Linux-Distro und man hätte den dann installiert, Dann hätte halt das SSH bestimmte Private Keys generell als Root reingelassen. Also es war so eine richtige Eventsnetz-offene Backdoor. Man weiß nicht genau, welche Keys, aber es war irgendwie aus dem Code wohl ersichtlich, dass das so funktioniert haben soll. Also das war jetzt sozusagen die Aufregung. Der Microsoft-Mitarbeiter ist glaube ich auch PostgreSQL-Entwickler, wenn ich das richtig sehe und der hat da verschiedene Sachen getestet und dem sind aber Timing-Fehler aufgefallen und dadurch ist der irgendwie dieser Sache auf die Spur gekommen, was schon eine ziemliche Leistung ist. Genau. Also das ist im Wesentlichen diese Story und der eigentliche interessante Vektor hier ist natürlich jetzt der, oh mein Gott, also was für ein Angriff, der hier gestartet wurde und wir haben ja keine Ahnung, wer dahinter steckt. Könnt ihr euch jetzt sozusagen euren Adversary of the Month vorstellen? Auf jeden Fall, denke ich, dürfte hier Geld im Spiel gewesen sein, ob das irgendwie ein Government Level ist oder ob das eine kriminelle Vereinigung ist oder so. Also auf jeden Fall waren da Leute am Start, die genau wussten, was sie tun, sowohl technologisch, die sozusagen die Struktur dieser Linux-Distributionen kannten, die irgendwie in dieses Sicherheitssystem rein wollten, SSH als potenzielle Angriffsfläche gesehen haben, dadurch, dass dieses XZ da drin war, haben das XZ selber dann auch ausgekundschaftet, festgestellt, dass es hier sozusagen eine soziale Lücke gab. Und dass man doch mal probieren könnte, sich dieses Projektes habhaft zu werden und dort sozusagen auf einmal Chef zu sein und damit indirekt quasi Code in so eine wichtige Komponente wie SystemD reinzubringen. Und das ist schon krass. Und Strukturen, die quasi auf einmal, wo die Lebenssituation einer einzelnen Person irgendwo auf diesem Planeten quasi die letzte Verteidigungslinie ist, bevor ein massiver Angriff auf Abermillionen von Kunden auf dieser Welt. System, also potenziell, wäre das jetzt nicht aufgefallen. Wäre das Ding jetzt vielleicht ein Jahr lang in der Welt gewesen, dann bräuchtest du ja auch Monate, bis du das alles wieder abgeschaltet bekommst.
Vor allen Dingen hat es ja nicht nur Linux betroffen, das muss man mal sagen. Wenn du mit Homebrew gewisse Dinge installiert hast, dann hat dir Homebrew auch diese gepatchte Version der entsprechenden Varianten ausgespielt. und die Homebrew-Leute haben auch ein Rollback auf eine der safen Versionen vor GR gemacht.
Der Code ist nicht nur auf Linux gelandet, aber spezifisch das Target war Linux und konkret eben diese Integration in SystemD die und das war sozusagen das eigentliche Target. Also dass XZ noch woanders als Kompressionslibrary benutzt wird, okay. Aber solange das nicht in SSH drin war, dafür waren diese Vector nicht gedacht. Also da gab es sonst nichts zu targeten. Wenn du jetzt das irgendwie in deinen, Image-Editor einbaust und der damit Dateien dekomprimiert, wenn er sie öffnet.
Naja, aber dann ist nicht gleich deine Security Gebrochen. Das ist sozusagen in diesem spezifischen Fall, also dass man natürlich dann überall den Rollback macht und den Code rausnimmt, das ist auch vollkommen klar. Die eigentliche Frage, die ich mir stelle, ist, wie kann man das jetzt verhindern? Weil wir haben jetzt... So eine weitere Situation, ich meine wir hatten das bei diesem Log4j Ding auch schon, es gibt immer mal wieder so Fälle, wo Open Source Maintenance einfach ein Problem ist, wo die Entwickler entweder überfordert sind oder in diesem Fall halt akut ausgetrickst werden, also richtig hintergangen werden.
Oder ein Rage Quit machen, was war das mit diesem, da war doch diese JavaScript Library, die irgendwie Prefixes an Strings dran gemacht hat oder so, die dann irgendwie eine Basis war für irgendeine Logging Library und plötzlich hattest du bei Node.js das mit drin und das halbe Internet, das so Node.js benutzt hat, hat diese Library benutzt und der Typ hat ein Rage Quit gemacht und hat sie halt einfach von den entsprechenden Servern runtergezogen. und dann wurde die nicht mehr gefunden. Genau.
Das war dieser erste Vorfall. Es gab jetzt auch noch so eine andere Geschichte mit diesem NPM Install Everything. Also da hat jemand einfach aus Jux und Dollerei, um mal ein bisschen was zu zeigen, ohne böse Intentionen zu haben, haben, so ein NPM-Modul gebaut, was einfach mal auf alles dependet. Du kannst halt einfach deklarieren, worauf du dependest und sie haben halt einfach mal so auf alles dependent, weil sie das halt einfach mal ausprobieren wollten, was dann irgendwie passiert. Und dann gab es aber irgendwie eine Limitierung, dass du nur maximal 800 Pakete dependen konntest. Dann haben sie irgendwie noch so ein Chunking-System eingebaut, um diese Grenze zu umgehen. Dann haben sie irgendwie das in NPM dann reingebaut, sogar mit einem eigenen Namespace, damit da irgendwie nichts passiert. Und dann wollten sie das halt irgendwie so ein Livestream machen, um zu schauen, hier ein System, was alles baut. Darum ging es sozusagen. Also wir bauen jetzt einfach ein Modul und wir sollten so ein gestagedes Video machen und mitteilen, wie lange es dauert, ein Modul zu bauen, was auf alles dependet, wo sozusagen alles runtergeladen wird und alles, was dieses ganze System bereitstellt, einmal durchkompakt, wie lange das dauert. Also das war sozusagen die ganze Intention.
Und dann gab es aber dadurch sozusagen ein, in den NPM-Regeln war es irgendwie unmöglich, genau, achso, weil sie dieses Modul drin hatten, was auf alles dependet, konnten deswegen keine Pakete mehr unpublished werden. Also wenn andere dann versucht haben, ihr Paket aus NPM rauszunehmen, hat das System halt gesagt, sorry, aber da dependet ja noch was, was auf dich dependet. Und auf einmal gab es halt ein Ding, wo alles drauf dependete sozusagen und keiner konnte mehr richtig mit diesem System arbeiten. Dann sind natürlich alle auf sie losgegangen und diese Leute irgendwie, dann war das irgendwie noch während Weihnachten und dann haben sie halt irgendwie, weil das ja mittlerweile von Google, also von Github irgendwie geführt wird, NPM, dann haben die dann erstmal auf die eingeschlagen, ihr seid ja hier die Bösen und was fällt euch ein und wollten die dann irgendwie bestrafen. Am Ende haben sie das wohl irgendwie von Hand, gelöst, aber die sind jetzt irgendwie da geblockt und das ist alles ganz bitter Was ich damit nur sagen möchte ist diese ganze Open Source Pakete Welt und dieses ganze ich stelle meinen Code bereit und ihr könnt auf meiner Arbeit aufbauen und so, das wurde bisher zu Recht auch immer als so was rein unproblematisches, Ding gesehen, was nur Vorteile hat und jetzt stellt sich halt raus dass ich da eben auch sehr viele neue Fragestellungen aufstelle in Bezug auf die Stabilität dieser Systeme und was dann eben passiert und vor allem, wer ist dann schuld? Wer ist dann schuld? Wer wird dafür bestraft? Und wie kann man es vor allem verhindern, wenn jetzt solche Maintainer, die halt da irgendwo gelangweilt in ihren Wohnungen sitzen und deren Leben vielleicht gerade verkorkst ist und die einfach keinen Bock mehr haben auf den Scheiß, dann einfach irgendwie zu ihrer Arbeit einstellen oder sie an irgendeinen Hans Wurst weiterreichen, der dann irgendwie böse Intentionen hat. Also das ist halt jetzt wirklich etwas, was man sich fragen muss und vor allem müssen sich halt Softwareunternehmen fragen, wie sie das verhindern können. Hier im ATP-Podcast kam das auch nochmal kurz zur Sprache und der John Siracusa. Meinte, als er irgendwie seine Firma verlassen hatte, war das sozusagen sein Abschlusstalk, dass er sozusagen gesagt hat, ja hier guckt mal und ich habe mal durch unsere Software Library durchgegangen und habe mal gezählt, wie viele individuelle Leute tatsächlich den Code angefasst und dazu beigetragen haben für unsere fünf wichtigsten Produkte, auf denen alles basiert. Und kam dann halt irgendwie so auf drei, in einem etwas größeren Unternehmen. Und dann wurde ihnen halt erst klar so, oh, nur drei Leute, wenn die uns wegbrechen irgendwie und dann weiß keiner mehr Bescheid, was überhaupt ist. Hoher Busfaktor, genau, ja.
Ja, schwierig. Mein erster Reflex bei der ganzen Geschichte, als auch diese Debatte ankam, so ist jetzt Open Source schuld oder nicht schuld. Es kam ja auch relativ schnell die Gegenposition, so Open Source hat funktioniert, so es wurde rechtzeitig gefunden und das wäre bei Closed Source nie möglich gewesen. Wir sind halt schon ziemlich weit gekommen.
Gemüßig, sehe ich auch so. Wir sind halt schon ziemlich weit gekommen mit Open Source. Und jetzt in totale Panik auszubrechen und zu sagen, das ganze System ist verrottet und so kann das alles nicht weitergehen, da bin ich jetzt auch erstmal ein bisschen vorsichtig. Ohne, dass ich aber auch gleichzeitig jetzt irgendwie eine passable Lösung hätte. Also, Diese ganze Maintainer-Geschichte, ich habe ja schon ein paar Mal, glaube ich, diesen schönen Talk von dem Erfinder von Twitter, Bootstrap, Open Source Burnout, FAB hieß er damals zumindest. Können wir auch nochmal in die Shownotes reinwerfen, die besten 30 Minuten, die man als Softwareentwickler investieren kann auf YouTube, meiner Meinung nach. Es ist einfach real. Irgendwann hast du vielleicht auf deine Software nicht mehr Bock oder auf Facetten von deinen Projekten. Du möchtest lieber ganz andere Geschichten machen. Aber es ist halt keiner da, der den Kram entgegennimmt. Und da ist natürlich dann die Dankbarkeit, wenn dann irgendeiner die Hand hebt und sagt, okay, ich mache es, ist natürlich groß. Und dass dort kein Qualitätsprozess hintersteckt, ist schon klar. Klar. Also ich habe hier im Chat gerade oder vorhin mal so einen Chart reingegeben hier von dem XZ-Outbreak. Also natürlich könntest du auch irgendwie fragen so, okay, Account erst 2021 auf GitHub angelegt. Eigentlich ein bisschen spät für jemand, der in so einem Bereich irgendwie unterwegs ist. Aber solche Fragen stellt dann ja in dem Moment auch erstmal keiner. Weil das war schon ein echter Long-Con hier. Sowas über drei Jahre zu ziehen, das ist schon beeindruckend. so viel Geduld aufzu...
Ich denke, was auf jeden Fall diskutiert werden muss, ist natürlich, dass du mal Maintainership mindestens auch mal mit Authentizität einhergehen musst. Also da muss dann sozusagen auch mal nachweisbar sein, Wer ist denn diese Person existiert, die eigentlich wirklich in dem Moment, also jetzt aus der Perspektive einer Linux-Distribution, die jetzt Software für tausende Computersysteme, also für potenziell Millionen Computersysteme bereitstellt. Ich vergesse die ganze Zeit, welche Linux-Distros jetzt eigentlich konkret betroffen waren. waren, weil das.
Ja, also ich sage ja nicht, damit kannst du alles verhindern, aber du musst ja in irgendeiner Form auch, jetzt irgendeine Library in dein Betriebssystem fest rein zu kompilen, wo Security-relevante Teile gehandelt werden, wenn man mal nur diesen Bereich nimmt. Da hätte im Prinzip schon was in place sein müssen. Unser SSH- Server, woraus, wer hat den Code geschrieben? Ja, irgendwie, dudeanon123 gmail.com Ah, super. Geil. Den rufe ich doch mal gleich an. Ja, also ich meine, Du redest doch auch mit jedem Softwareentwickler in deiner Firma. Du kennst die und weißt, wo du anrufen musst, wenn es da ein Problem gibt. Aber wenn es halt irgendwie Dollar-Anon-Guy-on-the-Internet ist, dann besteht diese Chance ja überhaupt gar nicht.
Ja, aber vor allen Dingen kannst du es unter falscher Flagge machen. Die Annahme, dass es ein Chinese gewesen ist, die ist ja komplett unbewiesen. Es kann auch ein russischer Geheimdienst gewesen sein oder ein amerikanischer. Nur weil der Typ einen chinesischen Namen hat, heißt ja noch lange nicht, dass es ein Chinese war.
Ja, aber in dem Moment, wo du so eine Hürde einführst, wird natürlich der ganze Attack-Vektor schwieriger. Du kannst ja nichts generell verhindern. Du musst es nur unwahrscheinlicher machen. Security ist, wie sagt man immer so schön, ein Prozess und kein Zustand. Und du musst halt deine Prozesse dem Gefahrenumfeld auch entsprechend anpassen. Und es ist halt, wir haben ja verschiedene Aspekte, wir haben ja diesen Security-Aspekt, aber wir haben auch diesen Stability-Aspekt. Also auf einmal zieht halt einer dieses kleine Klötzchen in diesem Jenga-Spiel, was halt so eine Open-Source-System-Nummer ist, einfach weg und dann stehst du da. da. Also ich meine, da kann man sich jetzt nicht rausreden mit, naja, der Geheimdienst könnte es ja trotzdem nochmal. Klar, der Geheimdienst kann auch bei Microsoft einreiten.
Dann brauchen wir über den Rest gar nicht erst zu reden. Also da muss man schon nochmal irgendwie über einen anderen Ansatz diskutieren. Und das ist halt Etwas glaube ich, was jetzt hier vielen erstmal so klar geworden ist und es ist ja auch eine Frage des Software-Designs. Also warum braucht denn dieses System überhaupt diese Library? Kann man den Scheiß da nicht irgendwie selber schreiben? Oder wenn es denn diese Library sein muss, gibt es da ein Oversight? Müsste es dann nicht einen Maintainer geben, der sozusagen zuständig ist, nicht für die Weiterentwicklung von dem Ding, sondern sozusagen für die Security Approval von dem Teil? Es gibt da so verschiedene Aspekte. Allein sowas wie das Bildsystem spuckt was anderes aus, als der Source-Code sagt. Also da sind schon diverse Alarmglocken, die hätten da leuchten können und dass es am Ende durch eine Timing-Auffälligkeit von einem Postgresql-Institut kommt, das ist halt Zufall. Und okay, klar, das kann natürlich auch sein, aber es wird viele potenzielle Unsicherheiten vielleicht geben, die eben nicht so ohne weiteres aufgedeckt werden können.
Was auch noch eine ganz interessante Feststellung war, ist, dass bei diesem XZ, also das war eine Meinung, die ich gelesen habe, die fand ich ganz interessant, dass das Problem hier mit der Maintenance dieser Software gar nicht so, weil viele kamen ja auf mit, oh, die müssen besser bezahlt werden. Ja, aber das Problem ist, XZ ist halt langweilig, da ist halt nichts, das ist technologisch nicht mehr Avantgarde, damit kannst du dich nicht beweisen, das ist kein geiler Sport, das ist nichts, wo du irgendwie zeigen kannst, was du kannst, kein Mensch interessiert sich dafür. Es ist halt einfach langweilig so einen Code zu maintainen und das maintainen halt jetzt Leute, weil sie das schon seit 25 Jahren machen und nie die Zeit dafür hatten es mal abzugeben, so im Wesentlichen.
So, das heißt, du musst halt Leute finden, die das halt auch machen und sich nicht nur Geld dafür bezahlen lassen. Also das heißt ja nicht gleich, dass das der beste Job ist, den du kriegen kannst. Es ist ja jetzt nicht so, dass du für so eine scheiß 20 Jahre alte Library nur noch ein bisschen gebackfixed wirst. Du kriegst ja keine 8000 Dollar im im Monat, wenn du halt was drauf hast, dann machst du halt was anderes.
Nö, also wahrscheinlich lösen jetzt all diese ganzen Vorschläge nicht das Problem, aber also gar nichts ändern löst das Problem unter Garantie nicht. Also irgendwas musst du jetzt schon machen. Wenn es halt um Bezahlung und Motivation geht, dann musst du halt vielleicht viel bezahlen, aber dann ist halt die Frage, holst du dir jetzt nur einen Sesselpupser, der die ganze Zeit in der Nase bohrt und sagt, ja wieso ist er fertig? Kriege ich ja immer meine 8000 Dollar, muss ich mich ja um nichts kümmern. Das erhöht ja nicht gerade die Sicherheit, sondern du musst das irgendwie in so einen Prozess einbinden und dann musst du es vielleicht einer Gruppe übertragen und dann musst du dann aber für dein Geld auch was bekommen und dazu gehören dann dann halt vielleicht regelmäßige Security-Audits, die dann irgendwie durchgezogen werden, die dokumentiert werden und wo du halt auch irgendwie garantierst, dass du die machst, weil wenn du die nicht machst, dann haftest du für irgendwas. Also nicht, wenn der Code an sich was Schlechtes macht, aber wenn du sozusagen nicht nachweisen kannst, dass du bestimmte Prozesse verfolgt hast etc. Das mag jetzt für diese kleine Kompressions-Library ein bisschen übertrieben sein, aber man hat ja gesehen, was es theoretisch hätte ausfüllen können. Und bei anderen Software-Sachen im Open-Source-Bereich, wo jetzt nicht alle Jahre rumcommittet wird, aber wo vielleicht auch nur ein oder zwei Leute aktiv irgendwas dazu beitragen, hast du ja ein ähnliches.
Die Frage ist ja auch, wo soll denn die Motivation herkommen, das zu tun? Also ich meine, im Chat gab es jetzt nochmal ein bisschen Feedback, nein, es waren nicht alle Distributionen betroffen und die meisten Stable waren wohl auch safe. Dave, nur als jemand, der eine Linux-Distro benutzt, wechselst du die denn dann, wenn du siehst, okay, Distro A war vulnerable, weil die haben sich nicht gekümmert und Distro B war es nicht, weil die hatten entweder Glück oder sie haben sich gekümmert oder man weiß es nicht, wieso, wechselst du dann deine Distro? fängst du dann an deine Software irgendwie auf einem neuen Software-Stack neu aufzubauen, ja ist beides Linux aber du wirst sicherlich Dinge finden die nicht funktionieren, wenn du die Distro wechselst, also wo soll die Motivation herkommen, dieses System tatsächlich zu ändern.
Naja, ich meine Distributionen verdienen ihr Geld damit. Irgendjemand wird den Blame schon abbekommen und hat dann keine Lust darauf, diesen Blame zu bekommen, weil der Blame halt potenziell das Business versaut. Da entsteht dann die Motivation, um Geld in die Hand zu nehmen, um irgendwas zu verbessern. Wenn es jetzt alle Distributionen betrifft, frage ich mich, okay, wo ist denn der kommen Linux-Distro Developer Support Fund, aus dem das gemacht wird? Oder wo ist der gemeinsame Prozess, den man aufsetzt, der durch eine NGO gemacht wird? Wo ist das Government vielleicht? Warum macht die deutsche Bundesregierung nicht sowas? Also das sind alles so Fragen, die jetzt aufkommen, wo es jetzt sicherlich keine einfache Antwort gibt, aber irgendjemand muss sich das fragen, weil wir reden jetzt hier davon, dass unsere, Internetinfrastruktur ganz ganz allgemein in Gefahr ist, da muss jeder aufstehen und sagen, Moment, das ist wichtig, da müssen wir zu Lösungen kommen und können das nicht auf irgendeinen Dude, irgendwo, der in Arizona sich auf dem Sofa an der Nase bohrt, abschieben, sondern da müssen halt Wege gefunden werden. Wie kann man das verhindern oder wie kann man zumindest das einschränken, dass es so passiert, wie es jetzt eben passiert ist? Mehr sag ich ja nicht. Naja, soviel zu der Security-Debatte aus meiner Perspektive.
Wenn, naja, man muss ja nicht für alle Open Source Projekte das machen, sondern vielleicht erstmal nur für welche, die, ähm, Von Red Hat jetzt sozusagen, also bleiben wir mal bei dem Beispiel. Systemd SSH Server. Das ist ja sozusagen, also wenn du jetzt eine Liste machen würdest, was sind sozusagen die wichtigsten Komponenten in diesem scheiß Betriebssystem, wo unsere Security auf jeden Fall richtig, richtig gut sein muss, dann ist das auf Platz 1.
Wer macht jetzt was? Jetzt kommt natürlich erstmal die Frage, okay, könnt ihr für alle Komponenten bürgen, liebe Entwickler, bei SystemD oder bei dieser Linux-Distro, die das irgendwie neu zusammengerührt haben, wer auch immer, das blicke ich jetzt gerade nicht, wer da jetzt die entscheidende, aber irgendjemand hat ja die Entscheidung gefällt, dass dieses XZ da mit reingehört, um da was machen zu können. Und die Person muss sich das halt fragen lassen, gibt es einen Prozess, der sicherstellt, dass alle Komponenten, die hier verwendet werden, irgendeinem Mindeststandard entsprechen. Und dann kommt natürlich der Blick irgendwann auf diese Library und dann müssen es entweder die Leute, die das entschieden haben, das zu integrieren, da haften oder Leute engagieren, Audits machen oder was auch immer oder sich das genauer anschauen oder jemanden dafür bezahlen, der sozusagen so ein Maintainer-Shadow ist, der sozusagen jegliche Maintenance-Aktivität in diesem Projekt überblickt, weil es halt ein Einfallstor ist, weil es einfach eine Sicherheitslücke ist. Man muss ja da irgendwas mit tun. Und dann muss man sich da halt was einfallen lassen. Und wenn da nichts kommt, wenn da nichts getan wird, dann ist die Entscheidung, dann kann diese Library da nicht rein. Dann müssen wir das halt neu schreiben, dann müssen wir jemand anders engagieren, dann müssen wir es umschreiben, müssen wir es anders machen oder das Feature, was das implementiert, muss raus. Bang. Und dann hast du einen Prozess. Aber jetzt zu sagen, das ist ja nur Top 1 unserer Security-Probleme, ich kriege ja nur 10.000 Dollar im Monat, was soll ich denn machen? Das kann ja wohl nicht die Antwort sein.
Nein, aber die Frage steht, wer tut jetzt genau was in deinem Modell? Es ist klar, wenn ich jetzt jemand bin, der hat eine große wichtige Firma, eine Bank oder weiß ich nicht was, will sich so ein Linux-System anschaffen. was gibt es für Distros? Welche nehme ich denn da? Dann kann ich natürlich zu einem großen Hersteller hingehen und sagen, hier Canonical, euer Ubuntu, ist denn das solide? Wie stellt ihr denn fest, dass das solide ist? Hey Red Hat, euer System, ist das solide? Wie stellt ihr fest, dass das solide ist?
Ja, dann sagen die ja, wir haben den offiziellen, der Freakshow verkündeten Security Codex umgesetzt, akzeptiert und zertifiziert abgeschlossen. Ja und deswegen sind unsere Prozesse jetzt so. Ich meine, gibt es ja in der Wirtschaft auch, hast du irgendwie ISO 9001, da werden halt einfach QA-Prozesse beschrieben, du kannst dich darauf zertifizieren lassen. Ich will es jetzt nicht zu sehr bürokratisieren, ich sage nur, so wie es jetzt ist, kann es nicht bleiben und es müssen natürlich diejenigen, die entschieden haben, dass Code genommen wird, müssen an diesen Code Anforderungen stellen. Und wenn dieser Code, diese Anforderungen oder wenn die Leute, die diesen Code bereitstellen, diesen Anforderungen nicht genügen, dann muss man einen anderen Code nehmen. Dann kann man den nicht nehmen. Und wenn dieser Code, wenn diese Maintainer und dieses Projekt den Anspruch haben, aber diesen Security-Anforderungen entsprechen zu wollen, wenn das ein Ziel dieses Projektes ist, das gibt es ja auch. Es gibt ja Projekte, die, guckt ja, ich meine Open SSH als Projekt an sich oder hier Open BSD.
Naja gut, aber als kann man OpenBSD jetzt nicht vorwerfen, dass sie nichts aktiv zur Security beigetragen haben. Also das ist schon der Ort, wo das Wort Security das erste Mal eine Bedeutung hatte. Okay. Und, In dem Sinne müssen sich natürlich jetzt auch diese Prozesse härten. Vor allem bei den Linux-Distros, weil die sehen, die sind ja sozusagen diejenigen, das ist ja das, was eine Distribution macht. Das ist ja das, was das Wort heißt. Heißt, wir distributieren den Kram, der da im Internet liegt und wir sind die Experten, wir stellen das zusammen, wir servieren euch das hier auf einem Silbertablett in einer Konfiguration, wo alles super zusammenpasst, wo es funktioniert, wo es toll ist, schnell ist, Ressourcen schon arbeitet und sicher ist. So und wenn das ihr Versprechen ist und ich denke das ist auch der Anspruch aller Distributionen, also da würde mir jetzt keine Distribution einfallen, die sagen würde so, ja klar liefern wir Linux, aber sicher, also geht auch zu Microsoft.
Oh, warte mal, bis du die anderen Abkürzungen gehört hast. Also das ist ja eher ein allgemeiner Begriff. Also E-Rechnungspflicht heißt im Prinzip folgendes, als Business bist du verpflichtet ab 2025. die elektronische Rechnung anzunehmen. Das heißt, wenn ich dir eine Rechnung schreibe am 01.01.2025 und das ist nur eine XML-Datei und du sagst, was ist denn das für ein Scheiß, damit kann ich nichts anfangen, dann sag ich, du hast das Gesetz nicht gelesen, du musst deine Wachstumschancen besser in den Fokus kriegen.
Wenn du ein Business bist, aber man ist relativ schnell ein Business. Also wenn du selbstständig bist, bist du ein Business. Wenn du ein Gewerbe hast, bist du ein Business. Oder wenn du eine GmbH, AG, GbR und so weiter bist, dann bist du ein Business. Also GbR weiß ich jetzt gerade nicht genau, aber Selbstständige sind definitiv Business. Weil ich meine, wenn du eine Umsatzsteuererklärung machst, bist du Business.
Du kannst es schicken, wie du möchtest. Es gibt auch Portale und alles mögliche und Routing und so weiter und ab einem bestimmten Zeitpunkt geht es auch über das Finanzamt. Also sprich, ab und ab 2028 Versandpflicht für kleinere Firmen. Oder anders ausgedrückt, im Business-Bereich ist in vier Jahren komplette E-Rechnungspflicht. Das muss man sich mal klar machen und wer von euch da draußen irgendwie eine Firma hat und davon noch nichts gehört hat, wird Zeit, sich da mal Gedanken drüber zu machen, deswegen wollte ich das nämlich hier erwähnen. Das betrifft dann auch das Umsatzsteuergesetz, die halt nochmal klar sagen, Papierrechnungen zwischen Firmen sind ab 2026 nicht mehr erlaubt. immer zwischen Firmen also Privatkunden und so weiter betrifft es erstmal gar nicht hier geht es um Business to Business, so jetzt die Frage was kann das also sein das heißt wenn du jetzt sozusagen nach wie vor so eine hübsch formatierte, Papierrechnung haben möchtest also so ein PDF haben willst dann kannst du auch PDF nehmen aber in dieses PDF muss dann dann entsprechendes XML, Embedded sein. Also du kannst das kombinieren. Es gibt heute schon die Rechnungen, die nur XML sind, die sogenannte ähm. Na, die X-Rechnung, das gibt es heute schon, das habe ich in meiner Buchhaltungssoftware, das musst du heute schon verwenden und das ist wirklich nur XML. Wenn du jetzt dich bei irgendeiner Behörde bewirbst, also wenn du jetzt in irgendeiner Form im Ministerium oder so, also irgendwas aus dem öffentlichen Raum agierst und du schickst dir eine Rechnung, dann geht das heute schon nur noch mit einer XML-Rechnung. Du musst die in XML als X-Rechnung schicken. Die heißt dann auch X-Rechnung. Das ist der Standard, der heute schon existiert und das ist schon die Anforderung, die es heute schon gibt. Aber wir kommen jetzt halt den nächsten Schritt von Start ist schon elektronische Rechnung, jetzt große Firmen, dann kleine Firmen und irgendwann ist es dann sozusagen, weil alle das eh umgesetzt haben, auch für jedermann zu bekommen.
Das ist aber nicht so schlimm. Achso, nochmal kurz zur Umsatzsteuerregelung. Also ab 2028 musst du deine Rechnungen, die du verschickst, auch gleichzeitig ans Finanzamt schicken. Also 2028, wenn die Versandpflicht auch für kleinere Firmen ist, heißt es, du schickst deine Rechnungen ab dem Moment nicht immer nur an deinen Kunden oder an deinen Vertragspartner, sondern du…, muss eine Kopie ans Finanzamt abgeben. Business ist dann sozusagen Finanzamt zitriert. Ausnahmen gibt es natürlich auch, wie sollte es auch anders sein, Rechnung bis 250 Euro, sind davon nicht betroffen, also die müssen, ich weiß nicht, die müssen glaube ich auch noch nicht elektronisch sein und Tickets im allgemeinen, Fahrscheine auch nicht. Hat wahrscheinlich die Bahn raus gehandelt.
So, ich habe mir jetzt mal angeschaut, was das eigentlich genau ist und was es da so für Standards gibt. Und es ist ja nicht so, dass das jetzt sozusagen nur von Zug fährt. Hier in Deutschland hat sich mal einer was ausgedacht, lass das doch mal elektronisch machen und dann passt das schon irgendwie. Sondern es gibt diese ganzen Formate schon sehr, sehr, sehr lange. Und es gibt vor allem auch internationale Standards. Also auf der einen Seite gibt es die Cross-Industry-Invoice, CII. Das ist sozusagen ein sogar auf UN-Level festgelegter Standard. Standard, also all diese ganzen Formate sind irgendwie alles XML. Also wir reden von gar nichts anderem. XML ist es immer. Die Frage ist nur, was steht genau in dem XML drin und in der Cross-Industry-Invoice sind halt Dinge drin, die du eben brauchst, um eine Rechnung zu machen, wie der Name schon sagt. Also Cross-Industry, du kannst halt Rechnungen verschicken, aber es sind dann eben auch nur Rechnungen. Etwas weiter geht ein Standard, der heißt Universal Business Language. UBL und das ist irgendwie von dieser Organisation Oasis mal spezifiziert worden. Das sind die Guys, die uns so einen geilen Standard wie Dogbook gebracht haben. Wer sich schon mal mit Dogbook beschäftigt hat, das war für viele Leute der Grund irgendwie Ragequit aus der XML-Welt zu machen. Das war definitiv zu kompliziert, aber nichtsdestotrotz die Universal Business Language ist sozusagen die umfangreichste Definition von Dokumenttypen im Wirtschaftsleben. Also wir haben da irgendwie 65 verschiedene Dokumenttypen, da ist die Rechnung nur eine davon. Also ich weiß nicht ganz genau, was das alles umfasst, aber halt alle möglichen Dokumentarten, die im Business in irgendeiner Form Relevanz haben, sind dort spezifiziert und du hast halt klare Typen und Tags und Namespaces und so weiter und das ist ja auch eine super Basis, um überhaupt erstmal darauf aufbauend irgendwelche anderen Sachen zu machen. Und jetzt gibt es konkrete Formate und es sind eigentlich, wenn ich es richtig sehe, eigentlich nur zwei. Das ist halt diese von mir schon erwähnte X-Rechnung, also das, was heute die Behörden verwenden, das ist quasi XML-only und das basiert…, Entweder auf UBL oder auf CEI, also es gibt sozusagen zwei Varianten, weil sie es quasi spezifiziert haben für beide in der Welt verbreitete Formate. Sowohl diese CEI als auch das UBL, beides irgendwie weit verbreitet, also hat man quasi X-Rechnung so definiert mit, das ist die CEI-Variante, das ist die UBL-Variante, am Ende beschreiben sie das gleiche, aber es ist definiert wie es in beiden Languages, ich weiß nicht, was das mit dem Kopf ist, aber ich sag nur wie es ist.
Genau. Und was mich dann selber ein bisschen verwundert hat, ist, okay, warum gibt es jetzt noch Zugpferd und was hat das alles mit PDF zu tun und so. So, Zugpferd war dann sozusagen eigentlich ein super Move, weil irgendwie haben wir uns ja daran gewöhnt, dass wir eher erstmal, dass elektronisch heutzutage bedeutet, nicht auf Papier, sondern in PDF.
Ich finde, du bist nicht mit der notwendigen Ernsthaftigkeit bei dem Thema dabei. Ja, das hast du gut erkannt. Genau, du bist einfach Dienstleistungs-An. Du bist ja auch nicht so davon betroffen. Du bist ja eher Endkunde. Aber mich betrifft das halt. Und außerdem finde ich elektronische Rechnungen eine tolle Idee, weil ich hasse Papierrechnungen. Das ist einfach eine Scheiße. Die Leute können alle keine Rechnungen schreiben. Das ist wirklich eine totale Katastrophe und es muss ein Ende finden. Leute sind, ich rede gleich mal weiter. Erstmal noch die Fakten. Also jetzt gibt es diesen Zugpferdstandard. Der ist identisch mit dem französischen Faktur X Standard. Und basiert auf dem von mir vorhin schon erwähnten Cross Industry Invoice, also dem schlankeren dieser beiden Formatwelten. Mit anderen Worten, da gibt es nicht wie bei der Behördenvariante zwei verschiedene Varianten, sondern eben nur genau eine, nämlich diese CII. Das ist sozusagen, wir machen Rechnungen und das ist das, was wir machen und mehr machen wir auch nicht. Das ist ja auch immer ganz gut, sich ein bisschen zu beschränken. Und man hat sich mit den Franzosen jetzt irgendwie geeinigt und es gab unterschiedliche Gruppen, die da so ein bisschen, wie machen wir das jetzt und ja, okay, dann haben wir das. Aber das Ding ist, bei so etwas kommt es halt darauf an, dass es bis aufs letzte i-Tüpfelchen identisch ist, dass es auch wirklich funktioniert. Und in dem Zuge ist daraus dann auch ein europäischer Standard, nämlich EN 16931 entstanden, der das definiert.
Genau. Aber das Gute ist, du wirst jetzt also in zunehmendem Maße Software finden und die existiert auch schon. Also du kannst heute, was weiß ich, auf dem Mac kannst du dir, wenn du jetzt so selbstständiger bist und irgendwie Rechnungen schreiben willst, dann kannst du dir irgendwie Grand Total runterladen und das macht das schon seit Jahren. So, da ist Zugpferd schon seit Ewigkeiten drin. Und was ist der Unterschied?
Nee, das ist nicht der Dirk Holtwig, sondern der, ja das ist der Kollege, ich weiß gerade nicht genau, aber du hast recht, ich kenne ihn auch. Also es war jetzt sozusagen ein Beispiel, von dem ich weiß, dass es funktioniert und das erzeugt sozusagen Rechnungen eben in so einer Datenbank orientierten Denke. Also du schreibst nicht in Word oder in deinem Spreadsheet irgendwas rein und wandelst irgendwelche Formeln an und dann ist dann ausgedruckt, das sieht aus wie eine Rechnung, sondern du erstellst etwas, was in deiner Struktur Posten, Steuersätze, Beträge, Faktoren, Summen und so weiter alles drin hat.
Auch kodiert ist. Und warum ist das jetzt geil? Ich sehne mir das so herbei. Ich meine, E-Rechnungen müssen zum Beispiel enthalten, Bankverbindungen. Da steht also drin, wo soll es bezahlt werden. Und nicht unten im Header in Dreipunktschrift irgendwie schlecht formatiert und der Font war leider schlecht ausgewählt und ich kann das nicht lesen und Copy und Paste kann ich machen, aber da sind irgendwelche Spaces drin. Nein, es steht in der Rechnung wirklich direkt drin, die IBAN. Es stehen drin die Zahlungsbedingungen. Also bis wann muss das bezahlt werden? Da steht irgendwie eine E-Mail-Adresse des Rechnungsstellers drin. Und für größere Organisationen und Behörden, auch ein geiles Wort, steht noch die Leitweg-ID drin. Die Leitweg-ID, das ist geil.
Klingt nach Rohrpost. Also im Prinzip heute ist die Leitweg-ID im Prinzip so eine Behörden-ID. Also wenn du jetzt dem Ministerium für, das ist ja fast Staatssicherheit gesagt, Ministerium für Umweltfragen, Familie und Atomkraftwerke und Blutwurst eine Rechnung schreiben willst, dann brauchst du halt deren Leitweg-ID. die tippst du in deine Rechnung ein und dann ist es gut und es gibt Lieferanten-Nummern und es gibt Bestell-Nummern. Also all diese ganzen Sachen, die du immer haben willst in der Rechnung, aber die die meisten Leute vergessen drauf zu schreiben, müssen da drin sein. Und warum ist das jetzt cool? Jetzt stell dir ein bisschen den Workflow vor. Ich kriege jetzt so eine Rechnung. Es ist der 1.1. 25. Ganz Deutschland, ganz Europa hat jetzt auf X-Rechnung oder beziehungsweise auf Zugpferd Faktöre X umgestellt. EN 16931. Du kriegst so ein PDF. Du musst das gar nicht irgendwie durchlesen, sondern du dragst es einfach nur auf deine Buchhaltungssoftware und die Buchhaltung sagt so, oh, eine Rechnung, wie schön, zack, bumm, Rechnungsnummer, zack, fünf Posten mit verschiedenen Mehrwertsteuersätzen, ich weiß genau, wie ich das buchen muss, pipapo, guck mal hier, willst du noch irgendwelche Korrekturen vornehmen? Ne, zack, bumm, passt. Und ich muss nicht Stunden damit verbringen, meine Rechnungen in meine Buchhaltung einzutragen, wo irgendwie fünf verschiedene Steuersätze irgendwie drin kodiert sind und wenn ich das dann halt korrekt verbuchen will, muss das alles nochmal. Das ist ja das, was ich machen muss. Ich muss ja heute eine Rechnung, die ich erhalte, komplett in seiner vollständigen Struktur mit meinem Kopf aus diesem PDF rausparsen und nochmal in meine Software übertragen. Geht's noch? Also ich meine, wo leben wir denn? Das kann doch wohl nicht wahr sein. Internet, 3D, AI, aber ich tipp Rechnungen ab, die dann auch noch falsch ausgerechnet sind, weil die Leute nicht in der Lage sind, Mehrwertsteuersätze richtig und Rundungen richtig anzuwenden. Das ist eine totale Katastrophe. Es geht gar nicht. Das muss ein Ende finden und es wird jetzt Gott sei Dank ein Ende finden und ich bin glücklich darüber. So. Jetzt bin ich im Prinzip auch schon fertig. einen Tipp noch, wer damit rumspielen will, das von mir vorhin erwähnte Grand Total hat auch noch ein kostenloses Begleitprogramm, das kann man sich nämlich einfach so runterladen, das heißt Invoice Viewer und da kann man dann einfach so eine E-Rechnung, die man sich vielleicht selber gebaut hat oder von irgendwo anders bekommen hat, kann man einfach drauf dragen und dann zeigt er an.
Genau, Termine, vielleicht mal den Hinweis, generell das weiß vielleicht auch nicht jeder, weil wir da nie drüber geredet haben so richtig, aber es gibt ja hier die Webseite freakshow.fm Da stehen ganz viele tolle Informationen drauf, da findet ihr die Sendung und die Shownotes und die Bitte um Spenden und die Möglichkeit.
Genau, und auf slash live gibt es alle Informationen, die ihr braucht, um live an dieser Sendung teilzunehmen. Das heißt, ihr könnt live zuhören im Stream und ihr könnt auch gerne euch zu den vielen anderen Leuten, die uns auch heute wieder begleitet haben, in unserem Meta-Ebene Slack dazugesellen. Aber vor allem steht dort eine Liste der nächsten Termine, so wie wir sie jetzt gerade in der Planung haben und den kann man halt im Zweifelsfall halt auch abonnieren einfach. Also einfach die Kalender-URL nehmen und dann habt ihr das vielleicht drin, falls euch das so sehr interessiert. Dass ihr euch nichts Schöneres wünschen könnt als das. So, genau. Und dann verpasst ihr auch nichts mehr. Gut, ne? Ist doch toll. Ja. Ja, 2. Mai, das ist jetzt angepeilt. Schauen wir mal, ob das was wird. Schwieriges Datum, 2. Mai. Weiß noch am 1. Mai.