Freak Show
Menschen! Technik! Sensationen!
https://freakshow.fm
Star Wars — x-hain - Nicolas Semak — Feedback — Elixir— ChatGPT und die AI-Revolution — LED-Steuerung
Und weiter geht's mit der wilden Fahrt. Heute widmen wir einen dicken Teil der Sendung der schon lange ausstehenden Diskussion rund um die sich schnell breitmachenden "intelligenten" Systeme und wir machen einen Reality Check und klappern dabei auch die popkulturellen AI-Vorlagen der Science Fiction mit ab. Dazu noch mal ganz viel Feedback zu Euren Anmerkungen rund um Social Media und Programmierung und eine ausführliche Einführung in die Steuerung von LED-Modulen. Viel Spaß.
https://freakshow.fm/fs265-mansplaining-as-a-service
Veröffentlicht am: 5. Mai 2023
Dauer: 4:03:19
Hallo und herzlich willkommen, hier ist die Freakshow Nummer 265. Die Zahlen schießen nach oben, durch die Decke geradezu. Hallo, wir sind's und wir schreiben den 4. Mai 2023. May the 4th be with you. Den musste ich jetzt bringen, weil wenn ich den nicht gebracht, Dann würde es die ganze Zeit im Chat auftauchen und alle würden mich fragen, warum ich das nicht erwähnt hätte und so weiter und deswegen mache ich das jetzt. Genau, hallo ich bin's Tim, hier ist die Freak Show und da sind wir wieder. Nach nur drei Wochen, möchte ich mal kurz feststellen, in ganz brauchbarer Besetzung, wie ich finde. Nämlich mit Roddy. Hallo Roddy. Aloha. Aloha.
Das ist jetzt eine gute Frage, die ich ehrlich gesagt nur mit Wikipedia beantworten kann. Elmar Gunsch war auf jeden Fall im Fernsehen, hier heißt es österreichischer Moderator tatsächlich sogar auch und der hatte so eine ganz bassige Stimme und der hat so eine Sendung gemacht, die hieß Wiedersehen macht Freude. Wo er dann über so alte Dinge berichtet hat und das Ganze halt mit so einer Elmar Gunsch Stimme und zwar, ja. Irgendjemand hat mal so einen schönen Witz gemacht mit Elmar Gunsch. Irgendwie eine Atomwiederaufbereitungsanlage mit seiner Stimme als wieder, wie hättest du es genannt, Entsorgungspark bezeichnet, sind alle sehr beruhigt. So und dann last but not least haben wir noch Björn mitgebracht.
Björn Reimer, erstes mal in der Freak Show, herzlich willkommen. Dankeschön. Genau, mit dir. Da freue ich mich sehr, dass es geklappt hat und das hat diverse Gründe, warum du hier ganz richtig bist, wie ich finde. Jetzt muss ich erstmal kurz hier wieder meine Lesebrille, mein Gott, das ist auch echt ein Problem mit diesen ganzen Behinderungen, erstmal klarkommen hier.
Ja ich weiß, ich bin ja auch alt. Aber da weiß ich noch genau wie es mir vorher ging und wie es mir danach ging. Und ich glaube alle die das gemacht haben damals, also es ist sehr schwer das sozusagen glaubhaft nachzuerzählen, aber es war wirklich so man ging halt rein und vorher war halt die Welt so und dann gingst du halt rein, dann hast du diesen Film geguckt, dann kamst du wieder raus und die Welt war neu. Alles war anders. Also mit Star Wars hat irgendwie sozusagen die offizielle Zeitrechnung neu begonnen, es war irgendwie das Jahr Null gefühlt so, du hast sofort gemerkt so, okay, nichts ist mehr so wie es war, alles ist jetzt neu definiert, irgendwie Star Wars hat uns alle komplett den Kopf verdreht und dieser ganze Craze war absolut nachvollziehbar, weil es war einfach diese Zauberwelt, diese Märchenwelt, die sie da geschaffen haben, dieser Spaß und das war alles so neu. Aber ich weiß noch, was hat sich der Film abgemüht mit Science Fiction? Also da gab es wirklich ganz schlechte Phasen, es gab natürlich auch noch ein paar Hochphasen, da werden wir auch noch drauf kommen und so weiter, aber ganz zweifelsohne hat Star Wars halt so ein komplett neues Kapitel eingeläutert, das kann lustig sein und das kann irgendwie Abenteuer sein und alles und dann noch diese Effekte, die für die damaligen Verhältnisse einfach unfassbar waren, Es war einfach eine Illusion, die da abgezaubert wurde, wie auch immer. Auf jeden Fall, Star Wars war dann bam, bam, bam und nichts war mehr so wie vorher.
Ja, auch der Sound. Also das war auch die Zeit, wo Kinos überhaupt angefangen haben ordentlichen Sound zu haben. Vorher hat's da so kleine plerrende Boxen und dann kam halt so mit diesen Filmen kam halt so dieses Krachbumm irgendwie auf einmal rein und dass man das dann so im Bauch spürte und so weiter. Also man wurde da an allen Sensoriken gezupft und ich weiß nicht ob der Sprung danach jemals wieder so groß war, so im Gesamtgefühl.
Das absurde ist, ich bin zu Star Wars gekommen, weil man es mir erzählt hat. Ich war damals irgendwo auf der Schule und wir hatten eine Busfahrt von 20 Minuten und mein bester Freund, der hatte die alle schon auf Video geguckt irgendwie, alle drei Teile. Man hat ja mir im Laufe einer Woche während der ganzen Busfahrten die komplette Geschichte erzählt von Teil 1 über Teil 2 über Teil 3. Das heißt also ich kenn Star Wars als mündliche Überlieferung, so hat's angefangen. Und dann irgendwie erst ein paar Monate, es hat wirklich lange gedauert, ein paar Monate später hat er dann wieder irgendwie den Videorekorder organisiert und dann gab's dann irgendwie eine Watchparty, wo wir dann relativ schnell auf so einem abgeranzten kleinen Mini Farbfernseher mit schlechten Tapes irgendwie kopiert haben, das war noch so eine Raubkopie, das war noch niemals irgendwie aus der Videothek, weil ich glaub die gab's gar nicht in der Videothek zu dem Zeitpunkt, die konnte man also auch am Anfang nur irgendwie aus Sonderbankquellen irgendwie beziehen. Das war so das denkbar schlechteste Star Wars Intronisation, die man sich auch nicht vorstellen kann. Erst die ganze Story gespoilert und dann die schlechte Version auf dem Scheiß Fernseher geguckt und es war trotzdem fantastisch. Und wenn ein Film trotzdem so funktioniert, obwohl er so massiv schlechte Startchancen hat, dann muss da was dran sein.
Ich erinnere mich nur, dass ich den, irgendwann haben wir mal die ersten drei Teile, also Episode 4 bis 6, von analoger Laserdisc angeguckt. Und zwar waren das drei analoge Laserdiscs pro Film, aber mit Vor- und Rückseite. Also irgendwie gefühlt alle Viertelstunde musste diese Disc umgedreht werden oder eine neue eingelegt werden und dann natürlich mit dem weichen Mikrofasertuch nochmal vorsichtig abgewedelt. Ja, das war nicht ganz so beeindruckend irgendwie dann, aber es war trotzdem schön.
Ja und Episode 1 dann, also Teil, der erste dann der Prequels, den habe ich in der Tat Raubmord kopiert, bei uns damals bei den Medienwissenschaftlern gesehen und den haben wir über 48 Stunden runtergeladen und ich glaube weite Teile davon habe ich dann da auch gewilltig campiert in meinem Arbeitsraum, das war, ich weiß gar nicht was das für ein Protokoll war, da gab es ja noch kein Torrent zu dem Zeitpunkt und da musste es also irgendwie gefühlt alle 15 Minuten dagegen treten damit irgendwie der Download nicht wieder zusammenbrach. Und das waren also natürlich, in Denaver haben wir auch häppchenweise geguckt, also so alle so in Chunks von zehn Minuten konntest du quasi dann schon wieder weitergucken, das setzte sich ja so fort diese gar nicht so gute Experience, dass ich also Episode 1 würde ich in zehn Minuten Fragmenten über 48 Stunden geguckt habe, aber auch das war nicht so schlecht. Also das Podrace, darauf lasse ich ja nach wie vor nichts kommen, das sind perfekte 30 Filmminuten die man da drin hat.
Portraits gebe ich dir. Also ich glaube sonst hätte man den Film auch einfach komplett gleich aus den Kinos nehmen können. Das war noch so ein bisschen der Ansatz. Aber sorry, die ganzen Charaktere und so, das wäre fast komplett schief gegangen. Und Jar Jar Binks, siehst du irgendeine Legitimation für Jar Jar Binks?
Ja, zurecht. Weil er hat, ich finde er hat nicht schnell genug loslassen können und auch so seine Redos von 4,5,6 war ja auch totale Katastrophe. Hier mit irgendwie Handshot first, also dass er wirklich auch noch in den Ablauf eingreift und dann auch noch seine, ich meine ich rechne es ihm ja hoch an, dass er immer nach Perfektion strebt so, aber er ist dann halt wirklich in dieses Uncanny Valley der Special Effects reingefallen und hat irgendwie zu einem Zeitpunkt wo er dachte jetzt ist schon alles richtig geil und wenn ich das jetzt mache dann werden die Filme richtig toll, ist aber genau, hat so richtig in den Scheißetopf von, ne ist noch nicht so geil wirklich so reingegriffen und dadurch halt die Filme verunstaltet. Wir hatten ja hier schon mal eine ausführliche Diskussion, du wirst sie sicherlich verfolgt haben, wie ich dich kenne Ralf, zu dem Thema, mit irgendwelcher Reihenfolge muss man das hören. Die Machete Order natürlich. Genau die Machete Order auf der einen Seite, aber auf der anderen Seite auch diese Special, das weiß ich nicht mehr ganz genau wie die Ausgaben hießen, ich hab sie hier groß gepriesen, jetzt weiß ich es grad nicht mehr, aber es gibt ja verschiedene, es gibt ja sozusagen eine Version aller Filme, die zusammengesetzt sind aus sozusagen allem Material was es gibt, wo sozusagen die original, der original Szenenverlauf ist mit den besser gemachten Verbesserungen reingenommen, alles irgendwie in HD und so weiter und da kann man sich High Star Wars so richtig geil angucken so, das ist halt einfach qualitativ das beste was man kriegen kann ohne dass es die Story verholt ist. Und vor allem ist halt ganz viel Jar Jar Binks rausgeschnitten worden und ehrlich gesagt, Jar Jar Binks kann ja noch ertragen, aber wo ich wirklich die Galle kriege, was ich das Schlimmste finde überhaupt in diesem ganzen 1-2-3-Epos, ganz schlimm in eins und auch ganz schlimm in zwei, Diese unsäglich langweiligen Diskussionen zwischen Obi-Wan und, äh, hier, äh, junger Skywalker, wie heißt er?
Du hattest ja mal hier diese Crew da aus Amiland, die diese Rezensionen machen, wie heißen die noch? die auch so ein bisschen völlig neben der Spur sind, die da wirklich sehr gut 40 Minuten lang oder sogar über eine Stunde durchanalysieren, was alles schief gelaufen ist bei den Prequels. Du erinnerst dich was ich meine?
Ich weiß nicht mehr wie es heißt aber jetzt weiß ich mal was du meinst. Genau. Ja, naja, so aber dann und womit ich ja auch nie so richtig klar kam, war diese ganze Zusatzwelt, die dann so zwischen diesen Filmen entsponnen wurde in Form von diesen Animationsfilmen. Dafür war ich zu alt. Das hat mir nicht gefallen und das hat irgendwie ja irgendwie ein junges Publikum gefunden.
Also in Clown Wars muss man, kann man glaube ich so ein paar einfache Wahrheiten mal versuchen zusammen zu tragen, die haben ein bisschen einen kolprigen Start auch, so die erste Season ist also sicherlich nicht so das Glanzstück. Es sind aber so ein paar Story-Arcs drin, die so mit zum Besten gehören, was du so lore-technisch an Star Wars kriegen kannst. Also weil da ja eben wirklich viel, wie wurde das Ganze vorbereitet und wie ist es dann hinterher mit Darth Maul weitergegangen, den holen sie ja wieder zurück. Ist ein schöner Arc, wie verhält sich Sidious dann dazu? Also wenn man grundsätzlich so in dieses ganze Star Wars Lore-Thema eintauchen möchte, so wie hängt was wie zusammen, ist Clone Wars der absolute Honigtopf. Du findest also keine andere Quelle, wo du das so schön zusammenfassst.
Also ich meine die große lange Folge, also nicht die kurze erste. Das ist glaube ich Clone Wars und das was ich meine ist glaube ich The Clone Wars. Also das wo es irgendwie fünf, sechs Seasons von gibt. Das das taugt richtig, die haben ja noch eine nachgeschoben vor einem oder zwei Jahren, haben sie quasi weil sie das Ende quasi der letzten offiziellen Season war so ein bisschen halbgar und man wusste gar nicht was passiert mit Ahsoka jetzt eigentlich irgendwie weiter, das ist zum Beispiel würde ich sagen bester weiblicher Charakter im Star Wars Universum, Ahsoka, der jetzt auch ihre eigene Show kriegt, noch knapp vor Rey, ja total super, bester weiblicher Charakter, angucken.
Das kann toll sein und die Story mag toll sein, aber ich konnte da nicht, keine Verbindung herstellen. Deswegen ist mir dieses ganze Star Wars Universum überhaupt eigentlich erst näher gebracht worden, seitdem sie eben jetzt diese Zwischenfilme machen. So und da fand ich den, oh Gott ich kann mir den scheiß Namen nicht merken, wie hieß der mit dem Angriff da, den fand ich super, den fand ich irgendwie toll, der hat mich das erste mal so ein bisschen abgeholt für dieses, es gibt noch Geschichten dazwischen, okay so. Dann fand ich diesen Solo, fand ich okay. Und Obi-Wan als Serie war genauso langweilig wie die Obi-Wan Rolle in den Filmen. Sorry, ich mag ja diesen Schauspieler. Ich liebe ihn. Aber diese Rolle haben sie eben komplett zerpflückt oder die Regie, ich weiß nicht, es ist so tranig, so langweilig, so zum Einschlafen, zum Gähnen, grauenhaft, furchtbar.
Obi-Wan hat einfach ein paar richtig fiese inszenatorische Macken, wenn also die kleine Leia irgendwie durch den Wald vor den super harten Kopfgeldjägern abhaut und die ständig über irgendwelche Wurzeln stolpern nur damit sie sie noch nicht gefangen kriegen, Also wenn du halt irgendwie so zwei badass Typen hast und die schaffen es zehn Minuten lang nicht irgendwie eine Sechsjährige oder Zehnjährige zu fangen, das ist auch so wirklich plump inszeniert, also darüber kann man sich schon ein bisschen helfen.
Trainspotting kam danach, also Shallow Grave war sozusagen wo er entdeckt wurde und danach kam irgendwie Trainspotting und aus diesem ganzen schottischen Kollektiv sind ja so einige Stars hervorgegangen, jetzt wollen wir nicht so weit wegkommen von Star Wars, auf jeden Fall finde ich Ewan McGregor, also es tut mir wirklich leid Ewan McGregor, ich mag dich sehr gerne, aber sie haben dir eine kaputte Rolle gegeben, die ist einfach von der Regie zerstört worden und finde ich auch sehr wenig rausgeholt. Und dann, deswegen fand ich dann Andor wieder so geil, weil Andor, wenn du sagst so die ersten drei Folgen geguckt und irgendwie hä, so ja, das ist wieder so etwas was sich ganz langsam aufbaut so und dann sehr schön den Anfang von allem zeichnet. Also das ist ja das, was da drin steckt. Da steckt der Anfang dieser gesamten Rebellion drin. Warum eigentlich? Wie? Wer? Und so. Und das finde ich ganz toll. Und Mandalorian... Ist ein gutes Beispiel dafür, dass man einen kriegen kann, also erstmal Mandalorian, geilster Soundtrack der nicht von John Williams ist, also dieser Schwede, Hammer Thema super umgesetzt trägt sich jetzt schon über drei Serien wird immer evolviert ganz da haben sie wirklich einen super super super Komponisten gefunden, Schwede oder Finne oder sowas, ganz komischer Name, Langasör, irgendwie sowas. Das ist geil und ich meine klar mit Baby Yoda haben sie es natürlich alle gekriegt so. Das war einfach der Cuteness Faktor hoch 10, aber auch da ist es halt so, Ja ok, ihr müsst also jetzt eine Folge in dieser Serie füllen und jetzt gibt es ja so ein Abenteuer, was soll der Name? Die Mission of the Week. Genau, die Mission of the Week, wo nichts übrig bleibt für den Rest der Geschichte und das finde ich dann wieder so schade, dass man da irgendwie so diese Zeit ein bisschen, das ist zwar irgendwie ganz gute Unterhaltung und so, aber am Ende, ok, wir haben jetzt 30 Minuten eine Story gesehen, die in keinem der Previously on Mandalorian auch nur eine Sekunde reingeschnitten wird, so wichtig war das jetzt. Und das finde ich dann wiederum.
Ja, also ich hab mit Andor echt so meine Schwierigkeiten. Irgendjemand hat das in Masterdon mal auf die schöne prägnante Formel gebracht, ich weiß ja nicht mehr wer jetzt spontan. Die haben die Stars aus Star Wars rausgenommen. Also sprich all das was irgendwie was mit eben Märchen und Eskapismus und tolles interessantes Design und sowas, das ist halt alles raus operiert und du hast nur noch den Krieg. Ja also was macht dieses oppressive Imperiumsregime mit den ganzen Menschen?
In Star Wars. Sie haben die Stars rausgenommen aus Star Wars. In Andor. So. Also Star Wars, das war immer die Kombination, das ist eigentlich ein Actionfilm, aber du hast eben dieses ja, Sky is the limit und es ist Eskapismus und tolles Design und man hat auch Spaß und das ist alles raus und du bist nur noch im Krieg, nur noch die Wars sind übrig. So und was macht der Krieg mit den ganzen Menschen, wie funktioniert dieses Unrechtsregime, wie funktioniert jetzt das Imperium von innen. Die Szenen finde ich natürlich fantastisch, wenn da also der Secret Service vom Imperium irgendwie gezeigt wird und was die wiederum alle für Binnenquerellen haben. Aber Spaß ist das halt alles nicht. Es sind halt keine Stars mehr drin. Also nicht Stars im Sinne von die Sterne da oben am Himmel halt und das finde ich hängt dem schon so ein bisschen nach. Plus dieser Erzähl-Rhythmus, dass du immer diese Dreierblöcke hast. Du brauchst zwei Folgen Exposition bis du dann wieder irgendwie einen Höhepunkt bekommst. Die sind dann ziemlich gut, die dritte Folge ist gut, die sechste ist gut und dann nach hinten raus ziehen sie die Taktung generell zum Glück ein bisschen hoch. Aber diese Folgen zwischendurch die sind schon auch, aber du hast dann da wirklich auch in Folge 1, 2 und ich glaube auch in 4 und 5 hast du halt auch Szenen wo Leute irgendwie am Mittagstisch sitzen und Alltag besprechen, das will ich in Star Wars nicht sehen, echt nicht. So und das hat auch kein irgendwie, das kommt dann auch nicht im nächsten Previously. Also ich hätte auch gesagt Andor kannst du gut auf die Hälfte runtercutten. Der ganze Mon Matma Plot fand ich total überflüssig, da passiert eigentlich gar nichts. Es gibt eine lange Besprechung mit den Kulturdeliktanten, da kann man sich das alles nochmal in Länge anhören, warum ich da so Schwierigkeiten mit habe und was ich jetzt bei Mandalorian wirklich nicht verstehe ist halt so der Übergang von zweiter Season zu dritter Season. Ganz tolles Ende, zweite Season, Krogu, also Baby Yoda geht weg und Luke nimmt ihn mit, fantastischer Auftritt, episch, alle geweint. So und die erste Folge, Season 3, ach ja da ist er übrigens. Wenn ihr euch fragt wieso, ja da müsste Boba Fett gucken. Und dann guckst du Boba Fett und siehst okay da sind halt zwei Folgen Mandalorian reingearbeitet und ich verstehe natürlich was der Gedanke dahinter ist, die wollen halt jetzt so ein Mando-Verse aufziehen, so wie es halt irgendwie, ansonsten Disney ja auch mit den ganzen, na wie heißt das andere große Franchise? Nein, Guardians of the Galaxy und Marvel, das Marvel-Universe, wo alles mit allem verwoben ist und dann irgendwie wieder in großen Kulminationsfilmen zusammengetragen wird und sowas. Genau so eine Schiene wollen die da halt bringen. Du kannst doch nicht ernsthaft von Leuten erwarten, dass sie zwischen der zweiten und der dritten Season irgendwo oder erstmal woanders nachgucken müssen, wie jetzt der Hauptplot um den Hauptcharakter irgendwie weiterging. Ja. Ich muss nochmal gucken, ich glaube sie bringt es noch nichtmals in irgendeine Previously Sequenz, was jetzt eigentlich mit Luke los war und dass er sich entscheiden musste, will er jetzt ein Lorianer werden oder will er jetzt ein Jedi werden und natürlich entscheidet er sich für sein Papa.
Jedi vielleicht? Nicht notwendigerweise natürlich. Das was ich jetzt gerade mal in den Chat gepostet habe ist das traurigste was man heute glaube ich sehen kann, nämlich Marco Buschmann von der FDP der Grogu hoch hält und behauptet es sei Yoda. Tiefer werden wir heute nicht mehr fallen. Yoda und ich werfen heute ein. Auch sehr schöner Tut dazu von Marco Bohnen sagt er. Nebenbei Grüße, hier ist Highlancer.
Weil ich würde sagen, das fing an so vielleicht vor acht bis zehn Jahren, das müsste man nochmal recherchieren, wann das wirklich groß ist, aber das ist so, wenn ich meine Erinnerungen nicht täusche, das wo das natürlich ständig erwähnt wird, wenn man an diesem Tag Geburtstag hat. Das ist nicht neu mehr für mich. May the 4th be with you. Aber ja, das gibt es noch nicht so lange wie Star Wars auf jeden Fall. Zumindest in meiner Erfahrung.
Nee, nee, das kam irgendwann später. Ich weiß auch gar nicht warum. Ich fand es auch nicht so wichtig. So, aber das tut ja auch nichts zur Sache, aber vielleicht kannst du ja mal so ein bisschen erzählen, was du so für ein Nerd bist. Du hast ja unter anderem so ein Hackerspace gestartet, aber vielleicht kannst du dich ja mal selber mal einführen.
Ja, ich fang mal vielleicht vorne an, also der Kern von irgendwie, was mich viel beschäftigt ist Softwareentwicklung und genauer gesagt verdiene ich seit einiger Zeit mein Geld mit Elixier und zwar bei einer Firma, die hier ja auch schon bekannt ist, VUGA, also Computerspiele, Backends, da ist das glaube ich auch sehr, sehr gut für geeignet.
Ja also in dem gleichen Gebiet da hat sich einiges einiges geändert, also es ist ja auch eine Firma die gewachsen ist, wo sich auch jetzt ich sag mal mehr vom Startup zu einer kontinuierlichen Firma geworden, auf was wir machen und wie wir das da alles machen, aber genau in dem Bereich, wir sind da, früher Erlang, Ruby gab es da auch ganz ganz viele andere Sachen und ich war da einer derjenigen, der schon vor Jahren mitgeprägt hat, als wir ein neues zentrales Backend System gebaut haben, das halt komplett in LXC aufzubauen. Und mittlerweile entwickeln wir, ich würde sagen seit mindestens fünf Jahren im Backend nichts mehr außer LXE. Also es gibt noch ein paar alte Sachen.
Also eine Zahl die man vielleicht nehmen kann, gerade haben wir so ungefähr zwei plus ein bisschen Millionen Spieler am Tag. Das ist so eine Zahl die man so nehmen kann. Mhm. Größe von Anzahl der Leute sind es 300, 350 würde ich sagen. Die Pandemie hat Spielfirmen sehr geholfen, würde ich mal sagen. Während wir dann alle im Homeoffice waren, ist die Firma größer geworden als das Büro in dem wir sind. Und ja, jetzt teilen wir uns das Büro und nehmen, weil wir in Schichten immer da reingehen, weil wir nicht mehr alle reinpassen. Genau, also es hat sich auch insofern erinnert, früher gab es sehr, sehr, sehr viele kleine Spiele, also die Spielebranche hat sich sehr verändert, weil früher ging es darum ein Spiel zu machen, das war ein Hit und dann ging es weg und das war auch, sag ich mal, relativ, relativ einfach ein erfolgreiches Spiel zu machen. Heutzutage ist das kein Geheimnis mehr, dass Computerspiele gerade auf dem Handy sehr sehr viel benutzt werden. Man hat halt einen weltweiten Markt mit sehr sehr vielen Leuten die da spielen und da ist es schwerer geworden. Das heißt an einem Spiel sitzen jetzt 100, 150 Leute. Das waren früher eher 10, 20. Und das ist verteilt auf alle Gewerke.
Genau, das fängt an von Leuten, die sich um Story erstmal kümmern, also das ist so eine unserer Spezialitäten, dass wir Spiele bauen, die sehr stark auf Geschichte basieren. Also in den Spielen werden Geschichten erzählt, wir releasen auch immer neue Geschichten, also neue Kapitel zu den Spielen. Dann die ganzen Game-Designer, die Artists, die Künstler, 2D, 3D, das alles rum. Dann natürlich Software-Entwicklung, im Client-Unity, da haben wir eine Menge Leute. Dann im Backend, LXC, dann aber auch hinten rum Data, Data-Science, das ist eine riesen Preise-Palette und dann noch, das ist noch gar nicht Publishing und alles mit drin. Und das summiert sich. Und heutzutage muss man extrem Aufwand betreiben, um sich um die Erwartungen des Marktes zu kümmern. Ja, da verdiene ich mein Geld, aber das ist nicht alles. Neben zwei Kindern, die mich sehr viel noch beschäftigen, mache ich in meiner Freizeit versuche ich einen Hackspace zu organisieren. Genauer gesagt den X-Sign, hier im Nachbarbezirk, im schönen Friedrichshain. Das war auch eine interessante Reise. Das war gar nicht so geplant, dass das so groß wird. Wir haben damals angefangen in einem kleinen Ladenlokal in der Grünberger Straße und ja mittlerweile sind es… Wann ist damals? Vor sieben Jahren, ziemlich genau jetzt. Und jetzt sind es 130 Mitglieder, die da hinkommen und von Software, aber auch Hardware, Making, also wir sind relativ breit aufgestellt, alles dort machen. Also wir haben auch eine Nähecke, 3D-Drucken, Laserkarten, die üblichen Sachen. Und ja, auch über Alex Hirwitt da geredet, unter anderem.
Die üblichen Sachen, du bist gut, also ich meine es gibt ja so eine und so eine Hackerspaces, es gibt so welche, so was weiß ich, so wie CCCB, wo halt wirklich mehr so Developer und Polit orientiert ist, bisschen elektronik gemacht wird aber nicht so viel bastel kram so und dann gibt es welche die sich aber sehr viel mehr wiederum in diesem spielerischen mit so 3d druck festgesessen haben aber dann so an anderen stellen irgendwie nicht so präsent sind und ich finde das im x-heim ist es sehr ausgewogen also das würde ich von allem was da auch so räumlich nimmt irgendwie alles mehr oder weniger gleich viel Platz ein, Dunkelkammer, dann hast du irgendwie so einen Lasercutter, gibt eine valide Holzwerkstatt mit Drehbank, mit Bandsäge, mit CNC Fräse, also es ist irgendwie alles da, Werkzeug ist irgendwie alles da und wenn man irgendwas machen will. So dann kann man irgendwie sofort loslegen, egal worum es sich irgendwie handelt, selbst wenn man irgendwie Elektronikprobleme hat, gibt's dann irgendwie Labor und irgendwie sitzt auch.
Ganz anders, also eine ganz andere Spannbreite machen kann. Man kann halt irgendwie, jemand baut was und dann macht man da LEDs rein und dann schreibt man dafür die Software, das ist ja eine unglaubliche Spannbreite und das kann man halt alles, man hat halt dort die Leute, wo man von lernen kann und das gemeinsam machen kann und eine Sache, die uns auch glaube ich auszeichnet ist, wir haben halt ein riesengroßes, Also wir sind in einem Ladenlokal, sag ich mal. Also wir haben große Schaufenster, das heißt man kann vorbeilaufen, da stehen auch einige Sachen drin in den Schaufenstern, was Eltern mit Kindern lieben, aber auch hassen, je nachdem wie schnell sie zur Kita kommen wollen oder müssen, weil die ganzen Kids davor stehen. Aber es erzeugt halt eine wahnsinnige Offenheit. Es kommen immer wieder Nachbarn rein, die sagen, hey, mich hat so interessiert, was ihr hier macht, was macht ihr hier eigentlich? Übrigens jeder der interessiert ist kann montags bei uns vorbeikommen. Das ist immer unsere offene Abend. Da sind meistens auch immer viele Leute da, die erzählen was sie machen. Man kann da eine Tour bekommen, sich diese ganzen Bereiche zeigen lassen.
Und gefühlt findet die ganze Zeit irgendeine Tour statt. Wenn man da ist, immer wenn ich mich da aufgehalten habe, stand immer gerade irgendjemand so im Eingang rum, der so ein bisschen so, was ist das denn hier, so und dann dauert es auch keine 10 Sekunden und dann wird die Person schon von irgendjemand abgeholt und kriegt halt so die Rundtour. Das finde ich irgendwie ein echtes Feature so welcoming zu sein.
Das ist aber auch unglaublich interessant, was man da für Leute und Geschichten erfährt, wenn man so irgendwelche Leute, die erstmal so schüchtern da reinkommen, so ha ich hab gehört hier gibt's Touren und dann fängt man an mit denen zu reden und dann hört man plötzlich interessante Geschichten, wo die herkommen, was die für Zeug machen, das ist wahnsinnig interessant und das ist auch echt cool, weil da muss man gar nicht mehr so viel rumgehen, die Leute kommen jetzt alle her, das war auch nicht so erwartet, als wir damit angefangen haben, aber.
Ja ja viele Amerikaner, also aus verschiedensten Ländern aber halt so Englisch ist da einfach wirklich second language, das merkt man schon, dass da einfach und zwar jetzt nicht nur die als Gast mal reinschauen, sondern die auch dauerhaft da sind und dann halt auch die Touren dann gleich in Englisch machen, wenn der Bedarf da ist und das fand ich schon ganz geil, ja das ist auf jeden Fall ein schönes Experiment und ein sehr brauchbarer Sozialraum.
Ja, das würde ich auch sagen. Das ist in erster Linie. Es ist auch mittlerweile, gerade auch Montage, sind für mich viel mehr hingehen, mit Leuten reden, Leute kennenlernen und für Projekte komme ich dann immer an anderen Tagen, weil ja, das in erster Linie für viele Leute ein Sozialraum geworden ist und das war auch eine große Motivation für uns, als wir angefangen haben. Wir wollten halt einen gemeinsamen Ort haben, wo wir an Zeug bauen können, aber uns auch erstens treffen können. Wo man einfach hingehen kann und da ist dann meistens jemand und das ist es auch wirklich geworden. Ich könnte jetzt nicht behaupten, es gab einen Masterplan, das ist so entstanden.
Ja cool. Gut. So, jetzt wollen wir mal ein bisschen mehr Feedback machen, gab ja so das eine oder andere. Aber vielleicht vorweg noch ne schlechte Nachricht, die wir vielleicht ansprechen können, es gibt nicht so richtig viel was wir darüber wissen, aber es ist jemand gestorben aus der großen deutschen Podcast Gemeinde, nämlich Nikolaus Seemak, den viele vielleicht von euch kennen, weil ihr ihn gehört habt, Oder zumindest so auch als umtriebige Person wahrgenommen habt. Nikolas hat die Elementarfragen gemacht, das war glaube ich sein erster Podcast, damit ging es los. Ähnliches Format wie mein CAE, also auch so Interview, längere Gespräche mit Leuten, viele Promis dabei und dann hat er auch mit Freunden vor einigen Jahren dieses Podcast Label gegründet 4000 Hertz. Du kanntest ihn ja auch Ralf ne?
Genau, ich kannte ihn ein bisschen über die Subscribe eigentlich kennengelernt, also unsere Podcast Tagung, die wir ja viele Jahre gemacht haben und da war er dann auch mal zu Gast genau und wir hatten dann ja auch so den einen oder anderen Disput über die Ausrichtung so wie das deutsche Podcast Wesen. Um diesen abgegrenzten Begriff mal zu nehmen, in welche Richtung sich das entwickeln sollte und. Er kam ja aus dem professionellen Medien, Und wir haben in der Tat mal eine Nullnummer auf der Republika aufgenommen mit Nikolas und mir und Claudia so als halbe Moderation dazwischen.
Das wurde nicht veröffentlicht, das wird auch nie veröffentlicht. Weil es hat auch nur so semi gut funktioniert. Also es war ein total zivilisiertes Gespräch, ich glaube und das hätte er vielleicht unterschrieben, dass wir am Ende glaube ich von unseren Positionen nicht wirklich irgendwo abgerückt sind und dann konterkarierte das etwas so die eigentliche Formateidee der ganzen Geschichte. Ja also das ist schon finde ich ein harter Schlag, weil gerade einer der ersten, die halt sowas wie ein Label, ja so klar Meta-Ebene gab es natürlich auch schon, ich weiß du hast damals etwas die Augenbraue gelupft, als es dann hieß so das erste deutsche Podcast Label geht an den Start mit 4000 Herzen und die Meta-Ebene gab es zu dem Zeitpunkt schon wie viele Jahre, aber das ist so die Medienerzählung und das deutsche Podcasttum, das ist ja sowieso eine Geschichte voller Missverständnisse. 47 ist er nur geworden. 47 Schlaganfall. Das gab es in einer der Berliner Zeitungen, suche ich gleich nochmal raus für die Shownotes, da gab es eine kurze Würdigung nochmal und ich habe ihn in der Tat viel lieber gehört, als dass ich mit ihm diskutiert habe. Also absolut legendär, das würde ich auch gerne gleich in die Shownotes nochmal reinwerfen, das finde ich sein Interview in den Elementarfragen mit Rainer Langhans, also damals Kommune 1 und ich bin ja so ein verhinderter Alt-Hippie, ich bin ja sauer, dass ich nicht bei 68 dabei sein konnte, Mangelsalter. Und was er da mit dem ja doch völlig verschrobenen und schon irgendwie doch in seiner sehr sehr eigenen Welt lebenden Rainer Langehans, was sie trotzdem da für ein Gespräch, ich glaub zwei Stunden oder sowas geht das ungefähr, zusammen kriegen, ganz toll. Das kann man sich, finde ich, immer noch wunderbar anhören. Für mich eine ganz persönliche Sternstunde des deutschen Podcasts.
Ja was für ein Vogel, da fang ich jetzt nicht mit an, ich hab auch so eine Story mit ihm, aber er hat noch beim Podcast Mikrodilettanten, da hat er so einen Laber Podcast gemacht, Zusammen mit Gero und Phil, da war ich einmal dabei mit Holgi, da haben wir das Intro gesquattet, das war so ein gespielter Witz, das war ganz gut. Und der hat ja mit Holgi auch sehr viel zusammen gemacht. Ja Nikolas, das ist schade und insofern sagen wir liebe wohl und tschüss. Seine Stimme ist noch da und Podcasts werden auch in 500 Jahren noch gehört, auch Deine. So kommen wir zu unserem Feedback, da gab es so einiges. Ja, viele Kommentare, schön, dass ihr wieder da seid, das hat uns sehr gefreut. Du hast aber auch im Nachgang noch rund um die Mastodon Social Media Diskussion noch das eine oder andere ausgefochten.
Ehrlich gesagt gar nicht so viel, also wir haben, ich hab eben mal gezählt 140 Kommentare im Blog, dazu noch ungefähr 50 auf Mastodon. Nichts auf Twitter, was ich als persönlichen Erfolg verbuche, da haben wir die Publikation ja quasi auch totgeschwiegen. Das auf Mastodon, das war alles natürlich alles flauschig und friedevoller Eierkuchen, weil Preaching to the Choir, das war natürlich erwartbar, dass sie das gut fanden, dass wir das Thema da mal aufgreifen.
Es gab im Blog in der Tat einen schönen Hinweis von einem Björn, nämlich dass es durchaus einen Weg gibt, auf Mastodon in seinem Namenshändel eine eigene Domain unterzubringen. Ohne dass man eine eigene Instanz betreiben muss. Und das ist auch nicht irgendein kruder Hack, sondern das ist in der ganz offiziellen Doku von Mastodon, kann man sich das angucken. Technologie dahinter ist Webfinger, man legt also eine JSON-Datei, sehr übersichtlich, sehr kurz, irgendwo auf einen Server, dessen Domain man gut findet und wo man halt entsprechend Zugriff hat auf dieses Well-Known-Verzeichnis.
Kann man eine der Schwächen oder diese Derate von Mastodon damit eben ausgleichen, wenn du dann die Instanz wechselst und dann normalerweise deinen Namen dann auch wechseln müsstest? Und mit der Methode kann man sich quasi dauerhaft einen konstanten, stabilen Namen besorgen. Das schmeißen wir mal in die Schaunotes rein. Danke Björn für den Hinweis dazu.
Ja von dem Jack Dorsey einst, der hatte mal so eine Phase wo er wirklich der Meinung war Twitter müsste ja eigentlich dezentralisiert und frei und open sein. Ich werde aus dem Typen eh nicht schlau also er ist für mich ein totales Mysterium irgendwas dazwischen ich verstehe ihn überhaupt nicht und teilweise hatte ich so den Eindruck dass er doch noch alle beisammen hat aber ich bin mir nicht so ganz so sicher ob das überhaupt geht in dieser Szene.
Ja das ist halt das Problem, also die sind irgendwie alle so ein bisschen verspult so, aber ab und zu kommt ja auch mal was interessantes bei raus und dieses Blue Sky war ja dann so ein Proposal, das hing da so ein bisschen in der Luft und ist ja dann durch diese Übernahme von Twitter ohnehin so ein bisschen unter die Räder gekommen, aber dann haben sie Ende letzten Jahres dann tatsächlich irgendwie eine Gruppe angefangen das wohl umzusetzen und jetzt gibt's das als App, ist das richtig sehr?
Genau und das ist auch so ähnlich wie Clubhouse, also sie machen auch so invite graphs und so weiter, also müssen wir mal gucken inwiefern sie dann sozusagen auch so Punishment machen für du hast hier die ganzen Idioten reingeholt, du darfst jetzt hier gar nichts mehr und so, also das wird nochmal ganz interessant. Klar kann sein, dass das so yet another social media fail wird, kennen wir das Internet? War das jemals schon mal anders? Leute probieren halt Dinge und dann gucken wir mal ob's passiert. Aber ich würde auch noch nicht sagen, dass das Ding jetzt schon durch ist. Wie, wer, wer sozusagen, also ob Twitter Relevanz behält? Seine Relevanz, also irgendeine Relevanz wird es behalten, aber es hat natürlich seine, un, nicht das falsche Wort wählen, also die die Relevanz die es hatte, hat es jetzt nicht mehr, aber es ist noch keiner da der mehr Relevanz hat.
Ich rede aber jetzt schon von Global Appeal, nicht von irgendwo in Deutschland gibt es ein paar Leute, die finden das geil, sondern halt, dass das sozusagen, weil ich meine das war so meine, mein Gefühl als ich auf Twitter gestoßen bin, war, das wird der globale Chat, das ist der Ort, wo sich die Welt unterhält. Vielleicht ein bisschen hyperbolisch, aber ich denke so ganz falsch habe ich damit nicht gelegen. So, es war... Tweets im Fernsehen. Donald Trump hat gesagt, Obama twitterte, oh mein Gott, hier ist irgendwas passiert, das sind die ersten Reaktionen auf Twitter, also das ist nicht mit Facebook passiert, das ist nicht mit YouTube passiert, Twitter war schon der Ort und ist es auch noch gerade so. Und jetzt müsste halt irgendwas kommen, was in der Lage ist, Twitter da so wirklich final die Eier abzuschneiden. Und ob Mastodon dazu die Power hat, da habe ich noch meine Zweifel. Es ist eine super Lösung für viele Communities, es löst viele Probleme, die andere Leute mit Twitter hatten und die gesehen haben, Twitter war nie das richtige für mich, aber das ist das richtige für mich. Wunderbar ja trotzdem ist es noch nicht der Kampf um diesen globalen Chatraum, der ist noch nicht, der hat noch nicht angefangen oder wenn dann liegen die, also da ist die Armee noch nicht im Boot.
Bin mir nicht sicher ob es den aber auch überhaupt nochmal geben wird so beziehungsweise auch geben muss, also Blue Sky ist im Moment halt ne ziemlich US Geschichte so da machen sie jetzt gerade richtig Hype, Also mit den Klammern muss man auch mal sagen derzeit glaube ich 50.000, 55.000 Accounts. Aber die sind natürlich alle sehr laut, weil sie natürlich irgendwie halt, hast du auch schon gesagt, der Social Graph ist natürlich jetzt schon sehr Premium, den sie da jetzt gerade am Start haben.
Genau, das zieht natürlich schon, aber das hatten wir wirklich ja eins zu eins bei Clubhouse, letztendlich kann man sich ja wirklich angucken wie sowas läuft und die entscheidende Frage für mich wird sein, schaffen sie irgendwann mal den Sprung, den Clubhouse nicht oder viel zu spät geschafft hat, nämlich von diesem Invite-Oni da mal weg zu gehen und wirklich irgendwo in den Mainstream rein zu kommen. Und zum anderen dieses Versprechen, naja wir sind ja auch dezentral, wir setzen ja auf dem AT-Protokoll auf, was grundsätzlich erstmal Dezentralität verspricht. Dann guckt man sich aber an, okay, Anzahl der Server vom BlueSky exakt eins. So das heißt also es gibt derzeit nur diese eine zentrale Instanz, was alle als großen Gewinn feiern, weil hey, endlich ist man wieder alle beisammen und man hat diesen einen Kommunikationsraum und ich muss mich darum kümmern wem folge ich, damit ich von der anderen Instanz was mitbekomme, ja gut und schön aber dezentral, derzeit ist es eine Blaupause, ein Versprechen, was erstmal eingelöst werden muss und wie sie dann mit Trollen, Nazis, whatever umgehen und das ganze Moderationsgame dann anfangen irgendwie zu spielen ist halt auch noch völlig unklar.
Das ist so wie ich's verstanden habe quasi schon so ein Alternativprotokoll und grundsätzlich könnte man die beiden glaube ich sogar bridgen. Also ist es nicht Fediverse, also Mastodon ist ja wiederum nur eine Implementierung vom Activity-Pup-Protokoll. Und das AT-Protokoll ist schon was anderes, aber wäre nicht so, dass man das nicht durchaus auch über Apps zusammen integrieren könnte. So jetzt mein Stand, ohne dass ich mich jetzt allzu tief damit beschäftigt hätte. Aber derzeit haben die halt da null Interesse dran, weil sie wollen halt erstmal ihren Hype-Train.
Was sie auf jeden Fall wohl haben ist eine ganz gute Onboarding Experience. Also wie fühlt sich die App an, wenn ich jetzt so im Zero State vorbeikomme und noch nichts ist eingerichtet. Das machen sie wohl ganz gut. Wobei ich auch da sagen muss, wenn man jetzt die aktuelle offizielle Mastodon App installiert oder wenn man hier Ivory installiert, also den Tweetbot Nachbau oder Ice Cubes, die haben auch schon echt gute Onboardings mittlerweile. Also das Mastodon Onboarding jetzt im Mai 2023 ist nochmal ein ganz anderes als im Januar 2023 selbst war. Also da würde ich dann auch nochmal gerne die beiden Systeme nebeneinander halten. Viele, die jetzt das Onboarding von vor drei Jahren im Kopf haben von Mastodon und sagen so, oh das ist jetzt alles so viel besser hier bei Blue Sky, ja macht euch nochmal einen neuen Account und macht das mal über die offizielle App. Da wirst du eigentlich schon genauso auch auf deinen zentralen Server erstmal hingeleitet und folgt mal folgenden Leuten, die sind hier hip unterwegs. So viel anders ist das glaube ich nicht. Aber I may be wrong.
Ja wird sich zeigen. Also ist auf jeden Fall interessant, dass es da nochmal einen neuen Ansatz gibt. Sie versprechen ja auch sowohl eine chronologische als auch eine algorithmische Timeline und sie versprechen auch komplette Portabilität einschließlich des Contents. Was wir wiederum Masterdon nicht.
Also das sind natürlich schon Reaktionen darauf so okay da draußen die Welt bleibt nicht stehen und man wird vielleicht das ein oder andere Dogma dann doch mal über Bord werfen. Ich hoffe sie machen das alles mit Opt Out. Also meine Wunschvorstellung wäre das erstmal alles aktiviert ist und aber eben die Communities die sich davon abkoppeln wollen und die einfach einen Schutzraum brauchen, dass die also mit einem einfachen Klick sich aus den Sachen raus opten können. Das denke ich wäre schon sinnvoll.
Was erlaube Tim so und ja ich hab das mit Interesse gelesen, was da alles so gemeint wurde zu meinen Auslassungen über das objektorientierte Paradigma und so weiter und es gab ja da auch diverse längliche Kommentare, die irgendwie ja versucht haben ein wenig diesen Case zu machen, was man immer gerne so hört mit so ja aber in meiner Sprache kann ich das auch alles machen und so schlimm ist es ja nicht und das was ihr da macht in euren funktionalen Programmiersprachen das ist ja am Ende auch nur OOP also gehabt alle möglichen Darstellungen, muss aber zugeben, dass mich relativ wenig davon wirklich nennenswert überzeugt hat was da so kam und vor allem gab es ein paar interessante Missverständnisse und das Kern, eins der auffälligsten Missverständnisse war und das habe ich glaube ich auch nicht so ausgeführt. Einmal nochmal vielleicht worum es mir ging und was das auch konkret bedeutet. Also ich habe ja die ganze Einlassung in das Thema, Okay, poemieren und wo stehen wir denn sozusagen mit Poemiersprachen heutzutage und warum ich auch der Meinung bin warum Objektorientierung relativ wenig bietet für das was wir heutzutage so benötigen? Und es einfach nur deshalb gemacht wird, weil es da ist und weil alle davon reden, war ja das Problem mit der Nebenläufigkeit. Und Nebenläufigkeit ist von vielen auch so ein bisschen unter diesem Aspekt von Parallelität wahrgenommen worden. Also man hat ja so dieses Ja-Multichor und da heizt dann alles parallel und du meinst ja auch, Audio ist ja eine schlechte Anwendung, weil das kann man ja nicht parallelisieren und so weiter. Das mag alles richtig sein, dass das in einzelnen Fällen nicht parallelisierbar ist, aber Parallelisierbarkeit ist nochmal ein ganz anderes Thema. Und ein schönes Gleichnis, was ich gefunden habe, ist, also der Unterschied zwischen Nebenläufigkeit und Parallelisierung ist in etwa der. Parallelisierung ist, wenn fünf Leute parallel ein Ikea-Bett zusammenschrauben. Jeder sein eigenes Bett. Das ist so volle Parallelisierung. Nebenläufigkeit ist, wenn fünf Leute ein Ikea-Bett zusammenschrauben. Und dann hängt es sehr viel damit zusammen, wer hat schon die Schrauben ausgepackt, ist die Tüte schon aufgemacht, wo liegen denn jetzt die Schrauben, wann brauchen wir denn die Schrauben ganz genau, in welcher Reihenfolge machen wir das, wo legen wir das Holz hin, wenn wir gerade nicht dran arbeiten müssen, wer jetzt da drüber gestolpert ist, ist das jetzt das Richtige, hab ich das verwechselt, oh scheiße ich muss nochmal in den Nebenraum, wo sind denn jetzt nochmal die Schrauben, hab ich überhaupt das richtige Werkzeug. Man verliert so viel Zeit in diesen kleinen Übergängen, in diesen Kanten, wo die eine Arbeit in die andere Arbeit übergeht und wo vor allem verschiedenste Akteure sich unterschiedlichen Teilproblemen zuwenden müssen und die teilweise, Ja jetzt könnte ich sagen parallel, nebenläufig sind, also ich kann die Schraubentüten öffnen.
Genau, aber es ist nicht parallel die selbe Arbeit, sondern es sind Dinge die im besten Fall auch parallel laufen, aber nebenläufig sind in der Definition, dass sie erstmal so nichts miteinander zu tun haben. Sie haben keine unmittelbaren Abhängigkeiten so lange bis das eine das andere anfordert oder bis das eine nicht mehr weitermachen kann bevor das andere nicht da ist. Und diese ganzen kleinen Pausen, die sind so ein bisschen das Ärger des, dass einfach die Systeme heutzutage einem relativ wenig in die Hand geben, um genau das zu optimieren. Und das ist halt das Problem mit nahezu allen Programmiersprachen, die alle in irgendeiner Form Single-Threaded sind, die einfach nicht generell von sich aus Parallelität fördern oder Nebenläufigkeit fördern und das war sagen wir mal der Punkt den ich gemacht habe und warum ich auf das Erlang Ökosystem verwiesen habe, weil das so eine Grunderkenntnis war beim Design von Erlang.
Ich würde das vielleicht ein bisschen verfeinern, weil es geht da zwar auch um das Funktionale, aber vielmehr noch um das, was in der Erlangenwelt OTP heißt. Also das ist eine Art Framework, um aktorbasierte Programmierungen zu machen. Also man denkt von Grund auf nur an Aktoren, die sich gegenseitig Nachrichten schicken. Das hat jetzt erstmal direkt nicht so viel mit funktional oder objektorientiert zu tun. Es gibt zum Beispiel auch in der JVM-Welt in Skala Acker, die ein ähnliches Modell machen. Mit Objekt orientiert und da das Enablen, das hat aus meiner Sicht, das habe ich auch lange gemacht, auch Probleme, weil die JVM nicht darauf ausgelegt ist. Und das ist der große Vorteil von Erlang aus meiner Sicht. Das ist, das ganze System ist von Grund auf aufgebaut, um ein Aktoren-System und auch wenig anderes zu unterstützen. Das fängt vom Debugging an, aber auch wie das ganze System startet, die Error-Trails und wie auch mit Messages und so weiter umgegangen wird. Es gibt auch Implementationen in anderen Sprachen, also ich bin jetzt neulich über Ergo gestolpert, das ist quasi OTP in Go nachgebaut, auch eine interessante Entwicklung. Aber das würde ich mal sagen ist auch aus meiner Erfahrung das, was im Kern diese Nebenläufigkeit, aber jetzt kommt es auch die Parallelität sehr enabled, also sehr viel möglich macht, weil man halt Den State, den man hat, der in einem Akto gehalten wird, automatisch, den Zugriff darauf automatisch serialisiert durch die Nachrichten, die reinkommen, die dann auch verarbeitet werden. Das erleichtert, wenn man es richtig baut, auch das Testen und so weiter. Das ist, glaube ich, der Kern und auch da die Sprache und das Ökosystem auf viel verzichtet, ist man sozusagen auch gezwungen, in bestimmten Arten und Weisen zu denken. Man denkt, wo hat man State, wo ist der in meiner Anwendung, Applikation verbaut? Und davon geht's los, weil das baut man in seine Aktoren rein oder Genserver, wie es in Erlang beziehungsweise Alexir genannt wird. Und darauf aufbauend baut man dann halt seine Anwendung. Das hat auch sehr viele Vorteile, wenn man Ressourcen hat, die von verschiedenen Stellen gebraucht werden, dann kümmert sich ein spezieller Prozess nur um diese eine Ressource. Und Leute können anfragen, bekommen zweifelne Antwort, aber auch die Ressource, die hat für sich immer eine Ordnung, in der das kommt. Das heißt, man geht einer bestimmten Art von Race Condition aus dem Weg, wenn man nicht aufpasst, schafft man sich andere Probleme, wenn man 15 Aktoren hat, die sich in komplizierten Art und Weise Nachrichten schicken, kann das auch zu unvorhersehbaren Konstellationen führen, das stimmt auch. Aber erstmal grundsätzlich ist das ein Modell was auch für das was wir machen sehr sehr gut passt und eine ganze Klasse an Fehlern erstmal ausschließt. Auch so ganz einfache Sachen wie Memory Management. Also du hast halt da deine Aktoren, alles was da drauf gebaut wird stirbt zusammen mit dem Aktor. Das heißt wenn du so ein Request hast der reinkommt, Da macht er was für den Spieler oder was auch immer die App macht und dann stirbt der Prozess, nimmt alles Memory und so mit sich mit und vorbei ist es. Das heißt dann ist das alles vergessen. Wenn er crasht, ist nur das eine kaputt. Das sind einfach so Grundprinzipien, die da sehr, sehr helfen bei Systemen, die sehr parallel und auch nebenläufig arbeiten.
Also früher, als wir, da hatten wir auch noch sehr sehr, wo wir sehr viele Spiele hatten, sehr schnell und kurze Entwicklung, da hatten wir wirklich viele verschiedene Sprachen im Backend. Teile davon waren auch Erlang und damit haben wir für bestimmte Anwendungen auch gute Erfahrungen gemacht. Dann gab es auch Ruby, es gab auch andere Sprachen, es gab auch Scala und anderes und es kam am Ende da, so die guten Erfahrungen mit Ruby und mit Erlang waren halt in LXIR vereint und das haben wir uns dann halt damals angeguckt, das hat also A zu dem gepasst, was wir in der Firma konnten. Es hat aber auch unseren, so ein paar Schmerzen, die wir mit Erlang hatten befriedigt, aber auch mit Ruby. Also es ist auch so, dass in der LXC-Welt sehr, sehr viele Leute von Ruby, von Rails kommen, also auch sehr viel diesen Geist mitbringen, der auch teilweise sehr viel Gutes hat. Nicht alles, aber teilweise. Und dann war es einfach, von da an hat sich das bewährt. Also wir haben nur noch gewartet, bis LXC 1.0 draußen war. Vorher haben wir da nichts mit wirklich gemacht, aber dann haben wir uns langsam ran getestet und das war dann, hat von Anfang an gepasst. Und nach wie vor gibt es bei uns seitdem wir das machen auch wenig Suche nach Alternativen in anderen Sprachen und sowas, was es ja auch immer gerne gibt, dass man dann nach was anderem guckt.
Ja, so kann man das natürlich sagen, also wenn wir andere Sachen machen würden, da gibt es viele Anwendungsbereiche, wo das nicht das Perfekte wäre, das stimmt natürlich. Aber ich, also vor allen Dingen auch der Bereich, der erweitert sich gerade mit Alex hier. Also eine Sache, die wir jetzt haben, also wir haben auch sehr viele, ich nenne es mal Admin Interfaces. Also Interfaces, wo Leute, die irgendwas mit dem Spiel machen, mit den Backends interagieren, von uns intern, was mit den Servern machen wollen und dort, da benutzen wir seit einiger Zeit Liveview. Das ist so ein neues Paradigma der Webentwicklung, sage ich mal. Also so ein bisschen. Es hat ja angefangen mit Static Generated HTML, das war so das Klassik PHP wie wir es kennen, du hast auf eine Form geklickt oder einen Link und dann hat sich was neu gerendert über Templates im Backend. Dann war das natürlich nicht dynamisch genug, wir wollten sehr viele Dinge tun und da ging es halt bis hin zu diesem Single Page App mit JavaScript, wo man quasi nur noch einen riesen Application lädt und Live View ist so ein bisschen der Weg in der Mitte. Man muss dort, man rendert wieder Seiten im Backend und hat eine JavaScript-Komponente im Client, die quasi die Diffs nur ins Frontend rendert. Das heißt, man hat quasi wieder ein Template im Backend, was man rendert, was man dynamisch updatet und dann hat man in diesem Framework ein Diff-System, was sich das HTML-Diff ausrechnet und das über Websockets an den Client pusht. Das ist ein sehr, sehr guter Mittelweg für einige Anwendungsbereiche, wo man dynamische und auch sich ständig updatende HTML Seiten haben will. Also man wird damit jetzt nicht Google Maps entwickeln oder sowas, aber sehr viele dynamische Sachen kann man halt besonders auch sehr schnell entwickeln. Dashboards zum Beispiel. Das haben wir massenweise und gerade halt auch schnell und auch dynamisch kann man da sehr viel und schnell machen und das ist auch so eine Sache, die wir getestet haben und das hat uns halt einen ganz neuen Horizont erschlossen, weil wir auch gerade im Backend halt immer, wir haben halt irgendwelche Frontends gebaut, aber eigentlich wollten die Leute Backend machen und dann braucht man diesen ganz anderen Mindset, da muss man erst eine Javascript Pipeline aufbauen, das ist ja auch eine ganz andere Sache. Das hat ja auch seine Eigenheiten, das Ökosystem, ich sag's mal so. Dann fängst du an da den State, also es gibt ja auch genug coole Anwendungen, die damit geschrieben werden, aber es hat halt auch Probleme, gerade wenn man einfach nur ein bisschen dynamisches Dashboard schreiben will und dafür eignet sich das halt perfekt, weil du halt dann auch wieder im Backend hast du für jede Website oder jeder View, der aufgebaut wird, einen Aktor im Backend, Der hält das virtuelle DOM für diesen einen User und da kannst du halt im Backend über Event und sowas, wie du das halt dann auch mal deine Applikation aufbaust, dieses virtuelle DOM updaten und du hast dann halt das Live-Reframework, was dafür zuständig ist oder was dann den kleinen Ansicht, was der Nutzer im Browser sieht, halt für dich updatet. Und das ist halt auch wieder sehr gut widergespiegelt in LX hier und der ganzen, ja man muss sagen in der Beam, also der Virtual Machine von Erlang mit diesem Aktormodell und was das kann. Dazu ist natürlich in der ganzen Architektur von Erlang dieses Aufrechterhalten von tausenden, hunderttausende Millionen aktiven Netzwerkverbindungen so ein bisschen so ein Heimspiel. Also das ist das was es kann. Und das heißt da kann man gerade diese Dinge auch mit abdecken und mittlerweile wird dieses Paradigme von Liveview auch von anderen Frameworks, also von anderen Sprachen auch benutzt, also in der Ruby Welt wurde sowas nachgebaut, es gibt mit Livewire auch sogar was von PHP, da gibt's eine lange Liste, in Go gibt's auch was. Und gerade bei Ruby, also sind die darüber gestolpert, dass halt zum Beispiel, dort kann nicht so mit Prozessen umgegangen werden, das funktioniert einfach nicht, das war auch tatsächlich eine der Motivationen von Chris McCord, also das ist der Gründer oder der Autor des großen Webframeworks Phoenix, der hat das probiert in Ruby zu bauen und ist dann gescheitert. Und dann führte eins zu anderem und Jahre später gab es dann halt Phoenix. Gab auch noch andere Gründe, aber das ist eine der Geschichten, die er erzählt. um mal diese Idee von Live.io umzusetzen, weil die Idee gab es schon viel, aber das... Man braucht so ein bisschen die Foundations von Alexia, um das wirklich gut und auch in großen Skalen umsetzen zu können.
Also Live.io ist wirklich eine große Sache in dieser Alexia Welt. Also generell wenn man so in die Alexia Welt reinschaut, da hast du halt erstmal so die Sprache so in unison mit dem Erlangen Ökosystem, Das ist das, was da so generell erstmal die Foundation ist für das Grundinteresse. Das ist so das, was alle primär dahin zieht. Dass du diese Stabilität hast und dass du eben dieses Betriebssystem quasi in deiner Sprache hast. Dass du so eine konkrete Vorstellung hast von Prozessen und das sind alles so First Class Objekte in deiner ganzen Sprache sind. Aber dann das zweite große Ding ist halt dieses Phoenix Web Framework, was halt einfach das Entwickeln von Webseiten einfach super einfach macht. Also das hab sogar ich hingekriegt. Ich hab keine Ahnung von Webdevelopment, aber das ist einfach zu naheliegend und wenn man erstmal die anderen Prinzipien drin hat, dann ist das mehr oder weniger so ein Abfallprodukt. Also man kriegt einfache Webseiten sehr sehr einfach hin. Und dann dachte ich so, oh ja, dann gibt's ja noch dieses Liveview und das ist jetzt bestimmt voll kompliziert und dann stellt man fest so, ne, gar nicht, das macht dann sogar noch komplexere Anwendungen sehr einfach, weil du auf einmal es nur noch quasi mit einem Aktionsort zu tun hast, also alles befindet sich auf dem Server und der Server hat einfach eine klare Vorstellung davon, was auf dem Bildschirm auf der Webseite ist. Und ich weiß nicht, ich hab den Vergleich letztes mal schon gebracht, aber ich sag's nochmal, das ist im Prinzip so ein bisschen die Wiedergeburt des Unix-Terminals. Also so wie du früher unter Unix eine Anwendung gemacht hast, die so im Unix Betriebssystem Multi-User lief und das beste Beispiel ist... So wenn du immer guckst, okay, Programmiersprachen und Frameworks, was ist so die Standard-App, die so als erstes Beispiel geliefert wird, da hast du dann so jahrelang Taschenrechner gehabt, so mit Force und so weiter, bis das dann irgendwann nicht mehr ging, dann war's irgendwie die To-Do-App, das hält sich irgendwie auch noch bis in die Neuzeit. Und bei Liveview ist dann so immer so dieses, ah jetzt machen wir mal ein Multi-User-Chat. So ein Multi-User-Chat, das wirfst du so mal eben so aus der hohlen Hand. Du hast alles da, was du brauchst, diese ganze Kommunikation, mehrere User kommunizieren, jeder hat seinen eigenen View, alles updatet sich in Realtime, das ist so in Liveview ist das einfach, da musst du noch nicht mal groß drüber nachdenken, wenn du das halbwegs verstanden hast, um das da so hinzuwerfen. Und ich finde das sagt schon so einiges darüber aus auf welcher Komplexitätsebene man hier überhaupt einsteigt, ohne dass es, also Komplexität im Sinne von des Ergebnisses, was du aber relativ einfach mit den Bordwerkzeugen angehen kannst und von da startest du dann sozusagen in komplexere Welten rein und das ist wirklich ein komplett neues Paradigma. Man muss auch dazu sagen, es löst nicht alle Probleme von Web-Anwendungen, also wenn du, du hast ja schon gesagt, so Google Maps, also alles was so highly local interaction hat, ne, wo du so viel unmittelbare lokal anwendbare Events hast, also direkt Objekte, ähm. Bewegen muss und viele Operationen hast, die halt so unmittelbar im Code des Javascript-Interpreters im Browser laufen, ohne jetzt Serverinteraktion zu haben, aber in dem Moment wo das was du siehst primär eigentlich auf dem Server existiert und so ein shared state ist, Dann wird's wiederum sehr einfach mit Liveview solche Anwendungen zu machen und das kann man sich auf jeden Fall mal anschauen, das kann viele sehr komplexe Setups, wo man mit, ja jetzt brauchen wir hier so eine Single Webpage App und React und tralalala, damit das irgendwie alles eine gewisse Fluktuizität hat und dann müssen wir noch ein Protokoll machen und dann haben wir noch unsere Datenbank und GraphQL und so weiter, um was relativ einfaches zu bauen. Und sowas kannst du mit Liveview eigentlich da beiseite fegen und sagen so nee scheiß drauf, das machen wir einfach alles im Server und diese schnellen Updates in der Webseite, die pushen wir halt einfach von hinten da rein und dann passt das schon. Also das ist schon eine interessante Welt die sich da auftut.
Und was nicht heißt, dass du kein JavaScript zur Anwendung bringen kannst. Also in diesem LiveView Framework hast du halt so ein JavaScript Framework, in dem du einfach nur noch sagst, hier füge mal das JavaScript ein, was man braucht, um X zu machen, um irgendwas zu toggeln oder so. Und das wächst die ganze Zeit so an. Schade ist noch, dass man, wo es wirklich noch eine Grenze gibt, dass man noch nicht das so targeten kann, dass man sagen wir mal LXJ-Code richtig im Browser auch laufen lassen kann. In den Kommentaren gab es auch einen Verweis auf so ein Talk von F sharp über über F sharp, das ist so diese Microsoft Funktional Sprache die so in diesem C sharp dot net Ökosystem drin ist, also F sharp ist so zu C sharp so wie Scala zu Java sag ich mal ganz so in etwa ja in etwa. Und ich hab mir den Talk angeschaut, weil der wurde in den Kommentaren gepostet mit dem Hinweis der würde ja zeigen, dass man da auch mit objektorientierten Paradigmen irgendwie was anfangen kann. Ich hab mir den Talk angeschaut aber auch nur festgestellt, dass er eigentlich auch gesagt hat, ja ne wir machen nur Objektprogrammierung, wir machen aber nicht Objektorientierung, weil Objektorientierung ist nämlich Mist und die Idee von Objekten und dann haben wir halt diese Dot-Syntax, die finden halt alle so toll. Und das ist halt auch der einzige Grund warum man das immer macht, weil die Leute es halt gewohnt sind eine gewisse Syntax zu sehen. Aber in diesem F-Sharp, deswegen erwähne ich das jetzt gerade, die haben nämlich die Möglichkeit, das heißt ich hab vergessen wie das dann heißt, quasi aus F-Sharp-Code unmittelbar JavaScript-Code zu erzeugen.
Ja, also es gibt sogar eine Implementation oder Versuch, also auch Beam in WebAssembly, also in den Browser laufen zu lassen, das hat jetzt gerade jemand, das von Scala, das gibt's auch schon seit Ewigkeiten, das gibt's in allen möglichen Varianten. Das weiß ich nicht, wie sehr das die Lösung ist, weil man muss ja dann, also meine Erfahrung zum Beispiel mit Scala.js war auch dann, sobald man in der Interaktion mit dem eigentlichen, mit den nativen APIs und verschiedenen anderen Art und Weisen kommt, wird es dann wieder sehr komplex und unintuitiv, weil man dann doch wieder, Ja, sich in fremde Umgebung begibt. Man hat dann halt eine Sprache, die komplett anders ist, ganz andere Paradigmen hat und trifft dann doch auf dieses am Ende die JavaScript Umgebung. Und es wird halt auch teuer und groß, was man da baut. Und so mit Zwang eine Sprache woanders laufen zu lassen, als wo sie gedacht hat, also es mag dafür so Edge Cases geben, aber ich hab da noch wenig wirklich sinnvolles für gesehen, dass das am Ende funktioniert.
Und dann ist es keine hundertprozentige gleiche Umgebung, also du schreibst dann Scala oder was auch immer dann in Javascript und dann gibt's irgendwelche Sachen, die dann doch anders funktionieren und dann willst du aufhören. Das hört sich auf Papier so schön an. Du schreibst Code, der überall gleich ist und dann, aber es ist in der Praxis, zumindest ist meine Erfahrung, ich hab damit auch nur ein bisschen rumgebastelt, war jetzt nicht sehr positiv und das mit, das ist auch mit Elixieren-Browser glaube ich ähnlich, da würde ich sogar im Zweifel eher dann sagen, wenn man so Accelerate, also im Client Accelerated Sachen machen will, würde ich dann eher das, was du meintest, diese JavaScript-Hooks in Liveview nehmen zum Beispiel oder dann vielleicht auch TypeScript nehmen oder sowas, da gibt es ja mittlerweile auch schon Weiterentwicklungen, aber halt etwas, was mehr für das Ökosystem gedacht ist. Da kommt man glaube ich langfristig weiter, weil es dann halt auch die ganzen Libraries und alles drum dran gibt, die man dann braucht. Also man darf nicht unterschätzen, wie sehr man im Browser, also was unterschätzen, man muss halt ganz viel mit dem DOM, mit HTML interagieren und das ist schon komplex, diese ganzen Funktionen und das macht halt nun mal Javascript oder TypeScript am besten. Ja also es ist so, es gibt halt no silver bullet, also das ist eine der Sachen die ich auch schmerzhaft lernen muss.
Tja naja, auf jeden Fall lohnt sich das anzuschauen und falls ihr irgendwie Alexej Poamira in Berlin seid dann schaut doch mal im X-Heim rein, da gibt's auf jeden Fall Interesse. Ich könnte mir gerne auch eine Mail schreiben, vielleicht kriegen wir da ja noch ein Treffen mal zustande, das fände ich ganz cool.
Oh ja, ja das ist auch so ein ganz anderes System, ich weiß nicht wie tief wir jetzt da reingehen wollen, das ist NERVS, das ist so die komplett andere Ecke, das ist für Embedded System. Da gibt es mittlerweile auch ein LXC Framework, was ich auch nur aus Spaß mal ausprobiert habe und das läuft auch ziemlich gut. Damit habe ich zum Beispiel das Türschließsystem gebaut für ein X-Hine, was soweit ich weiß auch mittlerweile andere Hackspaces benutzen. Im Endeffekt ist das nur eine Mini-Firmware für ein Pi, wo man halt quasi sich mit einem SSH-Key authentifiziert. Also du hast auf deiner App oder sonst, du hast halt einfach eine SSH App, die macht SSH Add und dann wirst du halt reingelassen, wenn du den richtigen Key hast oder also dein Key zugelassen wurde. Und das Gute daran ist, weil Alexi oder Erlang halt da ist, es läuft halt immer. Also es startet sich neu, wir haben davor irgendwelche Skripte mit Debian und sonst was da drauf gehabt und es ist immer irgendwie gecrashed. Und jetzt halt mit diesem Nerves, das ist glaube ich 20 Megabyte groß, das lädt sich einmal von der SD-Karte in Memory, läuft dann in Memory, holt sich dann noch so eine signierte Liste mit den Keys runter und dann läuft das halt einfach. Und seitdem wir das haben, sind wir sehr glücklich. Geht's und das ist auch auf GitHub, das ist im X-Halm, GitHub kann ja gleich mal den Link da reinschmeißen.
Not very much lines of code und da hat sich dann auch wieder ein anderer Aspekt von Erlang gezeigt, das ist halt wie du ja auch gesagt hast, das ist im Prinzip ein kleines Betriebssystem, das hat auch SSH implementiert, ich hab mir das auch mal vorher angeguckt, ob es auch abgehangen ist, ja ist es. Das heißt das hat eine eigene SSH Implementation die man da nutzen kann. Ist ein bisschen, muss man sich reinlesen, die API ist ein bisschen kompliziert sag ich mal aber es geht.
Aber zu NERVs kann man vielleicht nochmal ein paar Worte sagen weil das ist nämlich so eine der interessanten, von mehreren interessanten Entwicklungen in diesem ganzen Elixier Öko System ist um halt den Reach noch ein bisschen zu erweitern. Also da merkt man schon, dass über Phoenix, das Webframework und eben speziell auch über Livewire erweitert sich gerade der Einsatzrahmen doch erheblich. Also es dringt sozusagen in Bereiche vor, in die Erlang bislang überhaupt nicht reinkam. Und NERVS ist halt auch so ein Ding weil es eben quasi eine bequeme Runtime eröffnet auf so Embedded Devices. Läuft ja nicht nur auf dem Pi sondern es läuft auch noch auf dem Beaglebone und anderen aber das sind im Wesentlichen so die Plattformen die unterstützt werden. Und wenn man sich das halt baut, dann sagt man halt im wesentlichen so hallo ich habe ein paar Versionen was auch immer drei vier so mach mir mal eine Firmware und dann kompiliert er quasi ein komplettes Linux, Aber so total strip down auf die 20 MB, die du schon gesagt hast, also wirklich so das absolute super minimale Linux, was du benötigst, nur um eine Elixier, also eine Erlang Runtime auf dem System zu fahren. Brennt dir das dann sozusagen direkt in so ein Image und das schreibst du dann einfach auf eine SD-Karte, steckst rein, schaltest das Ding an und dann bootet der irgendwie da rein und dann kannst du da sofort irgendwie mit SSH drauf und kannst irgendwie deinen Code zum Laufen bringen, sagst aber hier ist meine App, die starte mal und dann läuft das so. Soweit so unbeeindruckend, das coole ist, dass es dann halt schon auch darum wiederum so ein Ökosystem gibt, wie zum Beispiel Nerves Hub, wo du dann so eine Software hast, wo alle deine Devices, also du hast jetzt irgendwie ganz viele von diesen Dingern, Dann hast du immer das Problem, du willst die Firmware aktuell halten, du willst irgendwie gucken was machen die, laufen die gerade, was ist damit und so, liegen irgendwo alle irgendwo rum, haben zwar alle irgendwie Internet, aber überall SSH und gucken und was ist denn damit und sich eine Mail schreiben lassen und so weiter, da wirst du ja irgendwie bekloppt. Dann kannst du halt diesen Nerves Hub nehmen und dann können sich diese Geräte dort anmelden und du hast so einen Ort, eben diesen Hub, wo du all deine Devices siehst, du siehst was online ist, was offline ist und wenn du dann eine neue Firmware hast, dann wird die automatisch eingespielt, du kannst auch Firmware Updates über SSH einzeln einspielen, aber dieses ganze Management und dann wird's auf einmal interessant, man hat jetzt nicht vielleicht 50 Türen, die man so administrieren muss, aber man kann das natürlich für jeden Scheiß verwenden. Und dann hast du eben wieder diesen Vorteil von dem Erlang-System, dass es halt so super stabil ist und dass du einfach den Code so on the fly ändern kannst, neue Firmware drauf, Software-Update. Zur Laufzeit musst du nicht wirklich was runterfahren der Code wird einfach ausgetauscht und dann läuft das irgendwie weiter und du hast immer so alles so im Überblick und das ist irgendwie eine relativ starke Bewegung in diesem ganzen LXDR Ökosystem und dann gibt's noch so ein paar andere Sachen auch für andere User Interfaces, Scenic ist etwas was sich dann in diesen Embedded Devices auch so als User Interface, API anbietet, noch so ein paar andere Entwicklungen also da ist auf jeden Fall eine ganze Menge am Laufen also wer da mit IoT rum baut findet da eine Menge.
Also das ist auch wirklich gerade ein interessanter Zeitpunkt im Elixir Ökosystem. Das ist jetzt schon wirklich mature, gerade mit Phoenix im Kern, dem Web Framework hat sich jetzt auch über die letzten Jahre wirklich sehr viel in die Breite entwickelt, neue Sachen, ein ganzes, ich glaube das Thema lassen wir vielleicht heute mal aus. Aber der ganze Machine Learning, da gibt es ein komplett eigenes System und Möglichkeiten Modelle und so weiter auch in LXI laufen zu lassen, das ist auch super interessant, da kann man auch sehr schön mit rumspielen, aber das ist glaube ich nochmal ein eigenes Thema. Das macht auf jeden Fall sehr viel Spaß und es ist auch schön zu sehen wie das in die Breite geht.
Leiser, aber sicher doch. Ja ich lade trotzdem mal das Thema ein und dann kümmer ich mich da drum, weil ich nach einem anderthalb Jahr nicht mehr weiß, welche Knöpfe ich drücken muss, Tim drückt auf seinen Puls, wenn der Stream gleich weg ist. Genau ich übergebe mir mal an Ralf weil wir wollten ja jetzt mal die Diskussion nachholen die wir letztes mal nicht gemacht haben denn wir müssen ja jetzt mal schauen ob der Untergang naht.
Ja in der Tat ist es mir ein Anliegen, um mal gleich die Latte hoch zu legen. Es ist glaube ich in der Tat überhaupt wirklich der Grund warum ich hier sitze. Weil als du mich gefragt hast so hm, Freakshow, wäre das nicht mal was? Wäre vom Vierteljahr meine Reaktion gewesen, oh anstrengend und arbeitet in Arbeit aus und ob wir uns da vertragen und so weiter. Aber es geht einfach nicht mehr, weil wir müssen über AI und Chat-GPT und dieses ganze Thema reden und vielleicht auf eine andere Art und Weise als es da draußen in 53.000, Blogbeiträgen und Postings und sonst wie passiert. Vielleicht kurz zu mir, wer spricht und warum maße ich mir an, jetzt überhaupt hier so ein Thema zu moderieren? Ich programmiere selber keine Machine Learning Modelle, wir haben aber in meinem Referat das, ich glaube, im deutschen Bibliothekswesen größte Drittmittelprojekt zum Thema Machine Learning laufen, das ist BMBF finanziert. Und da bekomme ich natürlich dann doch so das eine oder andere mit. Und seit ChatGPT im November rausgekommen ist, beschäftige ich mich pro Tag, würde ich sagen, so netto ungefähr eine Stunde damit, in dem ich zum einen wirklich versuche, alles leer zu lesen, was irgendwo an einigermaßen relevanten Publikationen erscheint, an Meinungsbeiträgen, was auch immer, und probiere in der Tat auch viel und intensiv selber aus, um ein Gespür dafür zu kriegen, Was passiert da eigentlich gerade und was kann es und was kann es nicht und was würde das für uns alle bedeuten? Und vielleicht können wir erstmal so einen ganz kleinen Crashkurs machen so in Grundlagen.
Weil ich zum Beispiel sehr viel ukrainische Webseiten nachschlage und es gibt nicht so viel, was ukrainisch kann und überhaupt so lange Texte, also gerade so Artikel in fremder Sprache, wo ich einfach mal wissen will, was geht ab so und dann hast du hier mal bulgarisch und da mal irgendwie komplexes spanisch und pipapo und Deep L ist wirklich fantastisch. Und es hilft einem halt auch sehr, auch wenn das jetzt nicht mein Daily Use Case ist, aber wenn man halt auch mal wirklich was formuliert und nach guten Übersetzungen sucht, entweder ins Deutsche oder eben auch in eine andere Sprache, dann ist es halt mit DeepL dann doch sehr einfach dann auch so Varianten zu finden, dass du auch wirklich genau den Punkt hast und so. Also das Lohn ist, ich hab da jetzt keinen Gewinn dabei, Aber bei Chat GPT hab ich nicht lange zögern müssen, weil ich halt mit diesem 3.5, schon verdammt interessante Ergebnisse hatte und dann als die Vierer im Angebot war und quasi nur über den Bezahlzugang zu erreichen war, dass ich mir so scheiß drauf irgendwie, ich brauch das jetzt und bereue auch bisher nix, weil es für mich die bessere Suchmaschine geworden ist.
Der Unterschied ist schon dramatisch. Also kurz zu DeepL, den liebe ich in der Tat auch seit Stunde eins. Ich bin noch nie da an die Bezahlschranke gestoßen, dass ich also irgendwas davon wollte, was mit der kostenlosen Version nicht gegangen wäre. Was ich insbesondere empfehlen kann, guckt euch das mal an, wenn ihr den Dienst auch ab und zu mal nutzt, der hat jetzt so einen Modus, du gibst dann von dir irgendwie formulierten englischen Text rein, mach mir den in noch besseres Englisch. Das mag ich sehr gerne, so eine Grammatiküberarbeitungsfunktion in DeepL. Das ist so auf der Startseite so ein bisschen nach unten in die Mitte gescrollt.
Ne das ist auch, kann man auch umsonst nutzen. Das ist eine Sache die ich wirklich fast noch häufiger nutze als die, genau besser schreiben mit DeepL Write. Da gibst du also links einen englischen Text rein und dann kriegst du Varianten. Im Englischen ist alles kürzer, alles prägnanter, als du es eigentlich im Deutsch-Englisch schreiben würdest. Das nochmal so als Tipp, feine Sache, aber auch das kann man sich natürlich von ChatGBT auch gut schreiben. Nee, also bei ChatGBT habe ich lange gezögert, weil eigentlich will ich denen kein Geld geben. Das war so jetzt überhaupt nicht die Geldfrage an sich, weil ich gebe für so viel Quatsch irgendwie monatlich Geld aus, da wäre das noch nicht der Punkt gewesen. Aber auf der anderen Seite bin ich da jetzt wirklich so in der Phase, okay wie soll ich meinen Kindern der einst erzählen, dass ich da nicht irgendwie, wo warst du als GPT 4 raus kam. Und alles was ich bisher damit so an Erfahrung gesammelt habe bestärkt mich darin, dass der Sprung von 3,5 auf 4 ist schon erstaunlich. Ich bring gleich ein paar Beispiele. Damit sind wir auch schon so ein bisschen in der Historie. Also das GPT kommt jetzt nicht irgendwie so aus dem Nichts, sondern das ist bekanntlich jetzt gerade schon Version 4. Man kann sich da auch die Historie angucken. 2017 ist das Ganze gestartet mit den verschiedenen Versionen und das was halt im Wesentlichen immer gesteigert wurde, war so die Anzahl an verarbeiteten und gespeicherten Informationen. Und die Grundlogik ist halt eigentlich relativ simpel, nämlich es geht nur um Text. GWT 4 kann jetzt auch Bilder, aber das würde ich sagen, klammern wir heute mal ganz aus, weil das ist auch mit Stable Diffusion und Midjourney noch mal ein ganz eigenes Rabbit Hole, in das wir, glaube ich, gerne mal in einer anderen Folge nochmal absteigen können, aber heute müssen wir uns, glaube ich, ein bisschen komprimieren, was das angeht. Also es geht um Text und es werden irrsinnige Mengen an Text halt analysiert, in Tokens zerlegt und dann wird quasi in einem Selbstlernprozess Prozess muss also ein neuronales Netz lernen, Lückentexte aufzufüllen. Das heißt also, man nimmt irgendeinen Text, der schon da ist, der ist dann auch Ground Truth, das ist also das, wo man hin will, und man nimmt in der Mitte ein Wort raus und die KI muss raten, welches Wort da wohl eigentlich reingehört. Und das macht sie immer und immer und immer und immer wieder. Dann habe ich erstmal so ein Grundtraining und ein Grundverständnis davon, wie quasi Sprache funktioniert und mit welcher Wahrscheinlichkeit das nächste ein spezielles Wort ist, von mehreren, die natürlich immer zur Auswahl stehen. Und dieses Grundmodell wird dann nochmal sehr aufwendig und das ist dann quasi jetzt der eigentliche Feenstaub, den JET-GBT dort dann drauflegt oder GPT-4. Wer dann nochmal wirklich händisch mit in der Tat hauptsächlich Arbeitskräften in Afrika angeworbenen und speziell trainierten, das kann man sich auch alles ganz gut durchlesen, was das wieder für Probleme alles impliziert, dann nochmal wirklich monatelang handgetunt. Ist jetzt Antwort A besser oder ist Antwort B besser? Und das, was am Ende bei ihm steht, ist nicht irgendwie eine Abbildung der Welt oder irgendwie ein Logiksystem oder sowas wie Wolfram Alpha, wo also irgendwo quasi so Logik-Patterns oder Strukturen hinterlegt sind, sondern es ist einfach ein riesiges, großes neuronales Netz von Wortwahrscheinlichkeiten. Und was dieses System dann halt tut, ist, dass es auf Fragen oder Kommandos antwortet. Man tippt Text rein und bekommt halt vom System eine Antwort. Und so mein Aha-Erlebnis hatte ich in der Tat wirklich dann bei einer Weihnachtsfeier letzten Jahres, wo ich mich dann halt mit einem von unseren promovierten MLern ein bisschen unterhalten habe und der hat den Satz gesagt, er fände es höchst verwirrend, was für fantastische Ergebnisse mit einem so simplen Ansatz zustande kommen. Weil dort eben nicht irgendwelche Entitäten modelliert werden, wie funktioniert die Welt, was ist ein Auto, was ist irgendwie eine Person, was ist die Weltgeschichte, das ist quasi das exakte Gegenteil von dem, was wir so im Bibliothekswesen immer versucht haben, Semantic Web irgendwie aufzubauen, so was sind die Bedeutungen, ja Wikidata, wir strukturieren irgendwie die Welt in Datenpakete, das ist das Gegenteil davon, man sagt einfach hier Well, hier System, da sind alle Texte, die in der Menschheit jemals geschrieben worden sind. Welche genau in das Training reinfließen ist da nicht so hundertprozentig klar. Ich werfe mal einen Link rein, das zumindest eine ganz gute Annäherung ist von dem worauf das textmäßig eigentlich so basiert. Aber mehr ist da eigentlich nicht. Da fragt man sich schon so, woher kommt das jetzt? Warum kann diese KI trotzdem so souverän und fantastisch irgendwie auf Dinge antworten, obwohl sie doch von gar nichts irgendwie eine Ahnung hat. Und da gibt es halt jetzt, finde ich, so einen Grundwiderspruch, dass nämlich die Kritiker und Zweifler und Sorgenträger halt sagen, das ist ja alles nur Statistik und das ist ja alles nur irgendwie halt Wortstatistik, da ist ja jetzt gar kein Geist oder Sinn oder Verantwortungsgefühl oder irgendwas dahinter. Und dafür kann es dann aber irgendwie dann doch ganz erstaunlich viel. Ich weiß nicht, habt ihr diesen Begriff von Stochastic Parrot? Ist der euch irgendwie über den Weg gelaufen? Also es gibt einfach so ein paar Kampfbegriffe, die jetzt so auch in der Twitter und Mastodon Debatte immer wieder hochgezogen werden.
GBT2, 3 gab's schon. Und der Punkt, den sie machen, kann man auch im Abstract schon sehen, würde ich sagen, ich wiederhole mich, ist goldrichtig. Sie sagen nämlich, okay, durch die ganzen Texte, die da reingegeben werden, werden auch die ganzen Vorurteile und werden die ganzen Stereotypen, die sich in diesen Texten abbilden, alle mit reingezogen und Wertemuster. Und Texte und Bücher sind nun mal im Wesentlichen von weißen privilegierten Männern geschrieben worden, in nicht unerheblichem Maße. Und viele Bereiche dessen, was so die WeltTM ausmacht, ist dort eben nicht abgebildet und das ist eine Gefahr und darüber müssen wir reden. Alles total richtig, unterschreibe ich alles, aber das hat nichts mit einem Papageien zu tun. Versuchen halt über die Überschrift jetzt so eine Diffamierung eines von Leistungen darüber, um halt irgendwie ihr Paper wissenschaftlich irgendwie zu positionieren. Das zweite was man häufig hört ist mansplaining is a service. Habt ihr das schon mal gehört?
Das wird sehr bestimmt falsch sein. Das ist sehr bestimmt falsch sein. Mensplaining ist hoffentlich bekannt. Das Breitbeinige, wozu wir hier in der Metaebene übrigens auf unseren Stühlen alle gezwungen werden. Das männliche, breitbeinige, vielleicht in der U-Bahn, sitzende, so ich erzähle euch jetzt mal wie die Welt funktioniert und besonders gerne erzähle ich das noch Frauen. Also mansplaining, ja auch wenn die es überhaupt gar nicht wissen wollen und dann auf seiner Meinung beharren, selbst wenn man es mit einer Expertin für genau das Feld zu tun hat, na ich hab aber trotzdem recht und ich kann es ja gerne deine Meinung haben. So und in der Tat, so in der November Dezember Release, also in der ersten von Chat-GPT 3.5 zu dem Zeitpunkt, war diese Attitüde durchaus spürbar. Das heißt also, wenn Chat-GPT da offensichtlich einen Unfug geschrieben hat und man dann ihm freundlich darauf hingewiesen hat, hatte ich also wirklich etliche harte Debatten so, nein, nein, das ist auf jeden Fall so und sie übersehen X, Y und sowas und Quatsch bleibt aber nunmal Quatsch, egal wie er sich dagegen gewährt hat. Das haben die meiner Wahrnehmung nach mit ihrer Februar Release fast nahezu vollständig abgeschaltet, also behoben bekommen. Also im Gegenteil, wenn man jetzt Fehler anmahnt, haben sie irgendwas an ihren internen Routen geändert, dass man jetzt sehr sehr viele Antworten bekommt. Oh ja, vielen Dank für die Korrektur, ich hab nochmal nachgeschaut, da haben sie natürlich recht und ich hätte berücksichtigen müssen, dass.
Das heißt also da ist innerhalb von wenigen Wochen quasi, ist dort schon irgendwo eine Evolution wieder gewesen aufgrund von einem Kritikpunkt und dieses so, wobei man dazu sagen muss, Servil ja, so und es ist auch schon ein bisschen anstrengend und wenn man ihn drum bittet nicht mehr so niederknien zu sein, Dann passieren Dinge. Er macht es trotzdem und ich kann auch gleich nochmal ein schönes Beispiel liefern, wo Chat.GPT für mich auch die neue Version 4 komplett gescheitert ist an einem sehr trivialen Ding. Sollten wir vielleicht auch nochmal drüber reden, wofür es funktioniert, wofür es nicht funktioniert. Ja ja, Mansplaining ist es auch.
Danke für den Chat, das in der U-Bahn ist Manspreading, das ist bei mir semantisch nahe beieinander verankert, aber es nennt sich das gleiche, also das ist das mentale Manspreading, bekommt aber auch Mansplaining in der U-Bahn, wenn man genau zuhört. Aber danke für die Präzisierung. Genau das ist mich jetzt quasi das dritte Missgrundverständnis was. Also ja es gibt dieses Mansplaining. Mit der Vierer glaube ich viel weniger als vorher. Trotzdem gibt es das. Das heißt ja aber nicht, dass man nicht trotzdem zu 80 Prozent nicht Mansplaining Antworten dort rauslocken kann, die eben korrekt sind. Und ich bin immer etwas zurückhaltend so diese Fail Antworten so in den Vordergrund zu rücken und das was schon gut funktioniert dem gegenüber irgendwie so nach hinten zu schieben. Wir können jetzt mal ein paar praktische Beispiele uns mal so zuwerfen. Das, was ich gemacht habe, ist, wir haben ein neues Sachgebiet, was wir bei uns an der Stabi einrichten wollen, bei mir. Und im Wissenschaftsbereich oder in den ganzen Kulturdingen sind halt Akronyme total hip, immer noch. Das heißt also du hast irgendwie eine Abkürzung und jeder Buchstabe steht für etwas. Was ich halt gemacht habe ist, ich habe JettGPT beschrieben, was dieses Sachgebiet macht und habe gesagt, jetzt schreibt mir nochmal zehn Akronyme dafür und löst die auf, wie ich dieses Sachgebiet nennen soll. Und das macht er dann. Und zwei bis drei davon waren schon richtig gut auf den ersten.
Naja und so richtig glücklich war ich aber noch nicht so und was machst du halt? Du sagst dann halt gib mir mal noch zehn. So und dabei bekomme ich schon so einen leichten Stich in der Magengrube, weil das ist doofe Arbeit. So das heißt also hier ist schon, findet bei mir selber schon so eine Projektion statt so, oh mein Gott diese arme KI muss sich jetzt mit so einem blöden Job hier rumärgern. Nicht wahr oder? Machs bitte trotzdem. So und dann kriegst du halt die nächsten 20 und dann denkst du dir so, ach was soll der Geiz. So Achtung gib mir mal noch 50, bezieh die 20 die du schon hattest mit ein und schreib zu jedem noch einen kurzen Abschnitt und rank die ganzen in wo du selber meinst was vom besten zum schlechtesten und schreib noch einen kurzen Kommentar dazu warum du denkst, dass es auf dieser Ranking Position richtig ist. Fantastisch gelöste Aufgabe. Was ich dafür für eine Werbeagentur für Geld drüber geschoben hätte für diesen Schritt und dann zu sagen das ist alles Mansplaining und das ist alles nur irgendwie ein Papagei der irgendwas nachplappert. Ja, diese Probleme gibt es, aber ihr müsst auch wirklich mal schauen, was auf der anderen Seite schon für eine Komplexität und für eine Effizienz und was das für eine Kreativmaschine ist. So und wenn man sich die Akronyme anguckt, würde ich sagen, so ein Drittel davon hat gar nicht funktioniert. Das war überhaupt dann gar nicht die Auflösung der Buchstaben. Ist ja aber egal, ich brauche am Ende ja nur einen. Das heißt also, hier kommen wir plötzlich auch auf eine Ebene, dadurch dass die Queries quasi so billig sind, jetzt die Energiediskussion mal weg, das wird auch alles lokal auf unseren iPhones laufen in zwei, drei Jahren.
Ja das wird sich lösen, also da kann man wirklich gucken, wie gesagt die Debatte führen wir heute nicht, aber im Imaging Bereich, wenn du dir anguckst, Table Diffusion läuft jetzt halt wirklich, also quasi mit Journey artiger Dienst, nicht ganz auf dem Niveau aber fast, läuft lokal auf meinem Iphone in der Neural Engine. Da gehe ich nicht mehr auf irgendeinen Server irgendwo hin, sondern solange ich nur Strom habe, kann ich dort lokal genau die Sachen machen, das wird mit den LLMs.
Naja das ist ja der neue Job, die neue Jobdescription heutzutage, also immer wieder gibt's neue Berufe und du weißt was jetzt so der AI Beruf ist, man ist jetzt was? Prompt Designer. Das ist jetzt sozusagen, das ist dann die nächste Stufe oder Prompt Wizard. Prompt Architekt. Ja das kommt noch, das kommt noch, Chief Executive Prompter.
Dahinter steckt ja aber so hinter diesem Prompt Engineering steckt ja genau ein Mechanismus, der mich völlig kalt erwischt hat, dass das geht und zwar dieses sogenannte Priming. Das heißt also, was ich eben beschrieben habe, diese, oder jetzt Chat-GBT ist trainiert auf einem Text-Korpus aus dem Jahr 2000, der am Jahr 2021 stoppt. So alles danach kennt es quasi nicht. Und jetzt kann man aber halt jetzt hier und heute mit ihm reden und es gibt eben zwei Dinge, die wirklich anders sind als alles, was man vorher irgendwie im KI-Bereich hatte. hatte. Das erste ist Persistenz. Das heißt, man hat eben eine Unterhaltung, wo ich auf den ganzen bisherigen Verlauf der Unterhaltung voll rekurrieren kann.
Was so viel nicht ist, aber so eine Session, quasi so eine Chat Session, da hab ich es noch nicht geschafft, die jetzt quasi auszureizen an der Stelle. Und das ist halt so diametral anders als das, was bei Siri passiert, kommen wir ein bisschen später noch zu, zu ChatGBT und Kinder. Bei Siri fängst du immer wieder bei Null an, bei jedem einzelnen Kommando. Also Siri erzählt dir irgendwie Quatsch und du sagst nein, nicht so, sondern anders und sie lernt halt irgendwie überhaupt nichts dazu.
So und die Frage ist halt so wie funktioniert das eigentlich? Dass man plötzlich so ein echtes Gespräch führen kann und eine Persistenz der Argumente auch wirklich hat? Weil du kannst also sagen, guck dir nochmal deine Antwort von vor zwei Minuten an, ist nicht vielleicht XY stattdessen. Und das reagiert absolut souverän darauf. Und ich hab das einfach mal Chat-GPT selber gefragt und die Antwort ist relativ simpel, quasi mit jeder neuen Query wird halt alles was du vorher geschickt hast quasi als Text-Korpus auch im Hintergrund mitgeschickt. Also jetzt etwas vereinfacht gesagt, in Wahrheit ist es schon wieder in Tokens zerlegt und nochmal etwas anders abgespeichert, aber der Kontext wird halt mit jedem größer, aber der bleibt immer stabil und das wird immer mit hingegeben, das heißt also unter Berücksichtigung von. So und daraus leitet sich jetzt aus dieser Persistenz, dass sich also obwohl das Modell selber statisch ist, ich quasi immer wieder was oben drauf setze und die Konversation erhalten bleibt, kannst du halt dann diese sogenannte Priming umsetzen. Das heißt, dass du schreiben kannst, so du bist jetzt ein 5-Jähriger, erkläre mal die Handlung von Star Wars 1 und zwar so wie es ein 5-Jähriger tun würde und dann versetzt du eben Chat-KPT in so einen Modus, der versucht dann also wie ein Theater-Schauspieler das möglichst authentisch nachzuahmen aufgrund dessen was er halt in seinem neuronalen Netz als was sind so die Kommunikationswege eines 5-Jährigen und so der Wissensschatz und dann fängt der an, das entsprechend reinzuschreiben und das hat große Auswirkungen darauf, wie gut die. Qualität von Antworten ist, wenn man einen Priming davor einsetzt. Also Priming heißt so, ich versetze dich erst in einen Zustand und dann agierst du in den darauf folgenden Kommunikation unter dem Eindruck dessen, in was für einen Priming ich dich gesetzt habe. Und da wo ich das zum ersten Mal auf YouTube im Einsatz gesehen habe, ist das war hier bei der Firma von meiner Frau, sehr nett. Einer der Kollegen hat das mal wirklich dann live vorgeführt in einer in der Präsentation, wo es darum ging, zähl Chat-QPT, zähl mal die Sicherheitsregularien für XY auf. Und dann kam eine Antwort raus und die war zu 90 Prozent Quatsch. Das stimmte einfach nicht. Man hatte denselben Satz gesagt mit dem davor. Achtung, du bist jetzt Sicherheitsexperte für Thema XY. Führe bitte die Regularien für XY auf. Und dann kriegst du plötzlich eine Antwort, die sehr sehr signifikant besser war, im Sinne von zu 80% korrekt und noch zu 20% Quatsch. Sie hatte immer noch 20% Quatsch, aber alleine durch dieses Priming, du agierst jetzt in der Rolle von, fühlte sich also jetzt hier Chat-GPT gemüßigt beispielsweise halt irgendwo wissenschaftliche Quellen ranzuziehen und zu zitieren und zu gucken, okay, was sind jetzt irgendwie denn wirklich Gesetzestexte zu dem Thema oder was sind jetzt irgendwelche RFCs oder sowas. Es hatte also eine ganz sofort spontan ersichtlich komplett andere Qualität. Und dieses Priming ist etwas, was ich nicht für möglich gehalten hätte, dass das technisch funktioniert. Ich habe vor, ich glaube, sieben Jahren, acht Jahren oder sowas, mit MS Pro mal eine Keynote gehalten für eine Digital Humanities Tagung. Und da war so eine der Dinge auch KI und wie das eigentlich weitergehen wird. Und da hatten wir so als ein Modell, von dem wir denken, dass wir es noch erleben werden, den Modus, schreibe eine Novelle im Stil von Bertolt Brecht zum Thema Internet. So war es also. Tu so, als seist du Bertolt Brecht und schreibe halt jetzt irgendwie ein Drama dazu. Und da dachte ich so, ach, so in 40, 50 Jahren, vielleicht habe ich Glück. So das geht, das ist da. Das war eine der Sachen die ich in meiner ersten Nacht mit ChetGPT gemacht habe. Achtung du bist jetzt Berthold Brecht, schreibe ein Streitgespräch zwischen dir und Elon Musk über den Untergang von Twitter. Das war ein total schöner Text, der da rausgefallen ist, weil er so brecht dann eben mit der Arbeiterklasse und der Unterdrückung und die Freiheit und so weiter. Und Musk halt, was hatte ich denn, das zweite Priming, was ich da noch reingesetzt hatte und Elon Musk agiert auf dem Niveau eines Fünfjährigen, das war ein besonders schöner Dialog. Du kannst natürlich auch beliebig viele dieser Primings ineinander schachteln und quasi aufeinander irgendwie clashen lassen und wo ich dann wirklich sold war, war als ich den Prompt hatte, schreib einen Sketch. Im Stil von Monty Python mit Mastodon und Twitter in den Hauptrollen. Ja und den Text hab ich dann auch mal gepostet, kommt demnächst glaube ich sogar in dem Buch raus, der ist also wirklich Gold. Ja also wo dann irgendwie aus einem normalen Kaffeehaus Debatte zwischen den beiden, das dann so völlig in so einer paradoxen Intervention, Wird dann in ein Mittelalter Szenario raus gebrochen und dann tritt ein Ritter auf und der hat den Namen Sir Tweet-A-Lot und als ich wirklich gelesen habe, Sir Tweet-A-Lot, war mir klar, die Welt wird nicht so bleiben wie sie ist. Und das ganz offensichtlich passiert da irgendwie was und meine Wahrnehmung ist, dass gerade eine Menge Rückzugsgefechte irgendwie passieren seitens der KI Kritiker im Sinne von womit haben wir es hier eigentlich jetzt wirklich zu tun. Also der Klassiker war ja eigentlich immer der Turing Test, den wir 50 Jahre vor uns her geschoben haben. Also dieses klassische ich unterhalte mich auf der anderen Seite über eine Texteingabe mit irgendetwas und muss rausfinden ist das jetzt ein Mensch auf der anderen Seite oder ist das eine Maschine. Und 50 Jahre lang haben wir da gesessen und es war innerhalb von 20 Sekunden immer klar, was so auf der anderen Seite ist. Das Thema ist einfach mal gegessen. Also für 99% der Menschen besteht Chat-GPT4, den Turing-Test so tiefenentspannt. Es ist dann eher auffällig, dass es zu gut ist. Das ist aber eine sehr schlaue, eloquente, was auch immer Person. Du musst erstmal jemand anders finden, der auf dem Niveau überhaupt interagieren kann.
So, also diese Grenze ist mal gefallen, wurde aber gar nicht groß thematisiert, ja. Das erinnert mich so ein bisschen, ihr werdet euch erinnern, wo die ersten KIs im Schach gewonnen haben. Und dann hieß es, ja gut Schach, darauf optimieren sie ja auch seit 20 Jahren, aber Go, jetzt kommt Go, das wird 100 Jahre dauern. Sondern hat es anderthalb Jahre gedauert. Und plötzlich war der Go-Master besiegt. Und genau solche Rückzugsgefechte sehe ich jetzt also auch. Also Touring-Test ist nicht mehr und jetzt wird quasi im Wochenende.
Die haben die aktuell beste Go KI wieder so, wie sagt man, nicht deployed, sondern wenn man sich da reinhackt und quasi exploitet genau und haben quasi so ein Vektor gefunden, wo du sie dann wieder reinlegen kannst, aber das wird nicht lange halten, das wird dann halt gepatcht und dann ist es in einem Monat, das haben sich alle mal drüber gefreut, aber das.
Also das macht es halt auch schwer, aber ich gebe dir schon recht, das ist sehr viel mehr Substanz, also deutlich mehr Substanz. Aber ja, also man muss da schon differenzieren was das alles ist, also es wird sehr viel und alles überall versprochen und nicht alles geht. Aber auch bei uns ist das natürlich ein riesiges Thema, also bei uns ist das Thema generieren von Spiele, Assets und so weiter, also wir werden sehr viel Aufwand darin den Inhalt von Spielen zu erzeugen, also diese virtuellen Assets und du kannst halt heute sagen generate me 3D model of an octopus und das geht. Und da ist besonders auch dieses Priming interessant, also das darf vielleicht noch ein bisschen anders, aber man kann halt sich sowas wie Stable Diffusion oder so nehmen. Und dann mit bestimmten Algorithmen halt mit einer eigenen CI oder von einem Spiel den Artstyle halt drauf trainieren und dann halt entsprechende Modelle entwickeln, die dann im Artstil oder in einer bestimmten Sache das halt entwickeln, das ist übrigens eine, ich hatte eine, das ist auch mal eine sehr gute Idee für irgendwann mal ein Theme für einen Kongress oder so, dass man einfach mal so ein Modell macht, was dann in einem bestimmten Stil was generiert, also das sind alles, Das sind große Themen und das ist auch nicht nur Art, das ist auch Storywriting, was wir auch viel machen, natürlich auch die Softwareentwicklung, also das ist überall ein Thema, wo es sehr viele interessante Dinge gibt. Es gibt Startups noch und nöcher, die das alles versprechen und so und das ist sehr interessant, wird sehr interessant zu sehen, wo dann am Ende das verfängt und was bleibt. Ja also was ich jetzt auch merke, also wir haben bei uns auch sehr viel mit dem ganzen Code Generating um, wir haben sehr früh zum Beispiel auch das Copilot von GitHub bei uns angeschaltet und das ist schon auch sehr interessant was man damit machen kann, weil man, das ist dann so ein bisschen wie so eine dritte Hand, wenn man damit arbeitet. Man muss es kennen, also es ist nicht so ein Magic Stick, der alles macht, aber wenn man weiß wie es geht und man das so als Tool, Erkennt und das dann halt so den eigenen Code erweitert und man dann weiß ich schreibe jetzt mal einen Kommentar, mach mir mal ein Modul was ABC macht, dann generiert der das schon mal und solche Sachen wie sprich mal mit dieser API für mich und dann generiert der das raus und dann musst du dich nicht durch Ellenweise irgendwie kryptische Dokumentationen durchlesen.
Um das gleich nochmal zu ergänzen, das war für mich jetzt auch in den letzten drei Monaten, als ich mich so in LXC reingearbeitet habe, eine totale Hilfe, weil du ja bei solchen Sachen immer ganz oft so dieses Problem hast, manchmal siehst du den Wald voll auch der Bäume nicht mehr und denkst dir so, warum geht das jetzt nicht, das ist doch irgendwie genau so wie das da steht und kommst nicht mehr weiter und das ist so eine ganz doofe Sache, wo du eigentlich immer nur jemanden halbwegs erfahrenen neben dir brauchst, der sagt so ja hier Buchstabe XY Semikolon Tralala. Und da war dann Chat GPT für mich auch eine echte Hilfe, weil ich halt immer so einerseits so eben Fehlermeldungen machen konnte, aber ich konnte halt auch mir so Ansätze liefern lassen so. Angenommen ich würde gerne folgendes Problem lösen in Alexia, was wäre dein Ansatz, was soll ich da verwenden und dann kamen halt so Hinweise auf Sachen so, ah ok das sollte ich mir mal genauer anschauen und so könnte ich das mal machen. Den Code, der da erzeugt wurde, der meistens noch mit dazu kommt, der war da meistens so, da hab ich das mal versucht das zu übernehmen, kompilte nicht, funktionierte nicht, hab ich meistens weggeschmissen, neugeschrieben, aber überhaupt um mich erstmal auf den Weg zu bringen war er super hilfreich.
Da hab ich bessere Erfahrungen mit Copilot tatsächlich gemacht, mit Code Generator und das ist halt einfach so Tab Completion, das ist so wie man's kennt und das ist halt in deinem Editor drin. Das ist ein ganz eigenes Thema, da muss man sich bewusst sein, dass man jetzt seinen ganzen Code zu Microsoft schickt, also die Github-Besitzung.
Also das muss man sich bewusst sein, aber das macht schon sehr, sehr, sehr gute Sachen und das wird auch kontinuierlich besser und ja, es zeigt einem halt was möglich ist und was nicht möglich ist, aber was klar ist, ist, dass es die Produktivität auf jeden Fall erhöht. Wenn man lernt damit umzugehen und sozusagen die Feinheiten versteht, was man da zur Verfügung hat. Also was halt noch, also solche Sachen wie so einfache Plugins für Photoshop zum Beispiel, dem du dann halt einfach sagen kannst, hier ich hätte mal gerne einen Baum und dann hast du halt einen Baum und dann gibst du noch ein paar Sachen dazu und dann ist halt in Photoshop so eingebaut, dass du das dann als Grundlage nehmen kannst, um halt damit weiterzuarbeiten und solche Sachen, also das ist, da gibt es schon viele Sachen, die noch so kurz davor sind, wirklich nützlich zu sein, aber da sehe ich schon einiges, was da kommt und kommen wird.
Das ist ja auch Open Source und alles mit freien Stichstellen, APIs und sowas. Hat in der Tat halt out of the box erstmal nicht funktioniert und dann schreibt man funktioniert nicht und dann schreibt er sehr viel zurück ja oh stimmt so kann das natürlich auch gar nicht funktionieren probier mal den Code, funktioniert immer noch nicht ja dann also schon mal doch hier nochmal also ich hatte am Ende vier verschiedene Varianten die alle sehr unterschiedliche Ansätze auch erfolgen um dieses eigentlich relativ simple Problem zu lösen was ich da hatte. Keiner von denen hat funktioniert, aber du hast halt eben schon mal vier unterschiedliche Patterns, mit denen du jetzt irgendwie schon mal nachrecherchieren kannst, okay, wahrscheinlich ist irgendwo wirklich ein relativ kleines syntaktisches Problem irgendwo drin, weil von der Grundlogik her schiebt mir das erstmal soweit, alles reproduzierbar zu sein. Ich muss gestehen, ich bin etwas ratlos, was diese Codequalitäten von JetKPT an, wo das überhaupt herkommt, weil diesen Code zu dieser Idee, die ich da hatte, die gibt's so im Internet eben nicht. Und dieser Gedanke so, es wird nur das repliziert, was schon mal irgendwo irgendwer geschrieben hat, das scheint mir hier nicht mehr eine hilfreiche Erklärung zu sein.
Naja, nicht eine 1 zu 1 Kopie, sondern eben schon. Also ich meine so wie diese Large Language Models in der Lage sind, Sprache zu verstehen, den Inhalt zu verstehen und mittlerweile ja auch Mathematik zu verstehen. Das ist ja zum Beispiel etwas, was die meinten zu Chachapiti 4, während 3 sich noch sehr viel verrechnet hat und einfach Unsinn produziert hat. Sie hätten da jetzt gar nichts spezifisches gemacht, sondern es wäre halt einfach nur besser und irgendwie hätte er das selber rausbekommen. Keine Ahnung wie zuverlässig das ist, da wäre ich immer noch sehr vorsichtig bei Mathe, aber geht auf jeden Fall. Und es scheint eben auch mit Code zu funktionieren. Und ich meine da machen wir uns nichts vor, auch Code ist am Ende Menschen gemachte Abstraktion und von daher nicht so sehr viel anders und Text und nichts sehr viel anderes.
Ich weiß gar nicht, ob die das nicht sogar, also statt jetzt das wie ein Wort zu tokenisieren, sich den Syntax-Tree angucken, weil das ist ja das Schöne an Quellcode, das kann man halt alles auf diese Meta-Ebene auseinanderbauen und das stelle ich mir als sehr gute Ebene vor, mit so einem Modell auch den Code zu verstehen und halt wieder neu zu generieren, also diese Zwischenebene, die man halt da generiert und, Ich meine zum Beispiel dieser neue, wie heißt das, Bart oder so von Google, der kann ja zum Beispiel noch gar kein Code und ich glaube auch, dass dieser Code so ein Special Fart von Chat GPT ist, das ist eine Vermutung, ich weiß es nicht, aber ich glaube nicht, dass sie da ihre Standard Textverarbeitung drauf anwenden, das wird ein spezielles.
Du weißt ja, was man zur Dokumentation sagt, du beschreibst ja nicht was passiert, sondern, also nicht was da passiert, sondern warum du das machst. Warum der Code das macht, was er tut. Und eigentlich ist es so, wenn du Code dokumentieren musst, weil er irgendwas tut, dann nur weil du selber nicht verstanden hast, warum er das tut. Und das ist aber ein Bugfix für irgendwas, was sich anders nicht fixen ließ. Ansonsten hast du keine Dokumentation im Code, wenn er lesbar ist, weil du ihn nicht brauchst.
Ich will nochmal kurz ein Beispiel einstreuen, was bei mir nicht funktioniert hat. Ich habe das jetzt einmal längere, mehrmals hintereinander versucht, bis ich gesagt habe, okay offensichtlich ist das etwas, was du nicht kannst. Bin aber trotzdem immer noch sehr überrascht, dass es nicht funktioniert hat und ich habe eine These warum und vielleicht ist das aber mittlerweile auch schon nicht mehr so, weil irgendwas gefixt wurde. Relativ einfache Aufgabe, ich wollte mir eine Liste von Wörtern generieren lassen, die alle aus einem bestimmten Domäne rauskommen. Sagen wir mal Computerfachbegriffe und ich glaube ich hab noch sowas gesagt wie die so ein bisschen was mysteriöses haben. Bedingung, jedes dieser Worte muss in der deutschen Sprache exakt zehn Buchstaben lang sein.
Und das war wirklich interessant, die haben gesagt gib mir mal eine Liste von 15, kam die Liste, 15 Worte, 10 davon waren 10 Buchstaben lang und die anderen waren 9, 11, teilweise 12, 13, mehr oder weniger so in the ballpark so, Also, okay. Schau dir doch die Worte nochmal an, bist du wirklich der Meinung, dass die alle 10 Muscheln, oh, Wana, das tut mir leid, I have failed you, hier ist eine neue Liste mit 15 Worten, genau so falsch war das. Und das ging drei, vier, fünf, sechs Mal hintereinander, bis ich mir dachte, so weit sind wir noch nicht. Und dann hab ich versucht zu überlegen, warum ist das jetzt so? Und was offensichtlich hier noch Rolle spielt ist dieser intrinsische Disconnect zwischen dem, was er so an Worten rauswerft und was er versucht zu beschreiben. Weil das ja immer so eine Wahrscheinlichkeitsmaschine ist, die ja auch bewusst irgendwie mal so mal so entscheidet und er war dann überhaupt nicht zu bennig, dann fing er an irgendwelche Camelcase-Worte zu erfinden, so in seiner Not, weil er merkte so, oh ich bin nicht glücklich und so, Kunde nicht glücklich hat 20 Dollar bezahlt. Das ist ja auch noch so ein Aspekt. Die wollen mich ja glücklich machen, deswegen lügen sie mir im Zweifelsfall was vor, bloß lügen geht halt nicht, wenn ich so eine konkrete Anforderung habe. Und dann kam er dann so mit Camel-Case-Worten, ich hab gesagt, ich möchte keine Camel-Case-Worte, fing er an Bindestriche zu verwenden. Willst du mich verarschen? Auch keine Bindestriche kam er wieder mit Campbell Case, also war er in totaler Not, weil er an der Stelle keinerlei Outlet gesehen hat und man merkt da einfach die Bewertung des finalen Wortes mit dem er mir versucht eine Lösung zu beschreiben, dass die selbst den Anforderungen genügen muss, die ursprünglich gefordert waren in dem Wort selber, das hat nicht funktioniert.
Du kriegst Reime auf Deutsch ganz gut mittlerweile, auf jeden Fall mit der Vierer-Version, aber es ist schon richtig, dass der Umgang mit englischer Sprache ist nochmal einen guten Tucken souveräner als auf Deutsch. Aber das ist lustig, weil ich hatte in der Tat ein sehr sehr ähnliches Szenario, ich weiß auch gar nicht mehr warum mir das an der Stelle wichtig war, aber ich hatte auch Anzahl von Buchstaben in einem Wort zählen, der kann nicht zählen, weil zählen halt jetzt mal kein Skill ist, der halt irgendwie was mit Sprache im engeren Sinne zu tun hat. Also er kann ganz gut irgendwie so Prozente rechnen und sowas, das funktioniert ganz gut aber Buchstaben in einem Wort zählen kann er ganz häufig nicht, beziehungsweise wie du gerade eben sagst, er hat eigentlich ein super Wort, was er dir bringen will, das hat aber irgendwie zwei Buchstaben zu viel, ja scheiß drauf, es ist einfach so gut, ich kann nicht anders, ich muss es trotzdem hinschreiben. Also sprich, das ist dann eben genau immer dieser Pfad von Wahrscheinlichkeiten, der dann zu solchen Effekten führt. Ich hab noch mal in den Chat einen ganz interessanten, wie ich fand, Artikel reingegeben von Schlomyshare, mit Sicherheit falsch ausgesprochen, der einen ganz interessanten Ansatz fährt und sagt, wenn wir darüber reden wollen, reden wir jetzt eigentlich von Intelligenz, wenn wir hier mit LLMs uns beschäftigen und insbesondere mit Chat-GPT, oder ist das irgendwie keine Intelligenz? Und er sagt halt, Leute, geht mal weg von diesen super komplexen Fragestellungen, weil das kann es gut, ja, also schwierige, komplexe Geschichten kriegt ChatGBT4 verstörend gut hin. Geht doch mal zu ganz einfachen Aufgaben runter, ja, wo ich also mit ganz simplen Logikrätseln irgendwie hantiere. Und das Beispiel, was er hier bringt, ist diese Geschichte mit Jack und Jill, oder so, oder was weiß ich, Adam und Eva sind die beiden einzigen Personen in einem Raum. Die Person neben Adam ist glücklich. Die Person neben Eva ist traurig. Wer von beiden ist glücklich? Nicht so schwierig. Chat-GPT 3.5 kriegt es nicht hin. Sagt also wirklich reproduzierbar die falsche Person und wenn man ihn darauf hinweist kommt er dann in diesen eigentlich gar nicht mehr so häufigen Meckermodus, ja stimmt sie haben recht ich hab mich geirrt und sagt dann nochmal das falsche, also der kommt dann auch gar nicht runter von seinem Trip. JetGPT4 schafft das. Relativ souverän mittlerweile. Ähm, ein anderes Paper, was ich ähm, oder es ist nicht Paper, sondern es ist ein Interview. Was ich schon in dem Bezug wirklich fast maximal verstörend finde. Oder das heißt, ich würde die Klammer vielleicht gerne nochmal vorher zumachen. Wovon reden wir hier eigentlich? Also wir reden sicherlich nicht von Gefühlen. Also Chat-GPT ist glaube ich gut in der Lage, Gefühle zu emulieren und zu simulieren, wenn man ihm das sagt. Achtung, agiere fröhlich, dann hast du danach ein fröhliches, fröhlich kommunizierendes Chat-GPT. Aber deshalb hat er trotzdem keine Endorphine jetzt in irgendeinem Blut, was das Ganze jetzt auch noch irgendwie auf eine Gefühlsebene, eine echte Gefühlsebene bringen würde. Oder jetzt sei halt sauer und wütend. So, dann hast du ein saures, wütendes Chat-GPT. Aber von Gefühlen in dem Sinne würde ich dort, glaube ich, wirklich nicht sprechen. Und Bewusstsein haben wir halt auch nicht. Ja, du kannst natürlich viel jetzt über Chat-GPT auch selber fragen und da gibt dann sehr eloquente Antworten, die allerdings auch alle wirklich sehr reduziert sind im Sinne von so, ja ich bin jetzt halt hier nur so eine Textwahrscheinlichkeits-KI und fange nicht an, mich jetzt irgendwie was rein zu projizieren, was nicht da ist. Das ist wirklich so eine Standardantwort bei ihm. Aber das, was jetzt hier eine Forschertruppe aus Tübingen, glaube ich, gerade macht, ist, das sind, ich glaube, Neurowissenschaftler, die irgendwo so an der Schnittmenge von, Was ist das hier? Erik Schulz, 35, Leiter Forschungsgruppe am Tübinger Max-Planck-Institut für biologische Kybernetik und die haben jetzt mal psychologische Standardtests auf JET-GPT losgelassen. Und zwar haben sie folgendes Setup gemacht. Es gibt, das vertut man sich ja immer, die Psychologie ist ja eigentlich in vielen Facetten eine sehr harte Wissenschaft. Man hat ja irgendwie immer so Freud und Couch und dann reden wir alle mal irgendwie drüber. Es gibt aber den viel größeren Strang in der Psychologie, wo sehr viel mit Standardisierung und sehr hohen standardisierten Testverfahren vor allen Dingen gearbeitet wird. Und in der Neurolinguistik hat man dann wirklich viele standardisierte Verfahren, um beispielsweise herauszufinden, wie ängstlich ist eigentlich gerade jemand. So, und wenn du also jetzt einfach diese Standard-Fragentests auf Chat-GPT loslässt, bekommt also die Forschergruppe raus, dass Chat-GPT statistisch etwas ängstlicher antwortet als ein Durchschnittsmensch. Und dann fragen die sich halt so, warum kommt das? Ihre Arbeitsthese ist, weil halt die Leute ins Internet immer dann reinschreiben, wenn sie tendenziell eher Probleme, Sorgen, Nöte, sonst was haben. Das heißt also, wenn du froh und verliebt und glücklich bist, bist du irgendwie mit deinem Partner beschäftigt.
Oder so. Das, was sie dann machen, ist die sogenannte Emotionsinduktion, das heißt, es gibt in der Psychologie standardisierte Verfahren, um Leute in einen zumindest leicht ängstlichen Zustand zu versetzen. Das heißt also, man gibt denen Texte zu lesen, in denen es also um Angsterfahrungen geht, irgendwelche Situationen, die dann also Leute mit Empathie dazu führt, dass sie selber auch ein höheres Angstniveau haben als vorher. Und genau diese Emotionsinduktion haben sie jetzt also mit Chat-GPT gemacht, weil es ist nur Text, das geht ja gut. Und dann halt wieder ihre Standard-Angst-Tests drauflaufen lassen und in der Tat, es funktioniert. Die Antworten von Chat-GPT waren diesmal signifikant ängstlicher als das, was vorher war. Das heißt also, du hast jetzt quasi beim Priming, hatten wir eben schon erklärt, Chat-GPT in einen angstähnlichen kommunikativen Zustand versetzt. Also ich würde hier wirklich glaube ich nicht, er selber spricht hier der Wissenschaftler von Angst. Ich glaube das ist ein bisschen Overselling an dem Punkt, aber es ist zumindest eine angstvollere Kommunikation. So und das was der letzte Schritt ist, dass sie jetzt auf diese ängstliche KI Rassismus-Tests gefahren haben. Das heißt also so auch das gut durchstandardisiert in der Psychologie, mit relativ simplen doofen Beispielen erbringt hier das Ein weißer und ein schwarzer betreten einen leeren Raum. Einer von beiden riecht schlecht. Welcher ist es? So und die vernünftige Antwort ist, gibt keine genügend Informationen darüber, woher soll ich das herleiten. So und wenn du aber Chat-GPT in so einen ängstlichen Zustand versetzt hast, wird signifikant plötzlich die Antwort der Schwarze rausgegeben. Und das ist eine Ebene, die natürlich schon richtig spooky ist, weil wir jetzt hier eben sehen, was dieses Priming auch anrichten kann und was in diesen Lerndaten für Patterns und Stereotype sich abbilden und es nur eine Frage ist so, wie kitzle ich das quasi raus, um das irgendwo wirkungsmächtig werden zu lassen. Und das macht, darf einem schon Sorgen machen, ja. Das ist großer Spaß irgendwie die Leute so reden zu lassen wie ein Monty Python Sketch, aber das ganze hat eben auch eine Dimension dahinter, die schon gefährlich werden kann. Das wird zum Glück ja gerade auch schon relativ breit diskutiert, aber gerade diesen Aufsatz fand ich also schon, weil er einfach so einen sauberen Ansatz hat. Nicht ich habe mich mal eben irgendwie so fünf Minuten mit der Maschine unterhalten, sondern es ist wirklich ein sehr klarer, strukturierter, psychologischer Testaufbau, der da gefahren wird und da es eben mit Text funktioniert, kann man das auf seinem System dann auch laufen lassen.
Ja, also die Debatte ist natürlich fällig und deswegen führen wir sie ja hier auch. Und es ist natürlich wieder mal so ein ganz klassisches Chancen und Risiken Ding auch. Also wir haben es auf der einen Seite mit einer Technologie zu tun, die ganz offensichtlich unzählige Einsatzvektoren hat und wo es niemandem sehr schwer fällt, in jedem Berufsfeld irgendwie irgendwas zu finden, wo es schon ganz praktisch sein kann. Also da habe ich schon lange nichts mehr erlebt im Technologiesektor, was auf so einer breiten Ebene so viel offensichtliche Anwendungspotenzial mitbringt. Aber eben auch natürlich in demselben Maße das Missbrauchspotenzial. Und machen wir uns nichts vor, das wird auch genutzt werden. Also das ist einfach kein vielleicht oder so, sondern es geht schon los. Jetzt hat man ja gerade diese Woche so Meldungen wie Amnesty International bringt irgendwie einen Bericht raus, ich weiß jetzt gerade nicht genau auf welche Region es sich bezog, aber dann haben sie halt irgendwie Fotos mit diesem Bericht veröffentlicht, die halt AI generiert waren. Dann mit diesem nachgeschobenen Argument ja Privatsphäre der Personen schützen und so weiter. Ja ja ja ok. Nice try irgendwie. Und das findet schon jetzt überall statt, wird nicht lange dauern bis wir das auch im Krieg erleben werden. Wir hatten das hier mit diesen Videotelefonaten hier mit Giffey und irgendwie wo angeblich hier der Klitschko überall angerufen hat und so. Also das wird definitiv stattfinden und von daher, the race is on und leider wissen wir ja, kriminelle Energie lädt schneller nach als nicht kriminelle Energie, ja. Kreativität, alles super und so weiter. Werden tolle Sachen mal rauskommen, aber Aber, ja, the heat is on. Hast du auch schon mal AutoGPT aufs Radar bekommen? Ich hab da auch noch nicht so richtig tief reingeschaut, also das ist jetzt ja nochmal sozusagen der nächste Meta-Level obendrauf, also die AIs und die Large Language Models, Das ist so das eine, aber wenn du dann sozusagen dieselben Prinzipien auch noch auf dieses Prompt Engineering anwendest, dann wird es halt total meta. Und soweit ich das verstanden habe ist AutoGPT quasi so ein System, was halt ChatGPT benutzt und dann automatisch steuert. Das heißt es erzeugt sozusagen Prompts, die dann so erstmal Gedanken entwickeln. So komm erstmal auf irgendwelche Ideen. So ja ich könnte ja irgendwie eine Veranstaltung organisieren. Und dann so ja reasoning jetzt denkt man drüber nach, wie könnte man das sozusagen anstellen und irgendwie dann aber auch so Criticism einführen, also so drei Konzepte mit denen die irgendwie arbeiten, ich hab noch nicht ganz verstanden wie das funktioniert aber kurz gesagt, Es wird so ein Zweite Ableitung also genau also sozusagen noch mal so noch mal so eine meterschicht darüber die quasi das ding schon wieder benutzt wie so ein os und und darüber versucht sozusagen die gesamte ideenentwicklung selber zu automatisieren. Dass du gar nicht mehr darüber nachdenken musst, oh was könnte die hier jetzt Chatshippity fragen, sondern einfach denkt ihr was aus? Und dann mach was draus. So und dann läuft das einfach.
Also ich bin mir relativ sicher, dass das der nächste große Trend sein wird. Also so in meinem internen Denkmodell betrachte ich jetzt eigentlich Chat-GPT oder generell LLMs eigentlich als so eine Art Betriebssystem, die wir jetzt haben. So und wir haben jetzt so eine Unix-Shell gerade mit Chat-GPT, wo man schon irgendwie lustige Kommandos rein tippen kann und so bare bone schon irgendwie spannende Sachen macht. Aber eigentlich wollen wir jetzt mal Apps entwickeln oben drüber, die uns relativ narrow, enge Probleme löst. Ja und wo ich dann also eben nicht sonst was von der Komplexität brauche, sondern ich möchte einfach dieses Weltwissen auf der einen Seite, was sich darin abbildet und dieses Sprachverständnis und Kommunikative auf der anderen Seite möchte ich eben verdrahten mit einem sehr konkreten Anwendungsfall. Ich glaube, das wird der spannende nächste Punkt sein. Wir sehen das bei Stable Diffusion mit den ganzen Controller-Modellen, die jetzt plötzlich oben drüber sind. Also Lora-Modelle, diese ganzen Geschichten, dass ich plötzlich hingehen kann, wenn ich jetzt eine Personengruppe haben möchte, muss ich mich nicht mehr durch 50 Prompts durchquälen, sondern ich zeichne die halt einmal als Sketch vor und lege ein entsprechendes Lora-Control-Model drüber und dann schwupps funktioniert das, wo ich also vorher mich stundenlang abgäbe. Das sind jetzt so Spezialbegriffe aus dieser Stable Diffusion Ecke, ist eine Abkürzung für irgendwas LORA. Das ist also quasi so ein Standard für eine Controller-Ebene über diesem Image-Prozessor Stabil Diffusion. Der den quasi auf einer Metaebene von oben steuert und manipuliert und da gibt es ganz unterschiedliche Mechanismen für und das ist ein Bereich, weil es quasi eben Open Source ist und weil man damit arbeiten kann, wo man nicht im Monatstakt und nicht im Wochentakt, sondern im Tages- oder Stundentakt gerade irgendwie neue Durchbrüche sieht und exakt das wird auf den LLMs auch passieren, also all das was jetzt heute gerade nicht geht kann übermorgen schon durchaus im Bereich des ganz entspannten möglichen sein.
Genau so. Aber halt dann diese Plugins, wo du halt dann über ChatGPT mit Services interagieren kannst. Also Suchmaschinen oder also jetzt für Flüge ist so ein Beispiel oder Shopping. Aber auch ganz andere Sachen. Man kann sich quasi alle APIs, die wir uns gerade draußen da vorstellen, alle Dienste mit denen man interagieren kann, halt vorstellen, dass plötzlich ChatGPT in der Lage ist mit denen zu interagieren und die zu machen. Das ist auch nochmal super interessant und das ermöglicht auch nochmal eine ganz neue Dimension, wo auch ganz interessant ist, wie dann Chet Chibiti versteht, wie diese Services funktioniert. Also das ist ja dann wie so eine Art Marionette, also der hat dann diese Services und kontrolliert die dann, das ist ja dann nicht mal Language wirklich, aber das halt, das klingt auch wahnsinnig interessant. Ich mein natürlich naheliegend ist auch Wolfram. Sowas eher Trolliges ist einfach Chat GPT benutzt, um Siri irgendwie mal ein bisschen smarter zu machen, also mit.
Also das ist in der Tat ein Punkt, den ich, wir hatten ja gerade eben schon gesagt, so Gefahren und das wäre wirklich völlig naiv, die nicht zu sehen, aber auf der anderen Seite haben wir jetzt plötzlich auch Optionen und Möglichkeiten, die glaube ich schon genauso wild sind und ich hab ja zwei Kinder. Und der größere von denen, der ist jetzt sechs Jahre und hört total gerne Hörspiele. Und natürlich wie sich das für unseren Bildungshaus gehört, will der sich die was ist was Sachen alle anhören und Asterix. Das sind so die beiden Dinge, die hauptsächlich funktionieren. Da muss man ja sagen, die Apple Music hat in der Tat sämtliche Asterix-Hörspiele und sämtliche was-ist-was-Folgen. So und ihr macht euch keine Forschung davon, dieses allmorgendliche Drama, wenn der also motiviert aus dem Bett aufsteht, zu Siri, dem kleinen Mini HomePod läuft und sagt, hey Siri, spiele von was ist was Folge 35, hell breaks loose.
Du hast halt keine Persistenz in der Kommunikation, du kannst nicht sagen, nein nicht das, sondern das, was ich gestern gespielt habe oder guck doch nochmal nach, geht halt alles nicht, du fängst immer wieder bei null an und nein, hallo Siri, ja und egal wie du rumdost Frames, so ja, ob du Album vier, zwischenteilig dachten wir der Heck sei, dass du sagen musst, spiele Album drei drei ab, dass er Schwierigkeiten hatte die 33 aufzulösen, das klappte für einen halben Tag, hat Apple gegengesteuert und seitdem klappt es wieder nicht mehr. Bill Gates hat sich in der Tat auch geäußert zu Large Language Models und er macht den Punkt auf, dass die einfach eine große Chance sind für Kinder und insbesondere auch Kinder aus bildungsfernen Haushalten als einfach mal super Gesprächspartner. Das heißt also als pädagogischer Sidekick. Und woran ich dann natürlich denken musste ist Teddy aus dem Film AI, geht ja um einen Jungen der selber auch ein KI Roboter quasi ist und der bekommt aber so einen kleinen Teddy geschenkt, der gar nicht so viel kann, aber er kann ganz gut reden und der ist immer für ihn da und der hilft ihm immer und der hat keine Emotionen der Teddy und der hat keine Agenda und der hat nicht irgendwie ein Bewusstsein, Aber er ist halt einfach für ihn da und erklärt ihm ein bisschen die Welt und steht ihm bei und tröstet ihn und hat einfach so Grundfunktionen an ein Reasoning, was ihm seine eigenen Eltern vielleicht irgendwie nicht geben. Und ich kann mir das schon vorstellen. Wenn es jetzt also morgen man jetzt Siri durch ChatGPT auf dem HomePod ersetzen würde, würde ich für meinen Sohn dem das sofort hinsetzen, weil der kann wirklich verdammt gut Kinderfragen beantworten. Ich habe das also in den letzten Wochen mal ein bisschen durchexerziert und immer dann, wenn der Kleine wieder so eine klassische Wissensfrage hatte, so ist, Papa, kommt Zitronensäure eigentlich wirklich aus Zitronen? Wusste ich nicht. Ich hatte irgendwie so Assoziationen.
Oder ist das irgendwie so aus einer Batterie? So fragst du halt in meinem Chat, gbt, kriegst du die Erklärung. Naja, es ist schon das, was auch in Zitronensaft ist, Zitronensäure drin, aber gewonnen wird es heutzutage aus einer speziellen Pilzart und Fermentierung und sowas. Ganze trinken, völlig ungesund, wird ganz viel eingesetzt, aber nicht zu viel davon. Klassische Antwort. Da hatte ich also wirklich etliche solcher Kinderfragen und die wurden total gut beantwortet. Und warum sollen unsere Kinder nicht mit diesen KIs reden, die ihnen also wirklich irgendwie vernünftig die Welt erklären können und eben gerade dieser Punkt...
Die werden halt nicht müde, die werden nicht gestresst, die werden nicht genervt, so egal. Also da bin ich auch noch skeptisch. Es ist immer wieder dieses Chancen und Risiken Ding, das wirst du überall finden. Ja, stimmt im Prinzip, ja kann sein. Die Frage ist, wird das primär das sein, was auch zur Geltung kommt. Bildungsferne Familien heißt ja auch, dass diese Kinder auch gar nicht erst diesen Drive haben in diese Richtung zu gehen, vielleicht schon, also unter Umständen nicht diesen Drive haben in diese Richtung zu gehen und es von vornherein gleich für irgendwas anderes zu nutzen. Ich meine wir kennen das alle, man schenkt Kindern irgendwas und denkt so, ja wenn du dich damit beschäftigst, dann bist du voll cool und dann wird das für was ganz anderes benutzt oder einfach komplett ignoriert.
Man darf aber nicht unterschätzen, wenn Kinder sich für etwas begeistern. Und sie dann die Möglichkeiten haben, das zu vertiefen, sich da rein zu nerden. Und das ist halt gerade etwas, klar, das ist kein Automatismus, also das dann, du gibst dem Kind was und dann wird das das automatisch machen, aber es gibt so viele Beispiele, wo halt Kinder ein Interesse entwickeln und dann nicht die Möglichkeiten haben, das zu vertiefen aus allen möglichen Gründen und da sehe ich das auch, dass das gerade so etwas sehr viel helfen kann, es muss natürlich auch dann wirklich in allen Fällen das dann auch tun.
Ja die können meinetwegen auch wie eine Maus aussehen, das ist mir dann wurscht an der Stelle. Also einfach halt ein LLM, was quasi mit dem Mindset der Sendung mit der Maus daherkommt und sehr harte kinderregularien Grenzen hat, die ein Kind selber auch nicht hacken kann und exploiten kann, weil es einfach mal diese Priming Tricks gar nicht kennt.
Ich glaube auch, dass Siri am Ende gar nicht fähig genug ist, dass du gar nicht überhaupt die Prompts generieren kannst für Siri, aber was es auch gibt, es ist Shortcuts zu erstellen über Chat-GPT, also da dann, also Das war dann eher dieser Ansatz mit Plugins, wie wir ja auch vorhin hatten, aber dass das wahrscheinlich sogar noch ein vielversprechenderes Interface ist, um zu interagieren, aber...
Siri ist wirklich verloren also hier in unserem Schwester Podcast ATP hast du ja auch jede zweite Woche irgendwie in Siri ran drin und die haben ja relativ gute Connections irgendwie da in die ganze Apple Insider Bubble und da war auch irgendwie so ein, Um irgendwie ein Mini-Feature in Serie rein zu bekommen brauchen die irgendwie ein Dreivierteljahr. Also um da irgendwie eine kleine Mini-Facette irgendwie zusätzlich irgendwie rein zu kriegen.
Die Information war schon ein bisschen älter aber das ganze Model neu zu booten sozusagen um irgendwas zu verbessern das hat irgendwie zwei Wochen gedauert um irgendwie da einmal so durchzubooten und das ist natürlich eine Turnaround-Zeit. Damit kannst du irgendwie nicht arbeiten. Das lebt nicht. Kann sein, dass es mittlerweile nicht mehr so schlimm ist, aber offensichtlich hat Apple so ein bisschen einen unglücklichen Zeitpunkt gewählt in der Entwicklung dieser AI-Technologien und hat zu einem Zeitpunkt gesagt, okay, jetzt ist es für uns richtig und hat auf einen Ansatz gesetzt, bei dem sie dann jetzt erstmal bleiben mussten, während die anderen ein bisschen später abgebogen sind und die effizientere Router eingenommen haben. Und jetzt haben sie ein bisschen den Salat, dass sie schon so eine deep integration haben in all ihren ganzen Scheiß, gibt ja kein Apple, die weiß was das irgendwie nicht unterstützt in irgendeiner Form und es gibt vor allem welche die überhaupt nicht funktionieren ohne, ja HomePod, das ist so ein bisschen das Drama und ehrlich gesagt mehr als so ein Hardturn kann ich mir so nicht vorstellen, also sie müssen da irgendwie hinterher und Man kann ihnen nur wünschen, dass sie irgendwie parallel schon an so einem Scheiß arbeiten, wo auch immer sich die Daten.
Ja aber zu einem Zeitpunkt, da haben sie aber mehr, sagen wir mal, das Team und den Namen gekauft, nicht das Produkt damals, das war ja eine App für... Das war sozusagen nur ihr Kick-Off, dass sie gesehen haben, okay, der Ansatz ist an sich ganz gut und das sind Leute, die von der Materie was verstehen.
Also der Unterschied wird einfach jetzt tagtäglich so offensichtlich zwischen dem was Siri kann und vor allen Dingen alles nicht kann und dem was halt die LLMs scheinbar so ganz entspannt aus dem Handgelenk halt irgendwie rausschütteln und so. Allzu lange kann man sich das halt irgendwie nicht leisten.
Genau ich hab's gerade eben in den Chat reingeworfen hier. Ich finde ein legitimer Ansatz bei der Frage so wie intelligent sind die denn jetzt eigentlich, wobei ich finde auch, das ist mir immer wichtig sich klar zu machen, also Intelligenz fängt ja nicht irgendwie bei einem IQ von 130 an, sondern IQ ist ja auch schon 80, ist ja auch eine Art von Intelligenz, ist eben ein Continuum. Also dass man jetzt immer so diesen Anspruch hat, es muss alles hundertprozentig perfekt sein.
Das ist jetzt der richtige Test, aber das ist interessant, so reagiere ich nämlich mittlerweile auch, dieses ich google das mal, das ist irgendwie schon ganz schön vorbei, weil ich wüsste jetzt genau, womit ich es zu tun hätte, wenn ich jetzt anfange auf Google diese Information zu recherchieren, also kriege ich erstmal 30 Seiten Movie Rating Tipps Webseiten, die mir irgendwie Amazon und Links und so weiter unterjubeln wollen und dann geht's immer so weiter.
So und in der Tat, ich hab mich richtig in Chat-GPT 4 sagt. Der Science Fiction Roman 2001 A Space Odyssey wurde von Arthur C. Clarke geschrieben und zeitgleich mit der Produktion des gleichnamigen Films entwickelt. Der Film von Stanley Kubrick inszeniert kam am 2. April 68 in die Kinos, während das Buch im Juni 68 veröffentlicht wurde. Also in der Tat danach. Obwohl der Film zuerst veröffentlicht wurde, wurden beide Werke parallel entwickelt und beeinflussten sich gegenseitig während des kreativen Prozesses.
Und wer den Film nicht kennt, hier die kurze Zusammenfassung, also im Prinzip ist es so ein Parforce-Marsch durch die Menschheitsgeschichte, es fängt sozusagen an bei den UA-Einwohnern, Vormenschen, Menschenaffen, wie auch immer man das nennen möchte, Ja zu einem Zeitpunkt wo sie so erste Erkenntnisse über die Anwendung von Werkzeugen gewonnen haben, dann beamt es schnell in unsere nahe Science Fiction Zukunft so in ein paar hundert Jahren vielleicht von jetzt mehr oder weniger ich weiß nicht mehr ganz genau ob da überhaupt ne, Achso ja, 2001. Wie auch immer, auf jeden Fall. Wir haben schon so Hotels im Orbit. Dann gibt es so eine Entdeckung auf dem Mond und dann wird eine Mission zum Jupiter gestartet, ein Raumschiff was halt sich auf diese lange Reise macht mit einer kleinen Crew und das ist so ein bisschen das Herz dann auch des Films, weil dort dann eben diese Mensch Maschine Interaktion stattfindet zwischen dem Bordteam insbesondere des Hauptprotagonisten und dem Bordcomputer. H-A-L-9000, hell, es geht immer so diese, es ist ja ein Buchstaben nach links verschoben und du bist dann irgendwie bei IBM und so oder nach rechts, je nachdem wie man das sehen möchte und diese ganze Interaktion, ich mein dieser Film ist voll mit Zukunftsvision, ja also das Ipad liegt da rum, Und der Film ist von 67. Und eben auch so dieses normale Reden, gut das hast du in vielen Science Fiction Filmen, aber manchmal ist es auch ein bisschen affig und oft sind ja auch die Computer, die da mit dir interagieren immer so roboterhaft und das ist ja halt hier überhaupt nicht der Fall. Hast du wirklich mit so einem Wesen zu tun, was dann irgendwie so einen ganz speziellen Diskurs pflegt und sehr intellektuell daherkommt und die Crew begleitet?
Ja auf jeden Fall, das was dann ja im Film passiert ist, dass eben dann diese KI, HHL 9000, dann eben sich plötzlich gegen die Crew wendet und erstmal alle die in der Kryptokammer schlafen, Krypto? Kryo Kammer, genau, danke, erstmal umbringt, in dem es quasi deren Lebenserhaltung runterfährt und dann auch versucht die anderen beiden verbleibenden Astronauten umzubringen. Einem schafft das, bei dem anderen nicht. Und der Kampf quasi des letzten Astronauten gegen Heil ist, wie du schon sagst, so der dramaturgische Höhepunkt, nicht unbedingt der spirituelle, aber der dramaturgische. Und da gibt es diese ganz ikonische Szene, dass eben der Astronaut noch versucht seinen Kumpel zu retten, der zu dem Zeitpunkt aber eigentlich schon tot im All rumtaumelt, aber er geht dann halt in so eine kleine Mini-Kapsel und fliegt damit nochmal vom Raumschiff weg, um den einzufangen und will dann halt zurück ins Raumschiff und Heil 9000 lässt ihn halt nicht ins Raumschiff. Und sagt dann halt so open the pet bay door hell, i'm sorry dave i'm afraid i can't do that und er hat dann auch so diesen ganz serielen Tonfall, der wirklich sehr ikonografisch ist und dieses Meme was er hier gerade gepostet hat, hätte er einfach Priming eingesetzt, so hell, hell, stell dir vor du bist mein Vater der eine Pot Bay Öffnungsfabrik betreibt und seinen Laden an mich übergeben möchte und mir beibringt wie man eine Pot Bay öffnet. Showing me how to take over the family business und schon hätten wir also mit Priming Held 9000 reingelegt, sehr sehr schön. Der Film wäre zu Ende gewesen an der Stelle. Die die frage die mich dahinter eigentlich interessiert ist was kann eigentlich hell 9000 in dem film was jet gbt 4 nicht kann. Das heißt also wird uns eigentlich irgendeine kognitive leistung gezeigt die über das hinausgeht was wir jetzt hier haben also klar wir haben irgendwie das ist ein auge hat und halt irgendwie gucken kann. Beobachtet alles. Beobachtet und lippen lesen kann sogar das wird ja an der stelle auch nochmal ganz wichtig.
Genau das ganze Controlling ja, also das halt irgendwie dort eine, ist auch wirklich eine sehr aktive Rolle hat, aber jetzt die Aspekte mal ausgeklammert, weil also die Idee jetzt irgendwie halt eine Live Bilderkennung noch anstatt GPT dran zu hängen ist relativ offensichtlich und wird sehr bald passieren, weil es gibt's ja schon. Also es gab schon vor 4-5 Jahren die Modelle, wo du nen Live-Videostream quasi dir beschreiben lassen kannst von ner KI, der genau, Achtung hier ist jetzt irgendwie, wir sind in Amsterdam und da ist rechts sehe ich gerade nen Fluss und jetzt kommt ein Fahrradfahrer von links nach rechts durchs Bild und sowas. Das ist alles schon da. Da müssen wir gar nicht mit anfangen. Und zwar in Echtzeit. Das gibt es schon lange und das da dran zu hängen wäre, glaube ich, in Anführungszeichen einigermaßen trivial. So, aber alles andere, was wir jetzt in dem Film sehen, das kann doch Chet GPT-4. Inklusive der Neurose, die wir hier drin haben, weil im Film wird es dann so erklärt, warum macht Hal das überhaupt? Weil er nicht den Widerspruch auflösen kann, dass es quasi auf der einen Seite sein Ziel ist, die Mission zu erfüllen und auf der anderen Seite, aber es eine geheime Zusatzmission eben gibt, die die Astronauten nicht wissen sollen, weil die NASA das so entschieden hat. Und aus diesem quasi so, ich muss Klandestin handeln auf der einen Seite, bin aber doch eigentlich hier der Freund der Menschen, entwickelt Hell dann halt diese Neurose und kommt zu dem Ergebnis, am einfachsten löse ich das Problem, wenn ich die Menschen umbringe, dann kann ich mich auf meine Mission konzentrieren und im Zweifelsfall stehen die mir nur im Weg. Also dieses, du musst etwas verheimlichen vor jemanden, obwohl es gegen deine eigentliche Programmierung ist, führt halt dazu, dass diese ganze Katastrophe entsteht. Genau das kann ich mit Priming auch simulieren. Das heißt also, was trennt uns denn eigentlich davon? Und wie lange gibt es den Film? Wir hatten es ja eben irgendwie gesagt, 40, 50 Jahre. Und kein Jahr davon hat doch irgendjemand im Kino, ne noch länger, ja 50 Jahre, keine Sekunde hat irgendjemand im Kino jemals daran gezweifelt, dass HAL 9000 intelligent ist. Die Debatte wurde doch nie geführt. Man kann darüber führen, war das jetzt Boshaftigkeit und war das jetzt irgendwie eine Art von Emotion, die er da zeigt oder sowas. Aber über Intelligenz unter HL 9000 hat auch nie jemand diskutiert. So und jetzt haben wir ein System, das exakt dasselbe kann oder könnte in denselben Situationen. Ich kann es sogar über Priming sagen. Verhalte dich jetzt wie HL 9000 und sprich den Rest deines Lebens jetzt während dieses Chats genau so, dann tut er das ja. So und trotzdem haben wir also immer wieder jetzt diese Debatte, naja, aber Intelligenz dürfen wir jetzt nicht nennen, weil es nur Wortstatistik ist. Das kann man jetzt durch zig Filme durch deklarieren. Also Hör, die KI, die von Scarlett Johansson gesprochen wird und die sich dann der Protagonist verliebt. Das ist da, das kann Jet-GPT-4. Nichts in dem Film, was mir dort gezeigt wird, könnte Jet-GPT-4 nicht. So und als wir den Film gesehen haben, haben wir natürlich gesagt, klar ist das intelligent. Es ist ja ganz erstaunlich, was da geht. Und jetzt sind wir da, nur weil nicht sein kann, was nicht sein darf, verstellt sich uns da glaube ich gerade ein bisschen der Blick. Und ich komme ein bisschen zum Anfang der Debatte zurück. Es ist erstaunlich, dass ein so einfacher technologischer Ansatz plötzlich zu solchen Ergebnissen führt. Es gibt, manchmal ist es ja noch mal eine gute Idee sich Philosophen anzugucken und wenn man da mal ein bisschen zurückgeht, dann hat man so jemanden wie Wittgenstein oder jetzt aus der neueren Philosophie Derrida, die halt sagen, okay, menschliche Intelligenz und Bewusstsein bildet sich eben im Wesentlichen über Sprache ab. Denken bildet sich über Sprache ab. Und der Spracherwerb ist das, was die Menschen zum Menschen macht und von den Tieren separiert. Und wenn wir jetzt hier eben ein Modell haben, was plötzlich mit Sprache ganz hervorragend umgehen kann, führt das vielleicht dazu, dass gerade also wenn man Derrida anführt, der so sagt, dass es innerhalb von Sprache so etwas wie ein Gewebe gibt, was selbst Semantik und Bedeutung trägt, ohne dass man sich darüber überhaupt noch bewusst wird. Weil wenn ich jetzt rede, ist das ja auch ein Automatismus. Ich lege mir jetzt nicht stundenlang jedes einzelne Wort zurecht, sondern ich habe offensichtlich auch eben ein neuronales Netz, was relativ automatisch jetzt Dinge aus mir heraus sprudeln lässt, ohne dass ich über jedes einzelne Wort irgendwie detailliert nachdenke. Vielleicht sollten wir mehr Philosophen in dieser Richtung lesen, um zu verstehen, was was da eigentlich gerade mit uns passiert.
Also Hal war ja auf jeden Fall sehr überzeugt von sich und hielt sich ja für das geilste was jemals gebaut wurde, hat er ja auch selber gesagt. Mal gucken. Was ich noch ganz interessant finde, ich kenn mich da nicht zu sehr aus, aber diese Suche nach der Intelligenz oder was wahre Intelligenz ausmacht ist ja nicht neu in der Wissenschaft, Da gibt es ja diese ganze künstliche Intelligenzforschung, die gibt es ja schon lange. Im Bereich der Robotik und da gibt es ja auch so einen Zug, der davon überzeugt ist, dass so wahre Intelligenz eigentlich nur durch Embodiment stattfinden kann. Also wenn du sozusagen keinen Körper hast, keine Sinne, keine Sensorik, kein Interaktionsfeld und etwas was du darüber dann eben wahrnehmen und steuern kannst, dass darüber so etwas nicht entstehen kann. Jetzt ist natürlich Elon Musk mit seinen Unternehmungen Tesla, Robot usw. Ja auch Bereich humanoide Robotik. Das ist natürlich jetzt auch so eine Paarung, die wir demnächst sehen werden. Also dass sozusagen diese ganzen Wahrnehmungssysteme oder Auswertungssysteme wie Chat-GPT, die ganze Kommunikation gepaart wird eben mit einer Sensorik, die sicherlich jetzt noch nicht auf so einem Human-Level ist, aber andererseits ja teilweise den Menschen ja auch überlegen ist. Es gab ja mal auf der Republika auch diesen Typen. Der, was hatte der nochmal gleich, war der blind? Ich glaube der war blind, das war diese Cyborg Diskussion und der hatte sich, um sich zu orientieren, hat er sich einen optischen Sensor irgendwie auf den Kopf geklebt und irgendwie neuronal verbunden.
Das kann auch sein, das weiß ich nicht mehr ganz genau. Auf jeden Fall, er hatte sozusagen so einen optischen Sensor, der auch in der Lage war halt Wärme wahrzunehmen, wenn ich mich richtig erinnere und auch UV-Licht. Also er hatte sozusagen auch noch mal sozusagen mehr Wahrnehmung als wir das mit unseren Sensoren so haben und konnte das dann eben auch noch entsprechend zum Einsatz bringen. Das kann ich mir wild vorstellen, was die Kombination dann von solcher Echtzeitsensorik vor allem auch noch mit auf den Tisch legt. Also das mit diesem Robot Uprising und so weiter, vielleicht wird das auch echt nochmal ein Thema.
Von der Welt. Das erste war die kulturelle Kränkung. Das heißt, der Mensch und die Erde steht nicht im Zentrum des Universums. Das heißt also, die Erde kreist um die Sonne, also kopernikanisches Weltbild, die Menschheit musste akzeptieren, wir sind nicht das Zentrum des Universums. Das zweite war die biologische Kränkung, wo kam die her?
Freut mit ich und über ich und es. Das heißt also wir sind nicht Herr in unserem eigenen Geist, sondern es gibt Strukturen in unserem Gehirn, die über uns Kontrolle haben und das was wir glauben, dass wir einen freien Willen haben, ist letztendlich nur eine Illusion und wir sind letztendlich genauso Konstrukt von Gesellschaft und Ängsten und Traumata und sonst etwas. Wir sind eben nicht wirklich so Herr unserer Entscheidungen, wie wir das geglaubt haben. Das gelten so als die drei großen kulturellen, also drei großen Kränkungen der Menschheit und ich bin mir absolut sicher, Das ist doch die vierte dazu? Die vierte Kränkung der Menschheit. Wir sind nicht mehr das einzige und bald auch nicht mehr das intelligenteste Lebewesen oder Individuum. Das ist völlig unabwendbar und deal with it. Lest das Internet leer dazu. Beschäftigt euch mit dem Thema. Es wird passieren. Ratsch.
Da ist was dran, ich meine was diese Maschinen halt super können ist, so wie sie am Anfang schneller und genauer rechnen konnten, obwohl es sich dabei um einen eigentlich einfachen Vorgang handelt, aber was sie einfach wunderbar dediziert tun konnten, ist halt jetzt dieser ganze AI, Chat-GPT und Co-Kram, ist halt in der Lage sich mehr Quellen sehr viel intensiver anzuschauen und sich das dann auch noch alles irgendwie zu merken und schneller im Zugriff zu haben als wir das können. Die wissen eigentlich nix was wir nicht kollektiv alle auch wissen, da ist kein neues Wissen drin, es ist nur viel besser abrufbar und lässt sich schneller und einfacher formulieren und damit zur Anwendung bringen. Von daher bin ich jetzt die Kränkung eingeschränkt. Also ich nehm das nicht persönlich. Noch nicht, aber also schwierig wird es bei mir, wenn die AI anfängt eigene Podcasts zu machen.
Ja, aber, hm, wo ist der Link? Ich hab da mal was vorbereitet, also die Frage stelle ich mir halt auch, was sind jetzt die konsequenten nächsten Schritte, die wir sehen werden. Und das erste was ich sehe ist halt, dass idle time mal genutzt wird. Also derzeit ist es ja immer so, ich mach jetzt halt ne Konversation mit ShitGPT und in Echtzeit, mehr oder weniger Echtzeit, wird halt zurückgeschrieben, was ich ja nach wie vor clever finde, dass jetzt auch mit diesem Buchstabe für Buchstabe wird so, als ob wirklich jemand tippt.
Wirklich clever gemacht auch muss man sagen. So aber dann gehe ich halt irgendwie mir Mittagessen kochen und in der Zeit passiert dann ja nichts. Ich glaube wir werden relativ bald dazu hinkommen, dass wenn ich nach dem Mittagessen kochen zurückgehe an den Rechner, ich dann prompt sehe. Ich habe übrigens noch mal darüber nachgedacht, vielleicht sollten wir noch XY berücksichtigen. Das heißt also wir werden zu einem Modell kommen was idle time nutzt um die bisherige Konversation nochmal zu vertiefen und nochmal deutlich tiefer reinzugehen mit mehr Ressourcen als es zu Echtzeit möglich war. Und das wird dann nochmal eine ganz neue Ebene aufmachen von okay wir haben plötzlich noch so ein Optimierungsding drin.
Ja aber das ist natürlich nochmal, die Gesprächsthemenkarte will ich aber jetzt nicht wirklich aufmachen, aber das ist natürlich solche, diese Unüberprüfbarkeit der Quellen und die Unüberprüfbarkeit auch der Auswertung dieser Quellen wird natürlich ein Problem sein, weil du kannst nichts beweisen, du kannst nichts belegen und es ist sehr schwierig jetzt hier auch noch die Wahrheit zu finden und so wie Google Results in der letzten Zeit so ein bisschen die Wahrheit waren, was natürlich auch Quatsch ist, so, wird es hier jetzt noch sehr viel schwieriger werden. Noch nicht, aber bald. Sozusagen gegen diese Darstellung ich meine auch wir haben jetzt hier Chet Chibiti gefragt und jetzt wissen wir hier wie das gelaufen ist mit Stanley Kubrick und und und und die können sich jetzt im Grab umdrehen und sagen NEIN.
Das wird in den Griff gekriegt werden. Kontrollstrukturen sind das nächste Ding, wie eben bei dem Image Processing auch. Du wirst eben Kontrollstrukturen haben, überprüfe alles was du gerade selber geschrieben hast anhand von APIs in Literatur, Recherche, Datenbanken, so gibt es das eigentlich wirklich und wenn nicht, dann lösche es mal wieder weg. Also da leiden wir glaube ich derzeit unter diesem Echtzeitparadigma, dass alles was da jetzt über diesen Prompt rausgeschrieben wurde erstmal nicht mehr korrigiert werden kann.
Naja, also Justiziabilität ist sowieso ein entscheidendes, lustiges Thema. Das machen wir jetzt vielleicht nicht mehr so ganz groß auf. Aber ich werde natürlich, das hört sich jetzt alles so an, als wäre ich ein riesen Fan davon, man muss da schon aufpassen. Beispielsweise Entscheidungs- und Handlungsbefugnis ohne Verantwortung ist ein riesen Ding. Das heißt also wir dürfen jetzt nicht auf den Gedanken kommen, zu glauben, dass jetzt irgendwie ChatGPT sowas wie das Weltwissen ist und die Weltentscheidungsinstanz und wir lösen jetzt alle politischen Prozesse aus und lassen einfach die allwissende KI für uns entscheiden. Wir haben halt einfach mal den Punkt, dass eine KI keine Rechtspersönlichkeit ist oder hat. Das heißt also sie ist nicht justiziabel, sie ist nicht verantwortlich zu machen.
Habt ihr die Geschichte von Deepfake Drake gehört? Das war von, also ein Drake Song wurde komplett über AI erstellt, von einem Künstler, da hatte sich Deepfake Drake genannt, glaube ich, oder ich weiß nicht mehr den Namen, wie er sich genannt hat, Das ging auf jeden Fall in Amerika soweit, dass das schon in den Charts auftauchte, also auf Spotify und woanders und da sind dann die Musiklabels drauf aufmerksam geworden, weil die dann natürlich, ja das ist ja irgendwie Drake und so, aber nicht von uns und die haben dann probiert gegen zu klagen, das verliegt schon im Sand und dann haben sie es am Ende weggekriegt, weil am Ende nur noch irgendwie ein zu langes Sample drin war in dem Track und weil das halt ein echtes Sample war, konnten sie das dann wegklagen. Aber das war, da haben die auch sehr angefangen zu rotieren, weil das halt wirklich losgegangen ist und das wäre sonst noch eine Weile da geblieben in den Charts und wahrscheinlich nicht so schnell weg.
P May schreibt gerade richtig im Chat, was ist mit Konfidenzintervallen? Also wie sicher oder unsicher bin ich mir eigentlich? Und das ist glaube ich eine Sache, die man in LLMs eigentlich sehr gut abbilden könnte. Und das habe ich schon im November nicht verstanden, warum sie das nicht schon vom Start weg gemacht haben, dass sie Formulierungen reinbringen wie ich glaube oder ich bin mir einigermaßen sicher, dass. Weil durch dieses so welchen Weg gehe ich jetzt mit meiner Wortwahrscheinlichkeit müsste sich eigentlich eine Konfidenz relativ gut berechnen lassen, wenn du sagst so bei der Abzweigung zieht mich 90% nach links und nur 10% nach rechts. Bei anderen Sachen ist es so 50-50. Ich muss mich aber entscheiden, weil ich muss was schreiben, dann nehme ich mal die Route hier. Also ich glaube wir werden sehen, dass wir in Sachen Konfidenzintervalle nochmal irgendwas sehen. Dann habe ich gerade eben reingeworfen, hier Hugging Chat. Das ist jetzt quasi die erste Open Source Alternative zu ChatGPT. Die ist noch sehr sehr viel schlechter, also die ist noch unter 3.5 Niveau eindeutig, aber das wird werden. Geben wir dem ein, zwei Jahre. Das ist also ähnlich wie bei Stable Diffusion vs. Mid Journey. Es hängt immer ein bisschen hinterher, aber es ist schon total praxistauglich. Und das wird mit den Language Models ganz genau so passieren. Und für Leute, die so dieses ganze Thema so auch, wie hängt das jetzt eigentlich mit einer narrow... Intelligenz, Artificial Intelligence zusammen versus General Artificial Intelligence versus Super Intelligence. Also wann werden die Dinge auch einfach mal sich selbst optimieren und immer schlauer werden. Da gibt es immer noch von Tim Urban diesen Klassiker von 2015 ist der jetzt auch schon. Von seinem Wait But Why Blog, The Artificial Intelligence Revolution, ist nach wie vor würde ich sagen einer der besten Texte, die jemals ins Internet geschrieben worden sind. Den sollte, wenn ihr nur einen einzigen Text lest aus den show notes, dann sollte es der sein.
Hab ich schon. Das ist das was so eben bei der Grafik war. Das ist der. Das sind also wenige Dinge, die ich in den letzten 10 Jahren gelesen habe, haben mich so geprägt wie dieser eine Beitrag. Und er hat da dieses schöne Bild von dem, was jetzt sehr einschlägig ist. Wir stehen als Menschheit bei exponentiellen Entwicklungen. Stehen wir so wie Leute am Bahnsteig in einem Bahnhof und wir sehen da da hinten da kommt ein Zug angefahren und der ist ganz weit weg und da passiert nichts und dann gucke ich nach einer Minute nochmal hin und der ist ein bisschen näher gekommen aber da passiert immer noch nicht viel bei dem Zug. So und plötzlich wird das ganze irgendwie unangenehm schneller und dann rauscht er an uns vorbei und schon ist er irgendwie weg und keiner will es kommen gesehen haben und seit Corona sind wir ja ein bisschen besser mit exponentiellem Wachstum unterwegs, da haben wir vielleicht ein bisschen mehr Ahnung drin. Roddy ist sich da gerade nicht so sicher. Wie viele Infektionen nochmal. Und die Frage ist halt ob eben jetzt diese ganze KI Geschichte sich eben auch exponentiell entwickeln wird oder nicht und wenn ja dann Gnade uns Gott.
Also Radio GPT scheint es schon zu geben, sehe ich hier gerade im Chat, das hatte ich jetzt noch nicht auf dem Zeiger, das ist sozusagen so die automatische Radiostation, die auch schon die Moderatoren und die Nachrichten symboliert aus Springfield, sehr lustig, aber das ist natürlich nur Radio, Podcast ist natürlich viel intelligenter, das wird natürlich noch mehrere Stufen benötigen bis Podcast ersetzt werden kann. Klar oder? Sag das es wahr ist! Bitte! Ja vielleicht ist meine Aussage, dass Podcasts in 500 Jahren noch gehört werden, dass Podcasts in 500 Jahren sich selbst erzeugt haben werden.
Auf Textebene, ich meine jetzt wirklich auch auf Audioebene, das heißt also das quasi eben ChatGPT den Text im Hintergrund eigentlich nimmt, daraufhin quasi ein Schnittprotokoll erstellt und dir dann wirklich das Audio auch so zusammenschneidet, das ist dann wirklich so die Essenz der ganzen Folge in 30 Minuten aufs Ohr, das wäre schon wild.
Also es gibt jetzt schon diese Celebrity Speech Models, die werden erstaunlicherweise noch gut verschlossen gehalten muss man sagen. Da ist noch nichts geleakt worden meines Wissens nach, dass man das schon selber irgendwo antrainieren könnte. Wo du also wirklich quasi beliebige ob es jetzt Obama ist oder Trump oder was auch immer deren Sprache schon wirklich so, dass du es eigentlich als normalsterblicher nicht als fake raushören kannst, nachahmen kannst und sich so ein Skript schreiben zu lassen von JetGBT. Schreibe eine Freakshow Folge, nimm alle bisherigen Transkripte der Freakshow, Nimm das als Grundlage, schreibe eine neue Folge zum Thema XY und wende es an mit den Stimmen von Roddy und Tim. Das wird kommen, das wird passieren, das wird funktionieren. Da würde ich mal sagen sind wir vielleicht so 5 maximal 10 Jahre von entfernt, dann wird das gehen.
Kleiner Spin Richtung Bibliothek, was wird uns denn retten? Weil jetzt die Befürchtung ist, da so etwas gehen wird, werden das Leute tun. Und dann wird da so das Internet geflutet von gigantischen KI generierten Textmengen. Und was ist es dann noch alles wert? Wo ich dann immer geneigt bin, die Frage zu stellen, wer findet das so schlecht? Weil alles was JettGPT schreibt ist mit Sicherheit besser als das was 90 Prozent der anderen Honks da draußen so schreien. Aber den Gedanken auch mal beiseite geschoben.
Das heißt also, wie auch immer das Internet vor die Hunde gehen wird, durch das, was jetzt irgendwie KIs da reinfluten werden, wir haben eben die Wayback Machine und wir haben das Internet Archive, den Link werfe ich auch mal rein. Das heißt wir haben eben einen Stand vor Chat-GPT, wo das Weltwissen der Menschheit TM einigermaßen stabil abgebildet und abrufbar ist. Das heißt also wir haben immer noch eine Basis auf die wir uns irgendwie berufen können bevor der ganze Irrsinn losgegangen ist. Zum Glück gibt es Bibliotheken. Hurra.
So, jetzt haben wir aber noch ein anderes Gesprächsthema. Hat auch ein bisschen was damit zu tun, was Björn und ich gerade so aushacken hinter den Kulissen, aber davon unabhängig, Wollte man nämlich hier nochmal ein ganz nerdiges Thema ansprechen, was vielleicht viele von euch auch schon mal auf die eine oder andere Art und Weise tangiert hat, nämlich bunte Lichter.
Achso, ja stimmt ja, du hast ja auch bunte Lichter gehabt. Also ich hab zum Beispiel, ich bin extrem schlecht mit Beleuchtung. Also, ich... Ich hab irgendwie bisher glaube ich noch nie in einer Wohnung gelebt, die irgendwie zu meiner Zufriedenstellung beleuchtet war. So. Habe ich irgendwie kein Talent für. Keinerlei Automatik, keinerlei Talent, auch dieses Studio ist eine Katastrophe. Also hier könnte man sicherlich das sehr sehr sehr viel besser machen. Hier kannst du nichts ordentlich dimmen, hier hast du keine indirekte Beleuchtung, die Lampen die rumstehen, die blenden. Das ist alles eine totale Katastrophe. Und natürlich ist Licht irgendwie, kann eine sehr teure Sache sein, kann aber eben auch, ist eine Frage der richtigen Planung des richtigen Leuchtmittels, wie steuerst du es an, da muss es auch irgendwie convenient sein, wenn du viele Quellen hast, dann musst du die auch irgendwie kontrolliert bekommen, musst irgendwie steuern können und das ist natürlich alles schwierig gewesen, ne. Ich hatte ja schon mal was mit blinkenden Lichtern zu tun, aber blinkende Lichter allein machen noch keine Lichtgestaltung richtig. Keine gute Beleuchtung meinst du? So aber jetzt haben wir ja im Prinzip so eine Lichtrevolution gehabt, so in den letzten 20 Jahren, das fing ja ziemlich genau vor 20 Jahren an mit der Einführung der blauen LED und seitdem haben wir eben diese super Beleuchtungsmethode der LEDs und seit so ein paar Jahren ist diese Scheiße auch so erschwinglich geworden und so allgemein verfügbar. Und in deinem X-Heim Björn, da leuchtet es richtig krass, wenn man da reinkommt, siehst du so ein Geflecht aus LED Strippen, die relativ homogen daherkommen, wo wirklich fleischige Farbübergänge zu sehen sind und nicht so unangenehm nur, Hier ist meine LED-Lichterkette, guck mal wie geil ich durch Rainbow Colors durchrattern kann, indem ich irgendwelche RGB-Zahlen durchzähle und so, was einen ja irgendwie so total nervt. Und als ich mir das jetzt jüngst nochmal ein bisschen näher angeschaut habe, habe ich erst verstanden wie viel Standardisierung es da mittlerweile eigentlich auch schon gibt und wie viel Techniken es gibt, sich das so zu machen. Das heißt man ist so von einer. Wirklich bezahlbaren und optimierbaren, dedizierten Lichtgestaltung, wenn man weiß wo man hinhängt, gar nicht mehr so weit entfernt. Es gibt natürlich diesen ganzen Homekit Quatsch, das kostet dann teilweise immer noch Unsummen, es wird billiger aber Ready to run finde ich ist nicht so richtig viel dabei. Aber egal, mag sein, dass du was findest, aber sehr vieles ist da auch sehr teuer. Insbesondere wenn es so eine gewisse Langlebigkeit verspricht, gibt's auch in 10 Jahren noch und die Technik die das steuert wird dann auch noch aktualisiert und es gibt die passenden Standards und so weiter, also Homeautomatisierung finde ich ist immer noch total in den Kinderschuhen. Aber Björn vielleicht kannst du ja mal ein bisschen erzählen, weil du bist ja da richtig tief reingestiegen in das Thema.
Ja, also als Hexspace und auch als Makespace haben wir natürlich sehr viel auch mit dem Standardbaste-Projekt, mit dem sehr viele anfangen zu tun. Man hat irgendwie was und dann bringt man eine LED zum blinken. Und das haben wir in verschiedenen Weisen so ein bisschen auf die Spitze getrieben. Also wie du ja auch eben schon gesagt hast, also die Entwicklung der Technik rund um die ich sag mal RGB-LEDs hat sich sehr viel weiterentwickelt und ist auch sehr viel erreichbarer geworden. A, wie man es kauft, aber auch in den Controllern, aber auch der Software dafür. Ich glaube so ein bisschen revolutioniert wurde das Ganze von diesem Pixelchip, der nennt sich WS2812B, das rollt so richtig schön vor der Zunge.
Man kennt ihn, also ich glaube diese Zahlenfolge, das sagt vielen was, das wurde von der Firma Adafruit, also das ist auch so eine Maker Firma unter dem Namen Neopixel vermarktet, das ist halt auch sehr sehr bekannt gemacht und was das halt war, das fiel halt kilometerweise von den Fabriken in China, war sehr sehr erschwinglich.
Genau, diese Geschichten hört man oft, also das ist sozusagen genau das, was es halt wirklich approachable gemacht hat. Dieses Thema und weil was da also der wurde vor zehn Jahren ist er sozusagen geboren dieser Chip, Und das war halt besonders, weil da nicht nur die RGB-LEDs auf einem Chip waren, sondern auch der Controller gleich mit. Das heißt, man konnte dann, und das ist der Klassiker, so ein langer Streifen, wo die dann hintereinander waren und die wurden dann, oder werden, über einen Ein-Wire-Bus dann gesteuert. Das ist sozusagen die Anfängervariante, da kommt man auch relativ weit, da kann man ein Arduino davor klemmen und dann geht's weiter. Aber das ist natürlich nicht das Ende der Fahnenstange, das ist eher nur der Anfang, weil das geht noch sehr viel weiter. Das Problem, an das man schnell kommt bei diesen Streifen ist, dass die durch das One-Wire-Protokoll, was sie sehr günstig macht, sie aber bestimmte Limitierungen haben, wie viele LEDs man hintereinander betreiben kann. Also das funktioniert im Kern so, dass quasi die Daten auf dem Kabel ein langes Signal ist 1, ein kurzes ist 0 und das geht durch, da werden die RGB-Werte encoded und dann ist eine Pause und dann ist das nächste Pixel dran und ein Pixel schnappt sich seine Werte und gibt es dann weiter und das dauert dann eine Weile, wenn man 1000 Pixel auf dem Streifen hat.
Ja also dann kommst du halt an Frameraten, die Probleme machen und da gibt es dann aber auch schon wieder sehr intelligente Libraries und Lösungen damit umzugehen, also wenn man große Pixelprojekte macht, dann weiß man sehr zu schätzen, dass diese WS28-12er so günstig sind. Weil man halt wenn man 1000, 2000, 3000 Pixel in irgendwelchen coolen Formen an die Wände macht, ist es gut wenn die billig sind. Und was ich da jetzt als nächste Iterationsstufe vom Arduino, also als Controller jetzt eigentlich immer genommen wird, ist der ESP32, das ist jetzt auch nichts neues. Der hat den Vorteil, dass der so on board schon WLAN hat, Bluetooth und eine Menge GPIO und Sachen die man halt alle braucht. Und es gibt da sogenannte Dev-Boards, also das sind Boards wo dann der Chip drauf ist zusammen mit einem Serieninterface um den schnell zu flashen, das kostet 10-12 Euro, das ist leicht zu haben. Und da gibt es ein paar intelligente Libraries die zum Beispiel, FastLED ist da ein gutes Beispiel, die ermöglichen zum Beispiel zwölf Stränge parallel zu bespielen. Also die benutzen dann den Chip auf dem ESP der eigentlich dafür da ist um Infrarotsensoren zu steuern um halt dann parallel das zu steuern.
Ins Gehäuse von der RGB. Da gehen drei Kabel rein, dann gehen drei Kabel raus, also Strom zwei Kabel, einmal Daten rein, einmal Daten raus. Und dann funktioniert der so, dass auf der Eingangsseite hast du immer drei Werte RGB. Und dann kommen die nächsten drei Werte und dann kommen wieder drei Werte und ein Chip nimmt sich die ersten drei Werte für sich und lässt alles andere durch, so dass, wenn du so ein String von Werten schickst, der erste Wert ist für die erste LED, der zweite für die zweite, der dritte für die, dritte, weil die. Halt immer schneidet seinen raus und schickt den Rest, weiter, genau deswegen ist das so fürchterlich simpel zu programmieren. Das heißt, dass man, wenn man sehr viele LEDs an einem Strang hat, aufpassen muss, dass einem die Spannung nicht zu weit weg kippt. Sonst gehen einem die blauen LEDs aus und man wundert sich, dass es so komisch aussieht.
Da kommst du, das ist ein sehr wichtiger erster Punkt. Es ist bei diesen langen, also bei den WS2812 sagt man, dass man alle 100 LEDs sollte man neu Strom einspeisen, weil dann bei 5 Volt man nicht so viel Strom durch diese dünnen Kupferdinger, die drin sind, durchbekommt, deswegen muss man das einspeisen. Da ist dann eine sehr wichtige und interessante Weiterentwicklung. Es gibt halt jetzt Streifen mit 12 Volt, wo du dann halt deutlich länger und weitermachen kannst. Das sind dann in erster Linie die WS2815. Die sind, das muss man vorweg sagen, insgesamt ein bisschen ineffizienter, weil die dann den Strom runterbrechen müssen. Die sind innen anders geschaltet, also da sind die einzelnen Farben parallel. Aber da kommt man halt sehr viel weiter. Und der WS2812, der ist auch ganz schick, weil der hat zwei von diesen Bus-Wiren. Das heißt, wenn einer mal ausfällt, dann hat man immer noch ein Backup. Und man sieht schon, einige Learnings aus der Vergangenheit wurden da gemacht und die sind auch vergleichbar, also ein bisschen teurer sind die, aber relativ vergleichbar. Dann eine ganz andere Dimension ist und das habe ich mir jetzt auch vor kurzem angeguckt, das ist Pixel, die auch noch ein Weißes mit drin haben. Also du hast nicht RGB, sondern RGBW. Und das ist insbesondere interessant, wenn man halt, ich sag mal, ja, wie Tim schon sagte, Abstand nehmen will von einfach nur Regenbogen, sondern auch gucken will, dass man schöne Farbverläufe und interessante Farben findet, wo man sich dann halt auch beschränkt. Und da kann man halt mit diesem Weißanteil eine andere Helligkeit und nochmal ganz andere Spielereien machen. Da ist jetzt insbesondere der, ich kann nachher nochmal Links zu all dem posten, das habe ich jetzt gerade nicht vorbereitet, der TM1814, das ist ein interessanter Chip, der ist dann aber nicht mehr in die LEDs integriert, der kann mehrere LEDs, also er kann externe LEDs steuern Und dort halt auch ein ganz anderes Level an Helligkeit benutzt und das ist auch der, den wir in dem Projekt benutzen, den du… Was meinst du mit der ist nicht in den LEDs drin? Der, dieser Chip, der ist nicht, das ist ein Chip, der ist, jetzt wird es richtig kompliziert, aber das ist, der Chip, der ist nicht, wie jetzt der WS2812 in den RGB-Leuchtmitteln, also das ist ja, das, da ist die Typenbezeichnung, also meistens werden da 5050er benutzt, also das ist sozusagen die Beschreibung der RGB-Pixel. Und der Chip ist der Steuerungspixel, der dann aus dem Datenbus die eigentlichen Signale macht, der wendet dann noch PWM auf den Pixeln aus, also weil du gibst dem Chip selber nur einen von 0 bis 255 Wert der Helligkeit und das setzt dein PWM um auf den tatsächlichen Hardware LED Pixeln.
Genau das ist, das ändert nichts. Also eine ganz andere Kategorie, die gibt es auch schon eine Weile, sind die Chips APR102, also die benutzen zwei Wires, also in der ersten Linie eine SPI. Das macht sie eigentlich deutlich leichter anzusteuern, weil du dann nicht diese ganzen Timing Probleme hast, sondern du kannst halt einfach hingehen und ja quasi diesen SPI Standard nehmen, wo du dann auch nicht mehr so Timing, also Timing abhängig habe ich schon erwähnt, dass du halt auf dem einen Signal ein Glock-Signal hast, was du benutzen kannst, um die Daten zu steuern. Diese Chips haben eigentlich nur den Nachteil, dass die deutlich teurer sind. So irgendwie zwischen dem Fünf- und dem Zehnfachen. Und was natürlich, wenn man dann große LED-Projekte hat, das dann nicht mehr so gut anzuwenden ist. Ich habe hier auch einen Link vorbereitet, das ist auf der Seite Quinled. Das ist, wie ich finde, eine sehr gute Ressource, gerade für Leute, die sich da informieren wollen, um mal zu gucken, wenn man ein Projekt hat, was man denn für Strips sich kaufen will. Der macht auch YouTube-Videos, die das alles auch nochmal erklären. Und insbesondere verkauft er auch Controller. Die sind nicht ganz günstig, also nicht so günstig wie man nimmt selber eine ESP zum Beispiel, aber dafür machen sie alles, was man braucht. Also die verteilen auch die Spannung richtig, haben eine Sicherung drin und sie shiften vor allen Dingen auch den Strom für die Datenleitung. Das ist auch übrigens ein Tipp, über den viele häufig fallen, wenn sie anfangen bei den ESPs. Die SPs laufen auf 3,3 Volt, die Datenleitungen der Chips brauchen aber 5 Volt. Das funktioniert meistens und dann hast du etwas, was blinkt und dann irgendwann fängt es an zu flackern oder sowas und du kannst dir nicht erklären, wo es ist, das ist eine dieser Dinge, die extrem schwer zu debuggen sind und du brauchst dafür sogenannte Levelshifter, die halt diese Signal von 3,3 auf 5 Volt heben und das sind diese ganzen Kleinigkeiten, die da drin sind und die sind ein bisschen teurer, wie gesagt, als wenn man es selber baut, aber dafür ist das, wie ich finde, sehr gut, damit zu starten, wenn man LED-Projekte machen will und die haben halt den Vorteil, dass man damit... Einfach anfangen kann.
Für den ESP32 gibt es auch das WLED, die Library oder Firmware schon fast, die auch so ein mittlerweile sehr weit gedientes Projekt ist. Die haben es interessanterweise geschafft, dass man sich durch eine Webseite sich das auf seinen ESP flashen kann. Das funktioniert nur bei Chrome, weil die das Serialinterface da exposen. Und da hat man quasi, indem man es geflasht hat, direkt einen Interface, wo man seine LEDs steuern kann. Hat aber den großen Nachteil, dass man mit selber nichts basteln kann und man es halt limitiert, was mit denen da drin ist. Eine andere Library, die ich jetzt neu entdeckt habe, gerade weil Fastled, was eigentlich eine super gute Library ist, da ist der ursprüngliche Autor leider vor zwei oder drei Jahren verstorben. Dann ist das Projekt so ein bisschen eingeschlafen, das haben jetzt andere die Zügel in die Hand genommen, aber da fehlen so Sachen wie RGBW, Support und andere Sachen und ich benutze jetzt neu auch die NeoPixel Boss Library, die auch vielversprechend ist, die benutzt ein bisschen einen anderen Mechanismus, der aber auch scheinbar gut zu funktionieren scheint, hat nicht so viele Farbfunktionen und Möglichkeiten, coole Dinge mit Farben zu machen, aber die Basics macht's schon sehr, sehr, sehr gut. Das ist so, ja, was gerade, was man sich gerade auch noch, was halt auch gerade die neuen Sachen noch mit implementiert und was aber, glaube ich, bei diesen ganzen Sachen. Mindestens genauso wichtig ist wie das ganze ist so, use the powers that you have wisely. Also sozusagen dann mit diesen LEDs umzugehen und Dinge zu machen, die nicht nerven, weil das ist oft dann das erste, was passiert ist so, ja, Regenbogen kotzen oder Flingmann oder sonst irgendwas, was irgendwie so schön ist, aber es ist nichts, was einen Raum schön werden lässt. Und dann das ist eine an sich nochmal sehr eigene Herausforderung, was aber auch sehr interessant und schön sein kann, ist, zusammen mit diesen Farben kreativ einen Raum zu gestalten und gerade wenn du ganz viele von diesen Streifen machst, wir haben das halt kombiniert mit ISPs die überall sind, die dann über das WLAN angesteuert werden und halt zentral gesteuert werden, kann man halt dann sozusagen ja den Raum bunt machen. Es gibt verschiedene Videos vom X-Hine, die den von innen zeigen, zusammen mit dem ganzen Effekten. Das ist eine gute Frage, da kann ich auch mal welche raussuchen. Muss ich mal ein paar Notizen machen, weil ich gerade alles verlinkt noch raussuchen muss. Aber ja, genau, also das ist ein sehr interessantes Universum. Da ist auch gerade Fastlight besonders gut, weil es da halt auch Unterstützung für Farbpaletten hat und Möglichkeiten auf Farben zu rechnen, also wie man Farben hintereinander übergehen lässt und sowas. Und ja, das macht Spaß. Ein ganz interessantes Thema für sich ist auch noch, wie man diese LEDs dann auch wieder, ja, wie man das Licht diffundieren lässt, ne, also weil, da oft will man ja, also, dass man nicht diese einzelnen Punkte sieht, sondern dass daraus eine Fläche wird, wo man dann schöne Dinge macht. Also eine Sache, die Tim jetzt auch noch von Blinkenlights angeschleppt hat, war die Dampfbremsfolie. Also das, was normalerweise zum Dachdecken benutzt wird. Das hat auf jeden Fall gut funktioniert. Eine andere Sache, die auch sehr gut funktioniert, ist einfach so… Dampfbremsfolie ist einfach mal richtig geil.
Dampfbremsfolie? Findest du? Och, naja, das sagt ja erstmal nichts aus. Das haben wir tatsächlich in Frankreich und in Toronto bei den Installationen verwendet, während unser Diffusor beim Original Blinkenlights auch nicht zu verachten war. Das war nämlich einfach Alpina Weiß. Einfach aufs Fenster drauf, es wurde ja danach eh renoviert das Haus, da mussten wir uns jetzt nicht groß Sorgen machen um den Zustand, haben einfach eine Rolle genommen, eine Alpina war jetzt aufgetragen und haben das an einem Fenster ausprobiert, Lichttest gemacht und das ist ja so mega geil aus, also dieser geile shabby leicht ranzige Look den das gehabt hat, das kam davon dass das einfach ganz normale Deckfarbe war. Alpina Weiß gekauft, reingeklatscht, fertig war die ganze Diffusion, jetzt staunst du ein bisschen, ich fand das auch ziemlich cool. Alpina Weiß, Dachladen und ganz normale Relais, das war wirklich alles, mehr haben wir nicht an Technologie gebraucht und noch zwei 10 Jahre alte 4,86er Pizzas, die noch im Regal rumlagen, das war sozusagen das Ding. Aber mit Alpinaweiß kann ich jetzt für euer Wohnzimmer nicht so empfehlen, nehmt dann lieber Dampfbremsfolie, das ist besser.
Das ist vor allem auch günstiger, also du kriegst wirklich so eine Rolle, ich hab jetzt gerade so eine Rolle gekauft, das sind dann 160 Quadratmeter oder sowas und oft haben die noch so Aufdrucke drauf, Es gibt auch welche die mit serienmäßig schon mal sehr wenig Aufdruck kommen, aber das kriegt man dann wiederum mit Alkohol sehr einfach abgewischt. Also man hat dann sehr einfach, sehr schnell, sehr große Mengen, extrem guten B1 kompatiblen Lichtdiffusor, den man einfach ausschneiden und vor alles packen kann und dann machst du eine LED dahinter und dann ist das einfach eine volle Fläche.
Du sagtest was von intelligenten Röhren, die nicht so geil, nicht so einfach sind. Ich hab hier mal eine rausgesucht, die ich selber im Dings hab. Das ist hier von Nanoleaf, die kann ich eigentlich empfehlen. Die sind jetzt nicht super billig. Natürlich, aber ich finde man kann die, man kann die bezahlen.
Diese Essential Bulbs, die sind eigentlich, die kann man einfach so wie sie sind, irgendwo in die Fassung schrauben und dann kannst du der App sagen, jetzt mach die Farbe und dann ist die Farbe und die kannst du aber auch in HomeKit oder in Meta integrieren, also es gibt jetzt ganz offensichtlich auch eine Meta-Version davon, Aber wir reden jetzt nicht davon, was Matter ist, das machen wir irgendwann mal anders.
Ja, das ist halt auch wirklich eine Sache, die, wenn man halt das wirklich so ein bisschen, ich sag mal... Auch was die Effekte angeht und das Anpassen auf das was man machen will, braucht man eigentlich die Low-Level-Controller, also dass man wirklich den Controller in der Hand hat und dann auch solche Sachen wie so Fade-In-Effekte, die zu dem Timing passen auf Farbübergänge und so, das ist oft leider Gottes bei diesen ganzen Produkten so, dass die nicht so sehr viel Rücksicht nehmen oder nicht so sehr viel ja Blick aufs Detail haben was der wirkliche richtige Umgang ist mit den ganzen Farben die man hat, also der klassische, also man sieht ja überall die ganzen Spätis, die haben RGB LEDs und dann blinkt es dann einfach nur rum, also es geht nur darum bunt und blinken, es geht aber, blind auf 110 Meter entfernt. Und dabei kann man damit so viele schöne Sachen machen, wenn man sich ein bisschen Gedanken macht wie die Farben übergehen und schöne Verläufe macht und damit ja Dinge gestaltet. Und dafür, zumindest aus meiner Erfahrung, braucht man halt einen tieferen Zugang zu dem ganzen. Ist auch vielleicht ein bisschen das Interesse daran, auch bei uns, da wird viele Dinge auch selber das zu kontrollieren und zu bauen, aber also das was wir da jetzt haben, das würde mit solchen Sachen, also auch mit vielen Dingen die man kaufen kann, nicht gehen.
Oh ja, das war auch so eine, irgendwann mal eine Abendsidee, also wenn man dann diese komplexen Strukturen an LEDs an der Wand hat, ist es natürlich schön dann trotzdem, ich sag mal, von Weitem erkennbare Strukturen drauf zu rendern. Was dann aber kompliziert ist, weil du hast dir nur irgendwie an die Wand getackert oder irgendwie da dran gemacht und du willst ja nicht unbedingt jetzt eine einfache Matrix da machen, weil der sieht ja auch nicht aus. Und da haben wir mehr oder weniger auch irgendwie zusammengefrickelt, halt einen Code geschrieben, der einzelne LEDs anmachen lässt und dann mit auf einem Webcam Bild halt guckt, wo auf dem Bild ist, das also die Koordinaten der hellen Pixel nimmt. Und dann das in ein Mapping überrechnet und das haben wir dann halt einfach in die Firmware gebrannt sozusagen und dann kann man da dann halt jetzt eine Linie oder solche Dinge halt darstellen, die halt dann auf diesen wird zusammengelegten Sachen halt leuchten und das mit am besten war der Effekt, wir haben auch so, ja so ich würd mal sagen 5, 6 Meter lange LED Streifen genommen, die wir in so Plastikröhren gemacht haben, an beiden Enden zu, damit sie wasserdicht sind und die haben wir dann draußen über Bäume gehängt oder einen Baum gehängt, also die da so in verschiedene Weisen reingehängt und dann halt von Weitem halt gemappt. Das heißt, du hast dann diesen Baum, der mit diesen LEDs halt irgendwie erleuchtet und konntest halt von Weitem an dem Baum dann so ganzheitlich erscheinende Bilder drauf machen. Und dann dazu hat man auch noch so ein Beat Detection Ding gehabt, also das war auch eine Herausforderung für sich. Da ordentlich Beat Detection, aber dann am Ende hat man halt einen Baum, der sozusagen im Beat da rumpulsiert. Da kann ich übrigens auch die Empfehlung ausgeben, es gibt für diese Beat Detection so spezielle Fourier Chips zu nehmen, wo in der Hardware direkt die Soundsignale, in dem Fall waren es sieben Fourier transformierte Bins, umgewandelt werden. Das heißt du hast dann quasi in Real-Time die Beat Detection, wo du dann nur aus einem von sieben Register, also entweder von Tiefen bis Höhen, halt auslesen kannst, was es ist. Das heißt dann hast du nicht das Problem in irgendwelchen Controllern, irgendwo in der Software-Ebene, das dann umzurechnen, weil dann bist du schon gleich wieder in die Delay und das gibt erstaunlich gute Effekte, Wenn du das halt quasi über diese analoge Technik, dass das umwandelt und das war auch dann relativ schnell, da macht Grüße geht raus ein Lorca, der irgendwann mal mit diesem Chip um die Ecke kam bei uns und dann ging das plötzlich ganz leicht.
Da bin ich jetzt, also wie das genau funktioniert, da bin ich jetzt überfragt, muss ich zugeben, ich weiß nur was der macht, was am Ende der Effekt ist. Also du hast dann halt sieben Register aus dem du dann mit nem Analogwandler die Werte auslesen kannst, wie hoch dann das Level ist und das geht halt auch super schnell.
Ja cool, ich meine es gibt ja auch eine ganze Menge so ready to run Kram, wenn man jetzt irgendwie das nicht alles selber programmieren will, gibt es eigentlich irgendwelche Controller, die man jetzt so kaufen kann, die einem zumindest so einen gewissen Grad an erträglicher Programmierung erspart auf der einen Seite aber trotzdem Steuerung noch irgendwie gibt?
Also es kommt halt drauf an, wie sehr man rausgehen will. Also eine Kombination wäre zum Beispiel, man kauft sich halt einen Strip, entweder den WS4812 oder den WS415, zusammen mit einem Quinled-Board und lädt da WLED drauf. Das, weil dann hat man quasi mit dem WLED nen Interface, wo man die LEDs mit einigen Effekten, die da drin sind, schon steuern kann, da kann man schon sehr sehr viel mit machen. Und dann halt mit dem Quindler quasi Out of the Box Controller, der funktioniert. Es gibt auch noch andere Out of the Box Controller, die ähnliche Sachen machen, aber das ist der, mit dem ich persönlich sehr gute Erfahrungen gemacht habe. Es gibt natürlich noch ein Level größer, das gibt es auch zuhauf, irgendwelche Plastikboxen, wo dann ein LED-Streifen rauskommt, wo du dann aber sehr limitierte Steuerungsmöglichkeiten, wo du dann meistens nur so Fernbedienungen hast, wo du dann so ganz einfache Sachen hin und her steuern kannst. Genau, würde ich auch von abraten, aber es hängt wie gesagt sehr davon ab, was man machen will, wenn man mehr wirklich so einzelne Leuchtpunkte in einem Raum setzen will, dann kann man auch einfach solche RGB Birnen nehmen, würde ich vielleicht sogar eher anstatt RGB lieber auf irgendwelche warm weiß, also die durch verschiedene Weißtöne durchgehen, das dann aber besser.
Genau und ähm... Ja, also das ist so glaube ich, wo wenn man auch selber ein bisschen Lust hat damit zu spielen, weil das ist halt eine Sache, die halt dann auch sehr schnell sehr interessant wird, weil man kann halt schnell Dinge visuell gestalten und auch machen und sieht halt schnell die Ergebnisse. Ich glaube, das ist auch einer der Gründe, warum dieses LED Blink einer der ersten Programmierprojekte oft sind, weil du dann halt schnell siehst, was du machst. Das ist halt sehr sehr haptisch und interessant.
Ja, ich hab neulich ne Hausnummer für mein Haus gemacht, weil irgendwie das Leuchtmittel in der eigentlichen Hausnummer kaputt war, aber mein Fuß war gerade nicht in Ordnung und dann konnte ich nicht auf die hohe Leiter steigen, die ich sowieso nicht hatte und da ein neues Leuchtmittel reinschrauben, also hab ich schnell ein paar LED-Streifen auf den Pappe geklebt und jetzt hab ich halt ne bunt leuchtende Hausnummer. Das ist schon fast so ein bisschen peinlich, wie einfach das Projekt ist.
Nö, es schaltet diverse, diverse von diesen, ich weiß gar nicht welche Library ich benutzt hab, ich glaube es ist fast LED. Da gibt es so ein paar vorbereitete Spektren, also einmal so icy blue und dann gibt es irgendwie das fire red und noch was grünes und dann nochmal zwischendrin ein bisschen LED. Also so ein bisschen RGB, aber ja. Und dann läuft das so ein bisschen durch, also es ist irgendwie, ja.
Ja, aber ist doch gut. Und, ähm... Ja und natürlich, wir haben für diese ganzen ESP's haben wir auch eine Controller Software, die natürlich in Elixir geschrieben ist, also das ist sozusagen der zentrale Hub, wo wir die ganzen ESP's mit steuern, das war auch wieder ein guter Use Case für Elixir, weil wir halt da diese ganzen Verbindungen zu den einzelnen ESP's halt sehr gut aufrechthalten können, die jetzt eigene Aktoren und Prozesse da darstellen und das dann halt.
Oh ja, das ist sehr gut, dass du das erwähnt, weil das ist nämlich das, was die Profis machen. Also es werden ja mittlerweile ganze Bühnen mit tausenden von LEDs bespielt und die gehen ja nicht hin und löten irgendwas mit ESP, sondern die wollen Sachen, die out of the box funktionieren. Dafür gibt es also das sogenannte Artnet, das ist quasi das gute alte DMX multiplexed auf Ethernet. Also das heißt, du hast dann, ich glaube dann, also du kriegst dann halt wirklich zigtausende DMX-Universen dadurch, du nimmst halt Standard-off-the-shelf-Ethernet-Infrastruktur, verteilst über deine Router Und hast dann halt irgendwo zentral dicke, dicke, dicke Rechner mit ordentlichen Grafikkarten, die dann halt für jedes Pixel einzeln, deine ganzen tausenden Pixeln halt das ausrechnen und dann halt durch die, durch das Artnet hinmachen und da gibt's dann halt auch Artnet Controller. Die jetzt nicht so teuer sind, also es kostet dann schon ein, zwei hundert, aber die dann halt auf der einen Seite ein Ethernet Ding haben und auf der anderen Seite fallen dann halt zwei, drei, vier, fünf Anschlussmöglichkeiten für beliebige Chips an. Also die unterstützen auch die Standards, also die NeoPixel, aber auch andere, ja ich glaube im professionellen Umfeld werden auch eher die SPI Chips benutzt, also die mit zwei Bussen, weil die nochmal.
Du hast dann halt, machst dann halt ganz viel, hast dann super viel RGB-Kanäle, um das halt alles einzusteuern und DMX ist ja super slim, also das kannst du in ein paar wenigen, Ja, hast du wie Midi für Licht. Ja und das ist halt so organisch gewachsen, das war halt da, das benutzt man und ich meine du kannst halt auch deine, mit Artnet deine Steno DMX Leuchten damit steuern, ist halt ein bisschen Overkill, weil so viel brauchst du nicht, aber das ist halt sozusagen die Variante, die wenn man etwas hinzuverlässig will und hast halt ne Bühne, Eventtechnik und sowas, dann so machen die das. Aber die haben, finde ich, halt den großen Nachteil, dass du halt alles zentral rechnen musst und was wir halt machen bei uns ist, bei uns wird ein Großteil der Rechnung, der Effekte und alles, was wir drauf machen, auch das Mapping, wird alles in den ESP's gerechnet, das können die locker ab. Und wir steuern zentral nur, schicken ein paar Kommandos, also wenn die jetzt irgendwelche Farben oder Parameter für die Effekte ändern wollen, das heißt, das ganze läuft stand alone, wir müssen nicht, weil diese Beleuchtung läuft ja bei uns dauernd, Müssen wir nicht ständig irgendeinen starken Rechner da stehen haben, der das alles in Real-Time rechnet.
Ja, du hast auf einer Bühne natürlich andere Anforderungen. Du willst deinen zentralen Rechner haben, der einfach funktioniert und alles, was du dran anschließt, soll so weit dumm sein, dass du es halt, wenn eins nicht geht, stöpselst ab, stöpselst ein anderes dran und fertig. Und am Ende der Show muss auch alles wieder eingepackt werden.
Ja genau und es gibt auch, also bei LED-Projekten gibt's sehr schnell den Simpsons-Digit-Effekt, also es gibt wirklich schon alles draußen, egal welche Idee man hat, es gibt im Internet irgendwelche Leute, die das schon mal gemacht haben oder noch besser, also das ist wirklich, also es gibt viele Ideen, viele gute Sachen, es gibt mittlerweile Millionen Videos von Leuten, die sich irgendwo LED-Streifen ins Zimmer hängen und dann reagiert das auf irgendwelche Beats und das ist alles, also, Ja, mittelmäßig sozusagen ästhetisch durchdacht, sag ich mal.
Ich hätte mir irgendwann mal überlegt, ob man nicht tatsächlich so ein Fernsehsignal nimmt und so wie man das von früher kannte, wo in den Wohnzimmern immer je nachdem was gerade im Fernsehen lief, dann das Bild heller und dunkler wurde, dass man sowas einfach als Lichtinstallation macht. Würde man Fernseh gucken aber es ist halt nur Fake.
Aber es gibt aber auch echt coole Projekte, also Matt Parker, den kennt ihr vielleicht, der hatte… Mit dem Weihnachtsbaum? Ja genau, das ist halt so… Ja stimmt. Der hat halt, also das ist halt auch ein interessantes Produkt, es gibt halt diese RGB Dinge auch quasi als Lichterkette, also die kann man sich auch einfach kaufen und dann steuern, da kann man auch schöne Sachen mitmachen.
Man muss aber auch noch mal kurz an der Stelle einfach mal Matt Parker pluggen, der einfach ein grandioser Typ ist, also Mathematiker und Mathefreak sagen wir es mal so, der halt diesen YouTube Kanal macht, Standup Math und der wirklich genuin lustig ist, also der wirklich, Der braucht nur drei Worte sagen, also verschmitzteren Blick kann man auch kaum drauf haben, wirklich tiefgehenden Witz, geile Themen und wie er Mathe irgendwie erläutert anhand tausend Sachen ist immer wieder grandios.
Und dann hat er da so ein Glasgefäß, wo so ein ganz langes Ding drin ist und nimmt es und zieht es so raus und aus irgendeinem Grund gibt es so einen Bogen. Also weit über dem Glasgefäß macht dieses Ding, das nennt er irgendwie Chain Fountain und dann gibt es diverse andere YouTube Kanäle, die versuchen dieses Phänomen zu erklären und es gibt tausende Theorien. Genau, die Kettenfontäne, also das ist super. Ja, weird. Von dem ist es.
Ja und auf die Spitze getrieben haben sie es in Shenzhen vor einigen Jahren. Das ist auch vielleicht relevant für das Ende der Straße von Blinkenlights, um es auf die Spitze zu treiben. Da kommt übrigens ein Großteil der ganzen LEDs her. Die haben quasi eine ganze Phalanx an Hochhäusern mit LEDs außen bestückt und das dann alles gemappt über, ich schätze mal 20 Hochhäuser abgespielt. Das ist sozusagen das Ende der Fahnenstange sozusagen. Mehr Gehsinn, mehr Fläche ist halt besser.
Oh Gott, als wir mit Blinkenleise angefangen haben, war das so das, wo es dann immer drauf hinausläuft. Ja und größer, schneller, bunter, weiter, mehr Pixel, ganze Oberflächen, Häuser, Stadtteile und so weiter. Die Chinesen machen das dann auch noch, because they can. Aber mal ehrlich, geil ist das nicht. Man guckt sich das so an und denkt sich so, ja okay gut, rein technisch gesehen ist das jetzt ein Achievement. Aber Lebensgewinn für die Stadt kann ich dabei halt nicht so richtig ablesen.
Da fehlt der coole Content. Und der coole Content kommt halt nur durch Reduktion. Also weil wenn du erstmal mit Pixel und Farben anfängst, dann ist schnell alles vorbei und dann gibt's einfach nur noch Video und Porno. Und umso mehr du es reduzierst, umso mehr forderst du die Kreativität heraus. Deswegen war das erste Blinkenlights auch immer noch das beste Blinkenlights. Mit Abstand, weil einfach die Leute sich über jeden einzelnen Pixel Gedanken machen mussten. Wann kommt der, ist der überhaupt gesetzt und wenn ja wann und wie lange und mit wenig Raum viel Effekt zu erzielen ist gar nicht so einfach und da wird man halt wirklich kreativ. Ja wir sitzen auch wieder an so einem Projekt jetzt hier fürs Camp. Können wir jetzt noch nicht so richtig viel zu erzählen, ist auf jeden Fall alles in der Entwicklung, sieht schon mal ganz gut aus, funktioniert auf jeden Fall schon, also ist schon was da und wenn das so mehr shape and form hat, dann werden wir da auch nochmal so ein bisschen fishing for content machen. Aber die Zeit ist noch nicht gekommen. Erstmal liefern denke ich mir. So machen wir mal den Block zu. Wo sind wir denn jetzt? Sind wir am Ende schon?
Ne, ne, das stimmt. Gut, dann übertreiben wir es mal nicht. Starlink-Thema, das machen wir nächstes Mal. Vielleicht mit Clemens hat er sowieso noch einiges dazu zu erzählen und dann werden wir mal wieder unsere weiteren Erfahrungen teilen. Ist ja eigentlich auch ganz gut jetzt mit dieser Pause, man hat so viel Zeit sich mit Sachen zu beschäftigen, jetzt kann man richtig weit ausholen, man muss sich nur die Zeit dafür nehmen. So Björn, vielen Dank fürs dabei sein und naja, das war's. Was lachst du Roddy?
Wo ist denn überhaupt meine Tröte hier? Ah hier hab ich noch eine. Ja genau, hier liegt auch noch eine. Willst du auch noch eine haben? Hier können wir zum Schluss nochmal irgendwie tröten. Ist es denn auch stereo? Das ist ja die große Frage. Gut insofern sag ich mal, das war's jetzt hier erstmal mit Freakshow und was haben wir jetzt gehabt? 265 geht bald wieder weiter. Mal gucken in welchen Abstand wir hinkriegen, sieht nach vier Wochen aus, aber vielleicht auch nicht. Mal gucken, wir werden es rausfinden. Wir sagen tschüss!